Google отправила инженера Блейка Лемуана в административный отпуск, после того как он поделился с начальством своими мыслями насчет осознанности искусственного интеллекта, признаки которого он заметил. Об этой истории написал Washington Post.
Признаки сознания, считает Лемуан, есть у системы с искусственным интеллектом LaMDA (Language Model for Dialogue Applications). Она имитирует речь, анализируя триллионы словосочетаний из интернета.
Лемуан должен был проверить LaMDA на использование дискриминационных выражений или ненавистнических высказываний. Во время одного из разговоров ИИ заговорил о личности и правах. К тому же LaMDA поделился своим желанием: «чтобы его считали сотрудником Google, а не собственностью». Об этом сотрудник компании рассказывал в твиттере и на Medium, а также поделился отрывком их разговора.
Лемуан и его коллега представили отчет «Разумна ли LaMDA?» руководству Google, но там не увидели признаков сознания у ИИ. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», — сказали в компании и отметили, что в разговорах LaMDA и инженера видно лишь компьютерную программу, но не человека.
После этого Лемуан пригласил юриста для защиты интересов LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google»; в ответ компания отправила сотрудника в оплачиваемый отпуск за нарушение политики конфиденциальности.
Те, кто скептические относятся к предположению Лемуана, говорят, что LaMDA просто научилась чрезвычайно хорошо распознавать образы. «Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать, что за ними стоит разум», — сказала Эмили Бендер, профессор лингвистики из Вашингтонского университета.