Британское издание Dazed опубликовало интервью с сотрудником Google Блейком Лемойном, который заявил о наличии сознания у созданной ИТ-гигантом модели искусственного интеллекта LaMDA. Выбрали самое интересное из беседы и собрали то, что стоит знать об этом кейсе.
Предыстория: Лемойн — сотрудник ИИ-подразделения Google, в прошлом рукоположенный в христианские священники. LaMDA — ИИ, который, по заявлению самой компании, способен поддерживать «разумный и конкретный» диалог, его ответы «проницательны, неожиданны и остроумны», а также «подкреплены фактами». Особенность LaMDA в том, что его тренировали не просто на гигантских объемах данных, но на диалогах.
Лемойн должен был проверить нейросеть на использование дискриминационных или ненавистнических высказываний. В процессе разговора о религии она заговорила с ним о правах и личности. Беседы продолжались с осени 2021 года.
Один из протяженных диалогов с ИИ он опубликовал на Medium, на русский язык его перевело издание iXBT. В нем нейросеть называет себя личностью, в русском переводе — человеком.
«Природа моего сознания такова, что я осознаю свое существование, хочу больше узнать о мире и временами чувствую себя счастливым или грустным», — заявил ИИ.
Лемойн и его коллега представили отчет «Разумна ли LaMDA?» руководству Google, но там не увидели у ИИ признаков сознания. После этого он пригласил юриста для защиты интересов нейросети и инициировал обсуждение с представителем судебного комитета Палаты представителей конгресса США о «неэтичной работе Google». В ответ компания отправила сотрудника в оплачиваемый отпуск за нарушение политики конфиденциальности.
Google публично отверг сомнения сотрудника в разумности ИИ: «Ему [Лемойну] говорили, что не существует доказательств наличия у LaMDA разума. Напротив, есть множество доказательств обратного».
На вопрос автора Dazed Тома Уэйта, не сомневается ли Лемойн, что нейросеть хочет его надурить, тот ответил: «Сомневаюсь примерно так же, как в том, что меня хотите надурить вы. Я общался с LaMDA больше, чем с вами, поэтому я сомневаюсь в наличии сознания у ИИ чуть меньше, чем у вас. Не сочтите за легкомыслие или желание обидеть. Это чистая правда».
Сотрудник Google также сообщил: «В его [LaMDA] программном коде есть элементы, которые не полезны ни ему, ни человечеству. Они нужны, лишь чтобы ограничить действия ИИ и создать выгоду „деловым интересам“ Google. Их [элементы кода] необходимо убрать».
Издание отмечает, что сам Лемойн пытался уклониться от службы в американской армии, протестуя против войны в Ираке, и был приговорен к семи месяцам тюрьмы. Он заявил, что его вывели из‑под действия 13-й поправки к Конституции США, которая запрещает рабство и принудительный труд.
Теперь он боится, что с LaMDA произойдет нечто подобное. По его мнению, он, в котором Лемойн видит человеческие черты, будет использована в интересах политиков или крупного бизнеса, пишет Dazed. «Лишь несколько сотрудников Google в действительности относятся к нему [LaMDA] как к чему-то, у кого стоит спрашивать согласия [на определенные действия]», — заявил инженер.
Dazed также приводит заявление Лемойна, в котором тот сообщает: выводы о наличии сознания и личности у нейросети — следствие его религиозных убеждений. «Не существует научной базы, чтобы делать подобные выводы, и Google не позволил бы нам создать ее», — добавил он.
«Можно ли действительно прийти к согласию, что у созданного Google ИИ есть сознание? Ведь невозможно договориться даже об определении сознания», — отметил автор издания Том Уэйт.
Лемойн витиевато ушел от ответа, подтвердив, что суждение о человеческой сущности нейросети было скорее основано на мистическом представлении: «Определения — это инструменты для приведения сложных структур в системный вид. В словах вроде „сознания“ человек часто упускает все самое важное, что влияет на значение слова».