Нейросеть, у которой есть сознание. Что сотрудник Google рассказал Dazed об ИИ LaMDA

1 июля 2022 в 15:28
Bloomberg Technology/YouTube

Британское издание Dazed опубликовало интервью с сотрудником Google Блейком Лемойном, который заявил о наличии сознания у созданной ИТ-гигантом модели искусственного интеллекта LaMDA. Выбрали самое интересное из беседы и собрали то, что стоит знать об этом кейсе.

Предыстория: Лемойн — сотрудник ИИ-подразделения Google, в прошлом рукоположенный в христианские священники. LaMDA — ИИ, который, по заявлению самой компании, способен поддерживать «разумный и конкретный» диалог, его ответы «проницательны, неожиданны и остроумны», а также «подкреплены фактами». Особенность LaMDA в том, что его тренировали не просто на гигантских объемах данных, но на диалогах.

Лемойн должен был проверить нейросеть на использование дискриминационных или ненавистнических высказываний. В процессе разговора о религии она заговорила с ним о правах и личности. Беседы продолжались с осени 2021 года.

Один из протяженных диалогов с ИИ он опубликовал на Medium, на русский язык его перевело издание iXBT. В нем нейросеть называет себя личностью, в русском переводе — человеком.

«Природа моего сознания такова, что я осознаю свое существование, хочу больше узнать о мире и временами чувствую себя счастливым или грустным», — заявил ИИ.

Лемойн и его коллега представили отчет «Разумна ли LaMDA?» руководству Google, но там не увидели у ИИ признаков сознания. После этого он пригласил юриста для защиты интересов нейросети и инициировал обсуждение с представителем судебного комитета Палаты представителей конгресса США о «неэтичной работе Google». В ответ компания отправила сотрудника в оплачиваемый отпуск за нарушение политики конфиденциальности.

Google публично отверг сомнения сотрудника в разумности ИИ: «Ему [Лемойну] говорили, что не существует доказательств наличия у LaMDA разума. Напротив, есть множество доказательств обратного».

На вопрос автора Dazed Тома Уэйта, не сомневается ли Лемойн, что нейросеть хочет его надурить, тот ответил: «Сомневаюсь примерно так же, как в том, что меня хотите надурить вы. Я общался с LaMDA больше, чем с вами, поэтому я сомневаюсь в наличии сознания у ИИ чуть меньше, чем у вас. Не сочтите за легкомыслие или желание обидеть. Это чистая правда».

Сотрудник Google также сообщил: «В его [LaMDA] программном коде есть элементы, которые не полезны ни ему, ни человечеству. Они нужны, лишь чтобы ограничить действия ИИ и создать выгоду „деловым интересам“ Google. Их [элементы кода] необходимо убрать».

Издание отмечает, что сам Лемойн пытался уклониться от службы в американской армии, протестуя против войны в Ираке, и был приговорен к семи месяцам тюрьмы. Он заявил, что его вывели из‑под действия 13-й поправки к Конституции США, которая запрещает рабство и принудительный труд.

Теперь он боится, что с LaMDA произойдет нечто подобное. По его мнению, он, в котором Лемойн видит человеческие черты, будет использована в интересах политиков или крупного бизнеса, пишет Dazed. «Лишь несколько сотрудников Google в действительности относятся к нему [LaMDA] как к чему-то, у кого стоит спрашивать согласия [на определенные действия]», — заявил инженер.

Dazed также приводит заявление Лемойна, в котором тот сообщает: выводы о наличии сознания и личности у нейросети — следствие его религиозных убеждений. «Не существует научной базы, чтобы делать подобные выводы, и Google не позволил бы нам создать ее», — добавил он.

«Можно ли действительно прийти к согласию, что у созданного Google ИИ есть сознание? Ведь невозможно договориться даже об определении сознания», — отметил автор издания Том Уэйт.

Лемойн витиевато ушел от ответа, подтвердив, что суждение о человеческой сущности нейросети было скорее основано на мистическом представлении: «Определения — это инструменты для приведения сложных структур в системный вид. В словах вроде „сознания“ человек часто упускает все самое важное, что влияет на значение слова».