Бывший старший сотрудник OpenAI по безопасности Ян Лейке уволился из‑за разногласий, которые достигли «переломного момента» после релиза GPT-4o. Он заявил, что компания отдает предпочтение «блестящим продуктам», но не безопасности.
Лейке следил, чтобы мощные системы искусственного интеллекта соответствовали человеческим ценностям и целям. Специалист подал в отставку через несколько дней после того, как компания из Сан-Франциско представила свою новейшую модель искусственного интеллекта GPT-4o.
Экс-работник OpenAI подробно рассказал о причинах своего ухода в твиттере. «Создание машин, которые умнее человека, по своей сути опасное занятие. OpenAI берет на себя огромную ответственность за все человечество. Но за последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией», — написал Лейке.
По мнению Лейке, к искусственному интеллекту и последствиям его разработки «давно пора отнестись с серьезностью», чтобы «суметь гарантировать, что это принесет пользу всему человечеству». OpenAI должна стать компанией, которая в первую очередь гарантирует безопасность, считает он. Лейке признал, что накопившиеся проблемы «довольно сложно решить», а его команде становится «все труднее и труднее» проводить исследования.
Напоследок Лейке написал обращение к сотрудникам OpenAI: «Научитесь чувствовать ИИ. Действуйте с серьезностью, которая сопоставима с тем, что вы строите. Я верю, что вы можете внедрить необходимые культурные изменения [внутри компании]. Я рассчитываю на вас. Мир рассчитывает на вас».
Предупреждение Лейке появилось после того, как группа международных экспертов по искусственному интеллекту опубликовала первый отчет о безопасности технологии. В документе говорилось, что существуют разногласия по поводу вероятности того, что мощные системы ИИ ускользнут из‑под контроля человека.
На следующей неделе пройдет саммит по развитию ИИ в Сеуле, где политики, эксперты и технические руководители обсудят контроль над технологией. Там запланировано выступление Лейке.