Бывший специалист по безопасности из OpenAI сказал, что он «в ужасе» от темпов развития искусственного интеллекта, и предупредил, что индустрия делает «очень рискованную ставку» на эту технологию. Об этом сообщил The Guardian.
Стивен Адлер выразил опасения по поводу компаний, стремящихся быстро разработать искусственный интеллект общего назначения (AGI). В серии постов в X он написал, что технологии развиваются настолько быстро, что это заставляет сомневаться в будущем человечества.
«Я в ужасе от темпов развития ИИ в наши дни. Когда я думаю о том, где мне растить будущую семью или сколько откладывать на пенсию, я не могу не задаваться вопросом: доживет ли человечество до этого момента?» — признался он.
Некоторые эксперты, например лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из‑под контроля человека и привести к потенциально катастрофическим последствиям. Другие, среди которых главный специалист по ИИ Meta* Ян ЛеКун, преуменьшают экзистенциальную угрозу, говоря, что ИИ «может спасти человечество от вымирания».
Говоря о разработке AGI, основной цели OpenAI, Адлер добавил: «Гонка AGI — это очень рискованная авантюра с огромными последствиями».
По его словам, ни одна исследовательская лаборатория не имеет решения проблемы контроля ИИ — процесса обеспечения того, чтобы системы придерживались набора человеческих ценностей. Адлер считает, что индустрия движется слишком быстро, чтобы найти такое решение.
Ранее китайская компания DeepSeek всколыхнула американскую технологическую индустрию, представив модель, конкурирующую с технологиями OpenAI, несмотря на то что на ее разработку было затрачено явно меньше ресурсов.
* Компания Meta признана в России экстремистской организацией, ее деятельность в стране запрещена.