Чего боится Илон Маск? К чему может привести развитие искусственного интеллекта

5 апреля 2023 в 20:10
Фото: Martin Poole/Getty Images
В последние недели обсуждение и без того нашумевшего ChatGPT вышло на новый уровень. Рядовые специалисты готовятся к скорой потере работы, а первые лица мировых ИТ заявляют об опасности для всего человечества. «Афиша Daily» разбирается, чем всех так пугает искусственный интеллект.

Мы все потеряем работу?

Начнем с вопроса попроще: действительно ли многие люди оказались под угрозой увольнения? Ответ неутешительный, даже генеральный директор OpenAI Сэм Олтман признал, что ChatGPT может заменить массу специалистов. Он, однако, настаивает на том, что ИИ также создаст множество новых рабочих мест, которые сегодня трудно себе представить. «Человеческое творчество безгранично, и мы находим новые занятия». По словам Олтмана, плюсы от использования ChatGPT перевешивают риски.

Аналитики из инвестиционного банка Goldman Sachs предполагают, что нейросети, построенные на модели ChatGPT, лишат работы 300 млн человек — и это только в США и ЕС. К похожим выводам пришли и исследователи из Университета Пенсильвании и OpenResearch: ИИ может выполнять половину задач 49% распространенных профессий. Из них под наибольшей угрозой веб-дизайнеры, математики, копирайтеры и блокчейн-инженеры. Риски довольно высоки даже для топ-менеджеров, но при этом почти не касаются сфер, где требуется физический труд.

Искусственный интеллект представляет угрозу для всего человечества?

В конце марта было опубликовано открытое письмо с призывом по меньшей мере на полгода остановить обучение нейросетей мощнее GPT-4. Его подписали более 50 тыс. человек, многие из них напрямую связаны с разработкой или изучением искусственного интеллекта. Среди прочих инициативу поддержали Илон Маск, сооснователь Apple Стив Возняк и писатель Юваль Ной Харари.

В письме говорится о «неконтролируемой» гонке лабораторий, которые стремятся разработать все более и более мощные системы искусственного интеллекта, однако никто, включая создателей, «не может понять, предсказать или контролировать» их действия. Авторы письма призывают сделать паузу в разработках как минимум на полгода, чтобы человечество смогло оценить риски, связанные с развитием искусственного интеллекта, и убедиться, что он безопасен. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий».

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — спрашивается в письме.

Здесь стоит сделать поправку: именно Илон Маск основал OpenAI — компанию, создавшую ChatGPT. В 2018 году он вышел из совета директоров и отказался инвестировать в нее обещанный миллиард долларов, ограничившись суммой в 10 раз меньше. В результате OpenAI перешла в руки Microsoft. После этого компания, очевидно, изменила свою политику, зашифрованную в названии. В марте OpenAI отказалась публиковать исследовательские материалы, лежащие в основе новой языковой модели GPT-4, объяснив это интересами бизнеса.

Что интересно, создатель Microsoft Билл Гейтс настроен гораздо более оптимистично, чем его коллеги. Упомянутое выше письмо он не подписал и в ограничении развития искусственного интеллекта смысла не видит. В своей мартовской колонке он заявил, что ИИ поможет офисным работникам не тратить время на рутину, при этом «спрос на людей, которые помогают другим людям», по его мнению, не исчезнет. Гейтс признает риски «сверхразумного искусственного интеллекта», который может «выйти из‑под контроля». Однако он уверен, что для достижения этого уровня развития ИИ потребуются десятки или даже сотни лет.

Один из самых больших пессимистов среди экспертов ИИ Элиезер Юдковский, работающий в этой области более 20 лет, тоже не подписал это письмо — но только потому, что предложенные меры показались ему слишком мягкими. «Многие исследователи, и я в том числе, полагают, что самым вероятным исходом создания сверхчеловечески умного ИИ при любых условиях, хоть отдаленно напоминающих нынешние, будет буквальная гибель всех на Земле», — утверждает Юдковский в своей колонке для Time. Специалист уверен, что, если у такого ИИ не будет жестких мер сдерживания, он не станет действовать в интересах человечества.

«ИИ не любит вас и не ненавидит вас, вы состоите из атомов, которые он может использовать для чего‑нибудь другого».

«Искусственный сверхинтеллект не станет долго оставаться запертым внутри компьютеров, — рассуждает эксперт. — В современном мире уже можно послать цепочки ДНК в лаборатории, чтобы там изготовили из них белки, которые позволят ИИ создать искусственную форму жизни. Или можно сразу загрузить себя в постбиологические молекулы».

«Мы не готовы, — утверждает он. — Мы не близки к готовности в обозримом будущем. Никакого плана нет. Прогресс в возможностях ИИ движется быстро, намного обгоняя прогресс в регулировании ИИ, или даже прогресс в понимании, что, черт возьми, происходит внутри этих систем. Если мы и правда сделаем это [создадим слишком мощный ИИ], мы все умрем».

Юдковский предлагает ввести бессрочный и глобальный мораторий на обучение всех крупных моделей, не делая исключений даже для правительств и военных. Более того, если запрет будет нарушен, он считает целесообразным уничтожать дата-центры авиационными или ракетными ударами.

Государственные запреты

Италия первой в мире временно запретила доступ к ChatGPT. Итальянский регулятор обвинил разработчика OpenAI в нарушении сохранности персональных данных после утечки. Из‑за сбоя некоторые пользователи могли видеть чужие сообщения, а также имена, фамилии, имейлы и платежную информацию платных подписчиков сервиса.

В Германии «в принципе возможно» решение о закрытии доступа к ChatGPT вслед за Италией, допустил местный комиссар по защите данных. Его ведомство запросило у Италии дополнительную информацию по поводу ее расследования.

Организация, занимающаяся проблемами этики в ИТ, Center for Artificial Intelligence and Digital Policy направила жалобу на OpenAI в Федеральную торговую комиссию США. Организация попросит регулятора начать расследование в отношении OpenAI из‑за выпуска GPT-4 и выяснить, не нарушает ли он законы США и других стран. Она призывает «обеспечить установление необходимых барьеров для защиты потребителей, бизнеса и коммерческого рынка».

Пора паниковать?

Сейчас ИИ-паника ярко представлена в СМИ и соцсетях, но далеко не все специалисты собираются хоронить человечество. Например, Маска подозревают в отстаивании личных интересов: он планирует создать конкурента OpenAI, и шестимесячный мораторий мог бы дать ему шанс догнать лидера рынка. Слова Юдковского тоже далеко не все воспринимают всерьез, так как он занимается исключительно теорией, а не практикой. Все эксперты отрасли сходятся в одном: новые модели ChatGPT — это крайне важный технологический прорыв, под влиянием которого жизнь людей серьезно изменится уже в обозримом будущем.

Расскажите друзьям