16 мая создатель ChatGPT и руководитель отдела конфиденциальности в корпорации International Business Machines Сэм Альтман выступил в сенате США. Во время слушаний он призвал сенаторов более жестко регулировать технологии искусственного интеллекта, которые становятся источниками этических и юридических проблем, а также подрывают национальную безопасность.
The New York Times в своей статье отмечает, что Альтман и сенаторы не были по разные стороны баррикад, как это уже бывало между государством и технологическими компаниями (можно вспомнить Марка Цукерберга и Джеффа Безоса). За день до слушаний гендиректор OpenAI даже встречался наедине с рядом сенаторов, перед которыми позже выступал. Один из них, Дик Дурбин, во время слушаний подчеркнул, что он впервые видит людей из крупных организаций, которые «умоляют регулировать их деятельность».
«Афиша Daily» собрала главное со слушаний об искусственном интеллекте в Сенате США.
«Я больше всего боюсь, что мы, технологическая индустрия, причиним миру серьезный вред»
Альтман высоко оценил потенциал технологии ИИ, которая, по его словам, может решить самые большие проблемы человечества. Но он напомнил, что она достаточно мощная, чтобы изменить общество непредсказуемым образом, поэтому «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков». Альтман предупредил, что если ИИ «пойдет наперекосяк», то миру может быть причинен «серьезный вред».
По словам Альтман, технология его компании может лишить общество некоторых профессий и взамен создать новые, и «правительству будет важно выяснить, как можно смягчить» этот переход. «Мы считаем, что преимущества созданных нами инструментов значительно перевешивают риски, но обеспечение их безопасности жизненно важно для нашей работы», — заключил он.
Помимо Альтмана, в сенате выступили директор IBM по вопросам конфиденциальности Кристина Монтгомери и профессор Нью-Йоркского университета, частый критик ИИ-технологии Гэри Маркус. Монтгомери призвала к точному оцениванию рисков и регулированию именно разработки ИИ, а не его использования. А Маркус обвинил OpenAI в непрозрачной политике по обработке данных и засомневался в обещании Альтмана новых рабочих мест.
Альтман предложил создать отдельное агентство по регулированию ИИ. По его задумке, оно будет выдавать лицензии на разработку больших моделей ИИ, формулировать правила техники безопасности и разрабатывать тесты, которые должны будут пройти модели перед релизом. Маркус в свою очередь предупредил, что агентство рискует оказаться захваченным отраслью, которое оно вообще-то должно регулировать.
Чего опасаются сенаторы
Законодателей больше всего волновало влияние ИИ на демократический строй и конкуренция с Китаем, но не только, передает Bloomberg.
Сенатор от штата Коннектикут и председатель комиссии Ричард Блюменталь во время вступительной речи включил запись своего фейкового голоса. Она была создана из отрывков его предыдущих речей, а слова написаны чат-ботом ChatGPT, которого попросили сгенерировать вступительную речь. Он призвал новаторов в области ИИ работать с регулирующими органами над новыми ограничениями и признал, что конгресс не принял адекватных мер защиты для уже существующих технологий.
Блюменталь вспомнил эпоху появления социальных сетей, которую американские власти «не смогли встретить», и посоветовал не повторить того же самого с ИИ. Речь идет о том, как конгресс не смог привлечь соцсети к ответственности за модерацию контента, что привело к распространению дезинформации во время выборов 2016 и 2020 годов. Однако Альтман несколько раз подчеркнул, что соцсети и ИИ — это две разные вещи и подход ко второму должен быть другим.
Директор Центра политических исследований AI Now Institute Сара Майерс Уэст раскритиковала предложения Альтмана по регуляции ИИ: ограничения, по ее мнению, должны также касаться использования нейросетей в полиции и обработки биометрических данных. Она отметила, что глава OpenAI не пытался замедлить разработку ChatGPT: «С иронией наблюдаю за тем, как люди беспокоятся о вреде системы, которую сами же выпустили для свободного использования».
Сенаторы вслед за Альтманом тоже предложили создать независимое агентство для надзора за ИИ. Помимо этого, законодатели считают нужным заставить компании раскрывать алгоритм работы их моделей и наборы данных, которые они используют, а также составить антимонопольные правила, чтобы предотвратить захват зарождающегося рынка гигантами типа Microsoft и Google.
Некоторые участники слушаний предупредили, что чрезмерная регуляция может затормозить развитие технологии, у которой есть большие экономические перспективы для Соединенных Штатов, и дать фору китайским разработчикам.
Большая часть обсуждения была сосредоточена на генеративном ИИ, который может создавать изображения, аудио и текст, которые кажутся созданными человеком. Однако технология применяется не только для создания аудиовизуального контента: алгоритмы рекомендаций в соцсетях и программы, анализирующие огромное количество данных или же погодные условия, тоже полагаются на ИИ.
Альтман уверен, что общественность научится вычислять контент с ложной информацией, созданной ИИ. «Когда давным-давно появился Photoshop, какое‑то время люди действительно обманывались [изображениями, созданными в программе], а затем довольно быстро стали понимать, где есть фотошоп и где нет», — сказал он, но в то же время подчеркнул, что в случае с ИИ отличать правду от вымысла будет в разы сложнее.
В начале мая «крестный отец искусственного интеллекта» Джеффри Хинтон ушел из Google из‑за этических проблем с нейросетями. Он сделал это, чтобы предупредить о рисках, связанных с использованием ИИ-технологий. «Возможно, вы больше не сможете знать, что является правдой», — подчеркнул ученый в своем заявлении.