Вчера / 13:30
Патриарх Кирилл: «Иисус Христос смертную казнь не осуждал»
Вчера / 20:24
Том Холланд гуглит новости о Зендее, чтобы убедиться, что их отношения в порядке
Вчера / 19:17
Роспотребнадзор проверит школы и детсады после сообщений о вспышке вируса Коксаки
Вчера / 18:13
Эрнст: «Айфон — чудовищная вещь для человечества. Джобс стоит в череде персонажей рядом с Гитлером»
Вчера / 16:55
Хидэо Кодзима о «Джокере: Безумие на двоих»: «Лет через 10–20 на него наверняка посмотрят по-новому»
Вчера / 16:47
Джеймс Ван Дер Бик рассказал, что у него диагностировали рак толстой кишки
Вчера / 16:13
В Fortnite добавят Эминем-пулемет
Вчера / 15:59
Sony работает над фильмом про спецагента Венома
Вчера / 15:21
Больше 600 тыс. зрителей посмотрели «Преступление и наказание» с Янковским в день премьеры
Вчера / 14:16
В Великобритании женщины узнали, что их перепутали в роддоме, спустя 57 лет
Вчера / 13:38
Умерла легенда джаза и соула Куинси Джонс
Вчера / 11:25
Вышел тизер третьего сезона «Ходячие мертвецы: Дэрил Диксон»
Вчера / 11:02
Cartoon Network выпустил спецэпизод «По ту сторону изгороди»
Вчера / 10:45
16 тыс. видов деревьев находятся под угрозой исчезновения
Вчера / 10:15
Майк Тайсон рассказал, что случайно принял Хасбика за ребенка
Вчера / 09:44
Православный мессенджер «Зосима» представят 13 ноября
Вчера / 09:15
Киран Калкин до сих пор не посмотрел финал «Наследников»
3 ноября / 20:40
Опрос: жители Москвы считают, что Трамп победит на выборах в США
3 ноября / 19:51
МИД РФ переименовал департамент сотрудничества с Европой в департамент проблем
3 ноября / 18:50
3344 иностранца с начала года получили гражданство РФ за участие в спецоперации
3 ноября / 17:49
Короля и королеву Испании забросали грязью в Валенсии, сильно пострадавшей от наводнения
3 ноября / 16:56
Девушка из Китая выяснила, что она из приемной семьи, после постоянных шуток об этом на работе
3 ноября / 16:28
В Псковской области из аквариумных рыбок «производили» филе гребешка и мясо краба
3 ноября / 15:56
В Финляндии закрылся единственный музей Ленина вне РФ
3 ноября / 15:32
Baza: Канье Уэст может выступить в Петербурге в ноябре
3 ноября / 14:56
В Перми пропал первый трудоустроенный кот в России. За его поимку обещано вознаграждение
3 ноября / 14:55
Древнеримская плотина спасла муниципалитет Испании от затопления
3 ноября / 13:59
На организатора концерта Big Baby Tape, продавшего лишние билеты, составили «митинговый» протокол
3 ноября / 13:40
С 5 ноября до 85% территории РФ покроется снегом
3 ноября / 12:58
Жителей Нью-Йорка призвали экономить воду
3 ноября / 12:23
Иранская студентка вышла на улицу в нижнем белье, протестуя против обязательного ношения хиджаба
3 ноября / 11:09
В Японии арестовали создателей сайта спойлеров к аниме и фильмам
3 ноября / 09:57
В Telegram появятся новые функции мини-приложений, включая полноэкранный режим
3 ноября / 09:12
Юная россиянка Настя Радзинская вновь попала в топ самых высокооплачиваемых блогеров
2 ноября / 20:43
Джаред Лето и Джон Малейни снимутся в фильме про похищение советского космического корабля

OpenAI призвала регулировать ИИ и предупредила о рисках технологии: как прошли слушания в сенате США

17 мая 2023 в 17:13
Сэм Альтман на слушании. Фото: CNBC Television/YouTube

16 мая создатель ChatGPT и руководитель отдела конфиденциальности в корпорации International Business Machines Сэм Альтман выступил в сенате США. Во время слушаний он призвал сенаторов более жестко регулировать технологии искусственного интеллекта, которые становятся источниками этических и юридических проблем, а также подрывают национальную безопасность.

The New York Times в своей статье отмечает, что Альтман и сенаторы не были по разные стороны баррикад, как это уже бывало между государством и технологическими компаниями (можно вспомнить Марка Цукерберга и Джеффа Безоса). За день до слушаний гендиректор OpenAI даже встречался наедине с рядом сенаторов, перед которыми позже выступал. Один из них, Дик Дурбин, во время слушаний подчеркнул, что он впервые видит людей из крупных организаций, которые «умоляют регулировать их деятельность».

«Афиша Daily» собрала главное со слушаний об искусственном интеллекте в Сенате США.

«Я больше всего боюсь, что мы, технологическая индустрия, причиним миру серьезный вред»

Альтман высоко оценил потенциал технологии ИИ, которая, по его словам, может решить самые большие проблемы человечества. Но он напомнил, что она достаточно мощная, чтобы изменить общество непредсказуемым образом, поэтому «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков». Альтман предупредил, что если ИИ «пойдет наперекосяк», то миру может быть причинен «серьезный вред».

По словам Альтман, технология его компании может лишить общество некоторых профессий и взамен создать новые, и «правительству будет важно выяснить, как можно смягчить» этот переход. «Мы считаем, что преимущества созданных нами инструментов значительно перевешивают риски, но обеспечение их безопасности жизненно важно для нашей работы», — заключил он.

Помимо Альтмана, в сенате выступили директор IBM по вопросам конфиденциальности Кристина Монтгомери и профессор Нью-Йоркского университета, частый критик ИИ-технологии Гэри Маркус. Монтгомери призвала к точному оцениванию рисков и регулированию именно разработки ИИ, а не его использования. А Маркус обвинил OpenAI в непрозрачной политике по обработке данных и засомневался в обещании Альтмана новых рабочих мест.

Альтман предложил создать отдельное агентство по регулированию ИИ. По его задумке, оно будет выдавать лицензии на разработку больших моделей ИИ, формулировать правила техники безопасности и разрабатывать тесты, которые должны будут пройти модели перед релизом. Маркус в свою очередь предупредил, что агентство рискует оказаться захваченным отраслью, которое оно вообще-то должно регулировать.

Чего опасаются сенаторы

Законодателей больше всего волновало влияние ИИ на демократический строй и конкуренция с Китаем, но не только, передает Bloomberg.

Сенатор от штата Коннектикут и председатель комиссии Ричард Блюменталь во время вступительной речи включил запись своего фейкового голоса. Она была создана из отрывков его предыдущих речей, а слова написаны чат-ботом ChatGPT, которого попросили сгенерировать вступительную речь. Он призвал новаторов в области ИИ работать с регулирующими органами над новыми ограничениями и признал, что конгресс не принял адекватных мер защиты для уже существующих технологий.

Блюменталь включил свой фейковый голос

Блюменталь вспомнил эпоху появления социальных сетей, которую американские власти «не смогли встретить», и посоветовал не повторить того же самого с ИИ. Речь идет о том, как конгресс не смог привлечь соцсети к ответственности за модерацию контента, что привело к распространению дезинформации во время выборов 2016 и 2020 годов. Однако Альтман несколько раз подчеркнул, что соцсети и ИИ — это две разные вещи и подход ко второму должен быть другим.

Директор Центра политических исследований AI Now Institute Сара Майерс Уэст раскритиковала предложения Альтмана по регуляции ИИ: ограничения, по ее мнению, должны также касаться использования нейросетей в полиции и обработки биометрических данных. Она отметила, что глава OpenAI не пытался замедлить разработку ChatGPT: «С иронией наблюдаю за тем, как люди беспокоятся о вреде системы, которую сами же выпустили для свободного использования».

Сенаторы вслед за Альтманом тоже предложили создать независимое агентство для надзора за ИИ. Помимо этого, законодатели считают нужным заставить компании раскрывать алгоритм работы их моделей и наборы данных, которые они используют, а также составить антимонопольные правила, чтобы предотвратить захват зарождающегося рынка гигантами типа Microsoft и Google.

Некоторые участники слушаний предупредили, что чрезмерная регуляция может затормозить развитие технологии, у которой есть большие экономические перспективы для Соединенных Штатов, и дать фору китайским разработчикам.

Большая часть обсуждения была сосредоточена на генеративном ИИ, который может создавать изображения, аудио и текст, которые кажутся созданными человеком. Однако технология применяется не только для создания аудиовизуального контента: алгоритмы рекомендаций в соцсетях и программы, анализирующие огромное количество данных или же погодные условия, тоже полагаются на ИИ.

Альтман уверен, что общественность научится вычислять контент с ложной информацией, созданной ИИ. «Когда давным-давно появился Photoshop, какое‑то время люди действительно обманывались [изображениями, созданными в программе], а затем довольно быстро стали понимать, где есть фотошоп и где нет», — сказал он, но в то же время подчеркнул, что в случае с ИИ отличать правду от вымысла будет в разы сложнее.


В начале мая «крестный отец искусственного интеллекта» Джеффри Хинтон ушел из Google из‑за этических проблем с нейросетями. Он сделал это, чтобы предупредить о рисках, связанных с использованием ИИ-технологий. «Возможно, вы больше не сможете знать, что является правдой», — подчеркнул ученый в своем заявлении.

Расскажите друзьям