Сегодня / 13:38
Появился первый кадр из «Газеты» — спин-оффа «Офиса». Сериал выйдет в сентябре
Сегодня / 13:43
Орнитологи изучат популяцию сокола-балобана на Алтае и будут подсаживать птенцов в чужие гнезда
Сегодня / 13:39
Вышел клип Леонида Агутина на трек «Н.В.Л.», который стал саундтреком сериала «Разочарованные»
Сегодня / 12:43
Суд признал порочащими честь Мизулиной фрагменты из интервью Лебедева Дудю*
Сегодня / 12:12
В водоемах Москвы появятся почти 200 плавучих домиков для уток
Сегодня / 11:32
В Китае зумеры тихо протестуют против выгорания: они отказываются работать и называют себя «крысами»
Сегодня / 10:54
Ютубер воссоздал трек Эминема, используя реплики из 331 фильма и сериала
Сегодня / 09:22
Жерар Депардье получил условный срок по делу о домогательствах
Сегодня / 08:52
Робот-гуманоид от Tesla станцевал
Сегодня / 07:21
Второй сезон «Фоллаута» получил новые тизеры и дату премьеры. Шоу продлили на третий сезон
Сегодня / 06:33
Apple планирует увеличить работу батареи на всех айфонах с iOS 19, внедрив функцию с ИИ
Сегодня / 05:50
Николас Кейдж сражается с бандитами в первом тизере «Паука-Нуар»
Сегодня / 23:24
Джуд Лоу и Эндрю Гарфилд перевоплотятся в дрессировщиков львов и иллюзионистов Зигфрида и Роя
Сегодня / 22:30
Netflix выпустит комедийный сериал «Too Much» — новый проект Лены Данэм
Сегодня / 21:37
Google обновил логотип впервые за 10 лет
Вчера / 20:45
Майя Хоук сыграет Лючию Джойс — писательницу, танцовщицу и дочь Джеймса Джойса
Вчера / 19:50
Умер блогер Вячеслав Паруков, ведущий ютуб-канала «Ильдар Автоподбор»
Вчера / 19:50
Режиссер «Витьки Чеснока» снимет сериал по вселенной «Майора Грома»
Вчера / 18:55
В Севастополе отменили гастроли Театра Вахтангова из‑за спектаклей Туминаса в репертуаре
Вчера / 18:44
На Каннском кинофестивале запретили «голые» платья и объемные наряды со шлейфами
Вчера / 17:15
«Иллюзию обмана-3» покажут в российских кинотеатрах
Вчера / 17:02
Гордон Рамзи спродюсирует сериал о поварах, стремящихся получить звезду Michelin
Вчера / 16:41
Умерла бывшая прима-балерина Мариинского театра Алла Осипенко
Вчера / 16:10
Патрик Уилсон снимется в черной комедии «Мысли и молитвы»
Вчера / 15:57
Исследование: «Оземпик» и другие препараты для снижения веса могут вдвое снизить риск развития рака
Вчера / 15:23
Мик Джаггер спродюсирует фильм о Майлзе Дэвисе
Вчера / 14:57
Умерла актриса Нина Гребешкова, снимавшаяся в фильмах Леонида Гайдая
Вчера / 14:33
Kid Kudi срежиссирует фильм и сыграет в нем главную роль

OpenAI призвала регулировать ИИ и предупредила о рисках технологии: как прошли слушания в сенате США

17 мая 2023 в 14:13
Сэм Альтман на слушании. Фото: CNBC Television/YouTube

16 мая создатель ChatGPT и руководитель отдела конфиденциальности в корпорации International Business Machines Сэм Альтман выступил в сенате США. Во время слушаний он призвал сенаторов более жестко регулировать технологии искусственного интеллекта, которые становятся источниками этических и юридических проблем, а также подрывают национальную безопасность.

The New York Times в своей статье отмечает, что Альтман и сенаторы не были по разные стороны баррикад, как это уже бывало между государством и технологическими компаниями (можно вспомнить Марка Цукерберга и Джеффа Безоса). За день до слушаний гендиректор OpenAI даже встречался наедине с рядом сенаторов, перед которыми позже выступал. Один из них, Дик Дурбин, во время слушаний подчеркнул, что он впервые видит людей из крупных организаций, которые «умоляют регулировать их деятельность».

«Афиша Daily» собрала главное со слушаний об искусственном интеллекте в Сенате США.

«Я больше всего боюсь, что мы, технологическая индустрия, причиним миру серьезный вред»

Альтман высоко оценил потенциал технологии ИИ, которая, по его словам, может решить самые большие проблемы человечества. Но он напомнил, что она достаточно мощная, чтобы изменить общество непредсказуемым образом, поэтому «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков». Альтман предупредил, что если ИИ «пойдет наперекосяк», то миру может быть причинен «серьезный вред».

По словам Альтман, технология его компании может лишить общество некоторых профессий и взамен создать новые, и «правительству будет важно выяснить, как можно смягчить» этот переход. «Мы считаем, что преимущества созданных нами инструментов значительно перевешивают риски, но обеспечение их безопасности жизненно важно для нашей работы», — заключил он.

Помимо Альтмана, в сенате выступили директор IBM по вопросам конфиденциальности Кристина Монтгомери и профессор Нью-Йоркского университета, частый критик ИИ-технологии Гэри Маркус. Монтгомери призвала к точному оцениванию рисков и регулированию именно разработки ИИ, а не его использования. А Маркус обвинил OpenAI в непрозрачной политике по обработке данных и засомневался в обещании Альтмана новых рабочих мест.

Альтман предложил создать отдельное агентство по регулированию ИИ. По его задумке, оно будет выдавать лицензии на разработку больших моделей ИИ, формулировать правила техники безопасности и разрабатывать тесты, которые должны будут пройти модели перед релизом. Маркус в свою очередь предупредил, что агентство рискует оказаться захваченным отраслью, которое оно вообще-то должно регулировать.

Чего опасаются сенаторы

Законодателей больше всего волновало влияние ИИ на демократический строй и конкуренция с Китаем, но не только, передает Bloomberg.

Сенатор от штата Коннектикут и председатель комиссии Ричард Блюменталь во время вступительной речи включил запись своего фейкового голоса. Она была создана из отрывков его предыдущих речей, а слова написаны чат-ботом ChatGPT, которого попросили сгенерировать вступительную речь. Он призвал новаторов в области ИИ работать с регулирующими органами над новыми ограничениями и признал, что конгресс не принял адекватных мер защиты для уже существующих технологий.

Блюменталь включил свой фейковый голос

Блюменталь вспомнил эпоху появления социальных сетей, которую американские власти «не смогли встретить», и посоветовал не повторить того же самого с ИИ. Речь идет о том, как конгресс не смог привлечь соцсети к ответственности за модерацию контента, что привело к распространению дезинформации во время выборов 2016 и 2020 годов. Однако Альтман несколько раз подчеркнул, что соцсети и ИИ — это две разные вещи и подход ко второму должен быть другим.

Директор Центра политических исследований AI Now Institute Сара Майерс Уэст раскритиковала предложения Альтмана по регуляции ИИ: ограничения, по ее мнению, должны также касаться использования нейросетей в полиции и обработки биометрических данных. Она отметила, что глава OpenAI не пытался замедлить разработку ChatGPT: «С иронией наблюдаю за тем, как люди беспокоятся о вреде системы, которую сами же выпустили для свободного использования».

Сенаторы вслед за Альтманом тоже предложили создать независимое агентство для надзора за ИИ. Помимо этого, законодатели считают нужным заставить компании раскрывать алгоритм работы их моделей и наборы данных, которые они используют, а также составить антимонопольные правила, чтобы предотвратить захват зарождающегося рынка гигантами типа Microsoft и Google.

Некоторые участники слушаний предупредили, что чрезмерная регуляция может затормозить развитие технологии, у которой есть большие экономические перспективы для Соединенных Штатов, и дать фору китайским разработчикам.

Большая часть обсуждения была сосредоточена на генеративном ИИ, который может создавать изображения, аудио и текст, которые кажутся созданными человеком. Однако технология применяется не только для создания аудиовизуального контента: алгоритмы рекомендаций в соцсетях и программы, анализирующие огромное количество данных или же погодные условия, тоже полагаются на ИИ.

Альтман уверен, что общественность научится вычислять контент с ложной информацией, созданной ИИ. «Когда давным-давно появился Photoshop, какое‑то время люди действительно обманывались [изображениями, созданными в программе], а затем довольно быстро стали понимать, где есть фотошоп и где нет», — сказал он, но в то же время подчеркнул, что в случае с ИИ отличать правду от вымысла будет в разы сложнее.


В начале мая «крестный отец искусственного интеллекта» Джеффри Хинтон ушел из Google из‑за этических проблем с нейросетями. Он сделал это, чтобы предупредить о рисках, связанных с использованием ИИ-технологий. «Возможно, вы больше не сможете знать, что является правдой», — подчеркнул ученый в своем заявлении.

Расскажите друзьям
Читайте также