Вчера / 10:25
В Казани зафиксированы 8 прилетов дронов
Вчера / 20:52
Президент Ирана предложил заменить риал на туман
Вчера / 19:55
Блейк Лайвли обвинила режиссера и актера «Все закончится на нас» в домогательствах
Вчера / 18:40
Игроки Escape from Tarkov из РФ пожаловались на проблемы с входом в игру
Вчера / 17:58
«Я не готова с вами прощаться»: Милли Бобби Браун расплакалась на финале съемок «Очень странных дел»
Обновлено вчера в 17:35
В Москве и Королеве эвакуировали торговые центры из‑за взрывов пиротехники
Вчера / 16:39
Том Харди собирался заплатить строителям декораций для сериала Гая Ричи
Вчера / 15:54
Джесси Айзенберг считает, что роль Лекса Лютора «нанесла реальный вред его карьере»
Вчера / 15:38
«Первое мистическое приключение года»: вышел трейлер «Охотников за призраком»
Вчера / 14:58
В Вологде открыли памятник Сталину и почтили память жертв репрессий
Вчера / 14:25
«Хочу сбежать на далекий остров»: создатель «Игры в кальмара» устал от Netflix и сериала
Вчера / 13:20
«Анора», Кендрик Ламар, Навальный: Барак Обама назвал любимые фильмы, песни и книги 2024 года
Вчера / 12:46
Наследники королевской семьи Греции подали заявления на гражданство родины под экзотической фамилией
Вчера / 12:21
На уборку мазута с пляжей Краснодарского края может уйти около месяца
Вчера / 11:13
Джаред Лето сыграет Скелетора во «Властелинах вселенной»
Вчера / 09:36
Тизер «Супермена» Джеймса Ганна стал самым популярным в истории Warner Bros.
Обновлено вчера в 01:51
На рождественской ярмарке в Магдебурге погибли два человека. Ранены в результате наезда более 60
Вчера / 01:37
Джош Хартнетт и Дакота Джонсон присоединятся к экранизации «Тайного дневника Верити»
Вчера / 00:56
Ана де Армас и Оскар Айзек снимутся в сериале «Бананы» Дэвида О.Расселла
Вчера / 00:25
WhatsApp обязали предоставлять информацию о пользователях по запросу спецслужб
20 декабря / 23:48
Появились кадры Харрисона Форда в образе Красного Халка из «Первого мстителя: Дивного нового мира»
20 декабря / 23:46
Фильм о Джулиане Ассанже сняли с фестиваля «Сандэнс» за месяц до показа, чтобы доработать
20 декабря / 22:59
Мэрайя Кэри провела шоу в Fortnite
20 декабря / 22:54
Сериал «Плохая обезьяна» с Винсом Воном продлили на второй сезон
20 декабря / 22:17
Том Холланд назвал отношения с Зендаей лучшим событием в жизни
20 декабря / 21:50
YouTube начнет удалять видео с кликбейтом без предупреждения
20 декабря / 21:42
Ремейк «Мумии» выйдет на экраны весной 2026 года. Его поставит Ли Кронин
20 декабря / 20:50
Работа над фильмами о Бонде остановлена из‑за разногласий о будущем франшизы
20 декабря / 20:32
В Великобритании кондитер испекла пряничный домик с бриллиантами за 817 миллионов рублей
20 декабря / 19:58
Песню Робби Уилльямса исключили из шорт-листа «Оскара»
20 декабря / 19:40
Российским фигуристам и конькобежцам разрешили отбираться на Олимпиаду-2026
20 декабря / 18:59
Съемки финального сезона «Очень странных дел» завершились
20 декабря / 18:28
В Индии женщина пожаловалась в суд на мужа за то, что он любит ее меньше, чем кошку
20 декабря / 17:58
Синоптик рассказал, какая погода ждет россиян на Новый год
20 декабря / 17:55
Маргариту Симоньян наградили орденом «За заслуги перед Отечеством»

По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество

14 сентября 2022 в 15:17
Nick Amoscato/Flickr

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Расскажите друзьям
Теги: