Реклама
Новости
Число жертв стрельбы в школе Ижевска выросло до 17 человек
03:04
Адвокат обвинил силовиков в сексуальном насилии в отношении активиста Артема Камардина
02:19
Границу Грузии разрешили переходить в пешем порядке
01:23
В Крыму около 400 человек получили некорректные повестки в рамках мобилизации
00:45
Этическая комиссия журфака МГУ проверит студентов, осудивших акцию однокашника в поддержку СВО
вчера в 23:42
Государственная дума РФ
В Москве одну из улиц назвали в честь Владимира Жириновского
вчера в 22:27
Граждане Кубы проголосовали за легализацию однополых браков
вчера в 22:14
Иосиф Пригожин опасается, что его зятя отправят на фронт
вчера в 21:12
Премьер-министр Казахстана поручил содействовать регистрации въезжающих в республику россиян
вчера в 21:08
Владимир Путин предоставил российское гражданство Эдварду Сноудену
вчера в 20:26
Стрельба в ижевской школе, обещание Минобороны не ограничивать выезд и другие новости дня
вчера в 20:22
Дайджест
Российская киноакадемия не будет выдвигать фильм на премию «Оскар» в 2022 году
вчера в 20:06
Аэропорт Тюмени первым ограничил вылет российских мужчин за границу
вчера в 19:24
ФСБ задержала во Владивостоке японского консула за шпионскую акцию
вчера в 19:13
РБК: российские власти решили сократить бюджетные расходы на утилизацию мусора
вчера в 19:00
Минобороны: перемещения россиян на время мобилизации не будут ограничивать
вчера в 18:46
Суд повторно признал песню группы «Порнофильмы» экстремистской
вчера в 18:24
В Финляндию за выходные въехали почти 17 тыс. россиян
вчера в 18:23
Сергей Ведяшкин/Агентство «Москва»
Россияне раскупили все прямые авиабилеты в Турцию, Казахстан и ОАЭ до конца месяца
вчера в 17:49
СМИ: ЕС планирует отложить введение потолка цен на российскую нефть из‑за разногласий между странами
вчера в 17:33
По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество
14 сентября 2022 12:17

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Читайте также
События недели на afisha.ru
Рекомендации партнеров