Сегодня / 08:06
«ВКонтакте» убрал поиск видео «для взрослых»
Сегодня / 16:31
В США у роженицы, съевшей салат с маком, забрали младенца — из‑за положительного теста на опиаты
Сегодня / 16:15
У продюсера «Константина» готов сценарий для сиквела
Сегодня / 14:52
Новоизбранного подмосковного мундепа заставили сложить полномочия из‑за его национальности
Сегодня / 13:08
В Госдуме предложили взорвать ядерную бомбу, чтобы напомнить о Чернобыле и Хиросиме
Сегодня / 12:34
Дыхание через анус и ракеты c голубями: Шнобелевская премия назвала победителей в 2024 году
Сегодня / 11:18
В Хабаровске учителя уволили из‑за танца на каблуках. Школьники вступились его танцем и флешмобом
Сегодня / 10:16
Хоакин Феникс отказался от главной роли в «Сплите» за две недели до съемок
Сегодня / 09:09
Роланд Эммерих хочет поставить сериал-ремейк по «Лоуренсу Аравийскому»
Вчера / 22:49
Джастина Тимберлейка приговорили к общественным работам за вождение в нетрезвом виде
Вчера / 21:54
«Мы вошли в историю»: Криштиану Роналду первым в мире набрал 1 млрд подписчиков в соцсетях
Вчера / 21:29
В Великобритании у министра по борьбе с преступностью украли сумку во время речи о воровстве
Вчера / 20:52
Глава приморского Минздрава призвал «делать детей» в перерывах между работой
Вчера / 20:30
Обри Плаза поделилась новыми деталями пережитого в 20 лет инсульта
Вчера / 20:12
Турист выкинул чипсы в пещеру и создал локальную экологическую катастрофу
Вчера / 19:24
Москвичек приглашают на анализы для оценки фертильности. Это часть новой городской программы
Вчера / 19:19
The Cure могут выпустить первый за 16 лет альбом
Вчера / 18:09
Жуткий трейлер хоррора «Жребий» по роману Стивена Кинга
Вчера / 17:53
«Царьград» ввел подписку на раздел с пиратскими версиями западных фильмов
Вчера / 17:48
Сергей Лазарев и Therr Maitz перепели «Олимпиаду-80» к выходу финала «Игр»
Вчера / 17:34
Жительница Урала отсудила у МВД полмиллиона рублей за сорванную поездку
Вчера / 17:15
Газету «Собеседник» внесли в реестр иноагентов
Вчера / 17:13
Рабочие компании Boeing вышли на первую забастовку с 2008 года
Вчера / 16:54
Ремейк Flappy Bird заподозрили в криптоскаме
Вчера / 16:40
Apple будет блокировать айфоны с запчастями из других устройств
Вчера / 16:33
Вышел трейлер фильма «Атака титанов», собранного из финальных серий аниме
Вчера / 16:11
В Лондоне нашли украденную работу Бэнкси
Вчера / 15:44
Новую короткометражку Димы Барченкова покажут на крупнейшем хоррор-фестивале в США
Вчера / 15:05
Charli XCX, Майка Монро и Эмма Коррин сыграют в фильме «100 Nights of Hero»
Вчера / 14:55
В Китае повысили пенсионный возраст и минимальный трудовой стаж из‑за старения населения
Вчера / 14:19
В Париже оштрафовали женщин, утверждавших, что Брижитт Макрон сменила пол
Вчера / 13:58
ЦБ повысил ключевую ставку до 19% годовых и не исключил нового повышения
Вчера / 13:54
На рейсах «Аэрофлота» пассажиров будут угощать шарлоткой
Вчера / 13:46
Буддисты возмутились туалетными ершиками с Буддой в «Лемана Про». Сеть магазинов снимет их с продажи
Вчера / 12:59
Huawei выпустила «раскладушку» с тремя экранами. Но замена экрана обойдется в половину стоимости

По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество

14 сентября 2022 в 15:17
Nick Amoscato/Flickr

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Расскажите друзьям
Теги: