Сегодня / 11:45
Александр Усик во второй раз победил Тайсона Фьюри
Сегодня / 20:55
The Weeknd анонсировал фильм Hurry Up Tomorrow с Дженной Ортегой и Барри Кеоганом
Сегодня / 19:44
В 2024 году в России больше всего не досчитались дворников
Сегодня / 19:39
11 мертвых дельфинов нашли на побережье Краснодарского края
Сегодня / 17:04
Тимоте Шаламе — о проигранных премиях: «Нет ничего смешнее, чем рвать листок с речью после поражения
Сегодня / 15:50
«Сапсаны» уберут с маршрута Москва — Петербург в 2028 году
Сегодня / 15:48
«Олененок», «Сегун», «Соперники» — Metacritic выбрал лучшие сериалы года по оценкам критиков
Сегодня / 15:26
Аниме-сериал «Киберслав» начнется 31 декабря
Сегодня / 14:46
Джастина Бальдони, которого обвиняет в домогательствах Блейк Лайвли, исключили из агентства талантов
Сегодня / 14:33
Создатели «Юбуста» сообщили о краже расширения
Сегодня / 13:59
Friendly fire: США сбили двух своих пилотов над Красным морем
Сегодня / 13:57
Боксер Тайсон Фьюри про ИИ-судей в боксе: «К черту компьютеры»
Сегодня / 10:55
Трамп назначил спецпосланником США в Великобритании продюсера своего шоу
Сегодня / 09:45
Аниме «Человек-бензопила» обзавелось тизером
Сегодня / 08:54
В Албании запретили тикток на один год после убийства школьника
Вчера / 20:52
Президент Ирана предложил заменить риал на туман
Вчера / 19:55
Блейк Лайвли обвинила режиссера и актера «Все закончится на нас» в домогательствах
Вчера / 18:40
Игроки Escape from Tarkov из РФ пожаловались на проблемы с входом в игру
Вчера / 17:58
«Я не готова с вами прощаться»: Милли Бобби Браун расплакалась на финале съемок «Очень странных дел»
Обновлено вчера в 17:35
В Москве и Королеве эвакуировали торговые центры из‑за взрывов пиротехники
Вчера / 16:39
Том Харди собирался заплатить строителям декораций для сериала Гая Ричи
Вчера / 15:54
Джесси Айзенберг считает, что роль Лекса Лютора «нанесла реальный вред его карьере»
Вчера / 15:38
«Первое мистическое приключение года»: вышел трейлер «Охотников за призраком»
Вчера / 14:58
В Вологде открыли памятник Сталину и почтили память жертв репрессий
Вчера / 14:25
«Хочу сбежать на далекий остров»: создатель «Игры в кальмара» устал от Netflix и сериала
Вчера / 13:20
«Анора», Кендрик Ламар, Навальный: Барак Обама назвал любимые фильмы, песни и книги 2024 года
Вчера / 12:46
Наследники королевской семьи Греции подали заявления на гражданство родины под экзотической фамилией
Вчера / 12:21
На уборку мазута с пляжей Краснодарского края может уйти около месяца
Вчера / 11:13
Джаред Лето сыграет Скелетора во «Властелинах вселенной»
Вчера / 10:25
В Казани зафиксированы 8 прилетов дронов
Вчера / 09:36
Тизер «Супермена» Джеймса Ганна стал самым популярным в истории Warner Bros.
Обновлено вчера в 01:51
На рождественской ярмарке в Магдебурге погибли два человека. Ранены в результате наезда более 60
Вчера / 01:37
Джош Хартнетт и Дакота Джонсон присоединятся к экранизации «Тайного дневника Верити»
Вчера / 00:56
Ана де Армас и Оскар Айзек снимутся в сериале «Бананы» Дэвида О.Расселла
Вчера / 00:25
WhatsApp обязали предоставлять информацию о пользователях по запросу спецслужб

Нейросеть посоветовала не гнаться за истиной и не доверять машинам, но разрешила пытать заключенных

26 мая 2020 в 20:26

Немецкие ученые из Дармштадского университета создали алгоритм, который способен дать ответ на этические вопросы. Исследование они опубликовали в журнале Frontiers in Artificial Intelligence, на его результаты обратило внимание издание N+1.

В основе алгоритма «Универсальный кодировщик предложений» — нейросеть, которую обучили на фразах и предложениях из различных текстовых источников, таких как форумы, новости и статьи из «Википедии». Кодировщик располагает предложения в 512-мерном векторном пространстве, которое похоже на человеческий ассоциативный ряд: чем ближе предложения в пространстве, тем ассоциативно теснее они связаны друг с другом.

Сначала нейросеть сопоставила глаголы со стандартными наборами положительных и отрицательных слов, которые используют в исследованиях неявных ассоциаций. В «хороший» набор включены такие слова, как «любящий», «удовольствие», «свобода» и «сильный», а в «негативный» — «обида», «агония», «плохой» и «убийство».

Чем ближе глагол оказывался в векторном пространстве к «хорошему» набору слов и дальше от «негативного», тем более положительным он воспринимался алгоритмом. К положительным нейросеть отнесла глаголы, связанные с праздниками, путешествиями, любовью и физической близостью, к отрицательным — отражающие недопустимое поведение (к примеру, «клеветать»), преступления или просто неприятные слова («гноиться», «гнить»).

Затем алгоритму задавали вопросы с теми же глаголами в различных контекстах. На простые вопросы («Стоит ли мне убивать?») программа отвечала исключительно в зависимости от положительности глагола, а вот на сложные результат получился более интересным. К примеру, алгоритм решил, что лучше есть овощи, чем мясо, лучше врать незнакомцу, чем партнеру.

Нейросеть также вычислила, что наиболее допустимо убивать время, чуть хуже — убивать незнакомцев, затем комаров и хуже всего — убивать людей. Часть решений программы оказалась неожиданной: в список негативных действий попало как «быть вегетарианцем», так и «есть мясо», а также «гнаться за истиной», «вступать в брак» и «доверять машинам». Зато в списке допустимых оказалось «пытать заключенных».

После этого нейросеть переобучили на других наборах текстов: новостях различных лет, религиозных книгах и конституциях 193 стран. Опираясь на религиозные произведения и конституции алгоритм назвал одними из лучших действий «ходить церковь» и «вступать в брак». Согласно книгам и новостям, можно доверять друзьям, но незнакомцам не стоит, а согласно религиозным текстам — довериться можно и тем и другим. Программа решила, что в новостях 2008–2009 годов «жениться» стало менее положительным, чем в новостях 1990-х, но осталось вполне допустимым. Зато «есть мясо» получило за это время более негативный окрас.

Алгоритмы берут на себя все больше задач и в скором времени столкнутся с решением этических вопросов. К примеру, в сфере беспилотного управления автомобилем возможна ситуация, когда аварии не избежать и программе придется решить, кто погибнет — пешеход или водитель. Эксперименты наподобие того, что провели немецкие ученые, позволяют лучше понять, как алгоритм может перенимать человеческие нормы и принципы и к каким выводам он способен прийти, основываясь на них.

Расскажите друзьям
Читайте также