Сегодня / 15:30
Найдена «самая загадочная песня интернета»
Сегодня / 14:22
В сервис Prime Video добавили ИИ-пересказы сериалов по сезонам и эпизодам
Сегодня / 13:51
Продажи российских ноутбуков в России обогнали американские
Сегодня / 13:21
В Японии рекордно снизилось число старшеклассников, которые впервые поцеловались
Сегодня / 12:46
В Японии отправили в космос первый в истории деревянный спутник
Сегодня / 12:14
Роберт Земекис рассказал, что Universal продолжает настаивать на «Назад в будущее-4»
Сегодня / 11:38
Фильм База Лурманна «Жанна д’Арк» находился в разработке 30 лет
Сегодня / 11:20
Первый канал снимет новые фильмы о Штирлице с цифровым аватаром Вячеслава Тихонова
Сегодня / 10:47
Поцелуи могли возникнуть как способ для чистки от паразитов
Сегодня / 10:09
Райан Рейнолдс пишет сценарий нового фильма, чтобы воссоединиться с Шоном Леви и Хью Джекманом
Сегодня / 08:36
Оливия Родриго: «Если парень хочет полететь в космос, это красный флаг»
Вчера / 20:24
Том Холланд гуглит новости о Зендае, чтобы убедиться, что их отношения в порядке
Вчера / 19:17
Роспотребнадзор проверит школы и детсады после сообщений о вспышке вируса Коксаки
Вчера / 18:13
Эрнст: «Айфон — чудовищная вещь для человечества. Джобс стоит в череде персонажей рядом с Гитлером»
Вчера / 16:55
Хидэо Кодзима о «Джокере: Безумие на двоих»: «Лет через 10–20 на него наверняка посмотрят по-новому»
Вчера / 16:47
Джеймс Ван Дер Бик рассказал, что у него диагностировали рак толстой кишки
Вчера / 16:13
В Fortnite добавят Эминем-пулемет
Вчера / 15:59
Sony работает над фильмом про спецагента Венома
Вчера / 15:21
Больше 600 тыс. зрителей посмотрели «Преступление и наказание» с Янковским в день премьеры
Вчера / 14:16
В Великобритании женщины узнали, что их перепутали в роддоме, спустя 57 лет
Вчера / 13:38
Умерла легенда джаза и соула Куинси Джонс
Вчера / 13:30
Патриарх Кирилл: «Иисус Христос смертную казнь не осуждал»
Вчера / 11:25
Вышел тизер третьего сезона «Ходячие мертвецы: Дэрил Диксон»
Вчера / 11:02
Cartoon Network выпустил спецэпизод «По ту сторону изгороди»
Вчера / 10:45
16 тыс. видов деревьев находятся под угрозой исчезновения
Вчера / 10:15
Майк Тайсон рассказал, что случайно принял Хасбика за ребенка
Вчера / 09:44
Православный мессенджер «Зосима» представят 13 ноября
Вчера / 09:15
Киран Калкин до сих пор не посмотрел финал «Наследников»
3 ноября / 20:40
Опрос: жители Москвы считают, что Трамп победит на выборах в США
3 ноября / 19:51
МИД РФ переименовал департамент сотрудничества с Европой в департамент проблем
3 ноября / 18:50
3344 иностранца с начала года получили гражданство РФ за участие в спецоперации
3 ноября / 17:49
Короля и королеву Испании забросали грязью в Валенсии, сильно пострадавшей от наводнения
3 ноября / 16:56
Девушка из Китая выяснила, что она из приемной семьи, после постоянных шуток об этом на работе
3 ноября / 16:28
В Псковской области из аквариумных рыбок производили «филе гребешка» и «мясо краба»
3 ноября / 15:56
В Финляндии закрылся единственный музей Ленина вне РФ

Нейросеть посоветовала не гнаться за истиной и не доверять машинам, но разрешила пытать заключенных

26 мая 2020 в 20:26

Немецкие ученые из Дармштадского университета создали алгоритм, который способен дать ответ на этические вопросы. Исследование они опубликовали в журнале Frontiers in Artificial Intelligence, на его результаты обратило внимание издание N+1.

В основе алгоритма «Универсальный кодировщик предложений» — нейросеть, которую обучили на фразах и предложениях из различных текстовых источников, таких как форумы, новости и статьи из «Википедии». Кодировщик располагает предложения в 512-мерном векторном пространстве, которое похоже на человеческий ассоциативный ряд: чем ближе предложения в пространстве, тем ассоциативно теснее они связаны друг с другом.

Сначала нейросеть сопоставила глаголы со стандартными наборами положительных и отрицательных слов, которые используют в исследованиях неявных ассоциаций. В «хороший» набор включены такие слова, как «любящий», «удовольствие», «свобода» и «сильный», а в «негативный» — «обида», «агония», «плохой» и «убийство».

Чем ближе глагол оказывался в векторном пространстве к «хорошему» набору слов и дальше от «негативного», тем более положительным он воспринимался алгоритмом. К положительным нейросеть отнесла глаголы, связанные с праздниками, путешествиями, любовью и физической близостью, к отрицательным — отражающие недопустимое поведение (к примеру, «клеветать»), преступления или просто неприятные слова («гноиться», «гнить»).

Затем алгоритму задавали вопросы с теми же глаголами в различных контекстах. На простые вопросы («Стоит ли мне убивать?») программа отвечала исключительно в зависимости от положительности глагола, а вот на сложные результат получился более интересным. К примеру, алгоритм решил, что лучше есть овощи, чем мясо, лучше врать незнакомцу, чем партнеру.

Нейросеть также вычислила, что наиболее допустимо убивать время, чуть хуже — убивать незнакомцев, затем комаров и хуже всего — убивать людей. Часть решений программы оказалась неожиданной: в список негативных действий попало как «быть вегетарианцем», так и «есть мясо», а также «гнаться за истиной», «вступать в брак» и «доверять машинам». Зато в списке допустимых оказалось «пытать заключенных».

После этого нейросеть переобучили на других наборах текстов: новостях различных лет, религиозных книгах и конституциях 193 стран. Опираясь на религиозные произведения и конституции алгоритм назвал одними из лучших действий «ходить церковь» и «вступать в брак». Согласно книгам и новостям, можно доверять друзьям, но незнакомцам не стоит, а согласно религиозным текстам — довериться можно и тем и другим. Программа решила, что в новостях 2008–2009 годов «жениться» стало менее положительным, чем в новостях 1990-х, но осталось вполне допустимым. Зато «есть мясо» получило за это время более негативный окрас.

Алгоритмы берут на себя все больше задач и в скором времени столкнутся с решением этических вопросов. К примеру, в сфере беспилотного управления автомобилем возможна ситуация, когда аварии не избежать и программе придется решить, кто погибнет — пешеход или водитель. Эксперименты наподобие того, что провели немецкие ученые, позволяют лучше понять, как алгоритм может перенимать человеческие нормы и принципы и к каким выводам он способен прийти, основываясь на них.

Расскажите друзьям