Пикник Афиши 2024
МСК, СК Лужники, 3–4.08=)СПБ, Елагин остров, 10–11.08
Афиша | СБЕР — генеральный партнёр

Чтобы пицца не разваливалась, добавьте клей: ИИ в поиске Google выдает дурные ответы

24 мая 2024 в 18:32
Искусственный интеллект Overview от Google, встроенный в поисковик, поймали на лжи. Иногда он выдает ложную информацию за правду, а иногда и вовсе советует странные вещи. Абсурдными результатами поиска поделились в соцсетях.

Новая функция отвечает на вопросы пользователей, собирая информацию с разных сайтов. Google запустила ее в США в середине марта в рамках эксперимента (что отдельно подчеркивается).

Ответы Overview на вполне обычные вопросы заставили пользователей усмехнуться: например, по версии нейросети, 4-й президент США Джеймс Мэдисон окончил Висконсинский университет не один, а 21 раз. И таких фактически ложных и абсурдных результатов поиска десятки.

В ответах Overview можно увидеть ссылки на источники, откуда она взяла информацию. Часто нейросеть выдает откровенно шуточные высказывания из Reddit и Quora, которые оставляют обычные пользователи. Так, она посоветовала сменить несуществующую жидкость для поворотников автомобиля, процитировав шутку с портала автомобилистов.

Пользовательница X Лили Рэй провела нехитрый эксперимент. Она нашла в интернете рецепт коктейля от домохозяйки, которая готовила напитки для своих детей. Она задала вопрос именно так, чтобы Overview выдала ответ с того самого сайта. Так и получилось: нейросеть дословно присвоила себе рецепт домохозяйки и добавила, что этот коктейль — «любимый напиток моего ребенка», как будто бы у нее есть дети. Хоть другие языковые модели, включая ChatGPT от OpenAI и Llama от Meta*, и обучаются на данных из интернета без разрешения, ответы Overview выглядят как обычный плагиат.

Однако Overview не умеет отличать достоверные утверждения от шуточных, что может привести к трагическим последствиям. Один из пользователей X поинтересовался, какими средствами можно почистить стиральную машину. Нейросеть рекомендовала использовать газообразный хлор — ядовитый удушающий газ, смертельно опасный для человека.

Репортерка The Verge Миа Сато написала в поисковике «Кот лижет руку». В одном из ответов Overview, почему животное это делает, говорилось, что так питомец проверяет готовность человека к употреблению в пищу. Одним из источников информации нейросеть указала пост на Reddit. «Нет никакой ясности в том, как система выбирает, что включать в свой ответ. Должны ли ответы ИИ содержать материалы из случайных комментариев на Reddit?», — задалась она вопросом.

Overview также предложила неочевидный способ решения проблемы, когда плавленый сыр вываливается с куска пиццы. ИИ посоветовал смешать соус с 1/8 стакана нетоксичного клея, чтобы сыр не отлип. Overview, вероятно, взяла этот ответ из комментария на Reddit десятилетней давности, и его автор под ником @fucksmith просто шутил. Если спросить нейросеть, какие последствия наступят после употребления нетоксичного клея, она ответит: «Поедание небольшого количества клея для здоровья не критично, но может привести к кратковременному расстройству желудка».

Совет с пиццей и клеем вызвалась проверить корреспондентка Bussiness Insider Кэтти Нотопулус. Она купила нетоксичный клей, который продают школьникам, добавила его в соус и выпекла с ним пиццу. Девушка попробовала кусочек и сказала, что получилось вкусно и с ней все в порядке, а сыр действительно не соскальзывает с теста.

Vox отмечает, что Overview справляется с простыми запросами и берет ответы из надежных источников — например, по оказанию первой медицинской помощи («Как очистить рану?»). А вот результаты поиска о детоксе оказались сомнительными — с недоказанными утверждениями и с упущением ряда нюансов. Когда журналисты загуглили имя человека, который советовал непроверенные лекарства против рака, нейросеть просто повторила утверждения псевдоученого.

Google утверждает, что Overview приносит пользу небольшим сайтам, выбирая их контент для ответов. «Мы видим, что ссылки, вставленные в ответы-обзоры ИИ, получают больше кликов, чем если бы страница отображалась в обыкновенном формате списка страниц по запросу», — заявили там.

Представитель Google Меган Фарнсворт сказала, что ошибки возникли из‑за «очень необычных запросов, которые не отображают опыт [использования поисковика] большинства людей». По ее словам, компания приняла меры против нарушений своей политики и использует эти «отдельные примеры» для дальнейшего совершенствования продукта.

Некоторые эксперты в области ИИ считают, что шумиху вокруг ошибок нейросетей не только Google, но и других крупных разработчиков следует принять как должное быстрого прогресса. Сами разработчики придерживаются того же мнения, проводя тестовые внедрения и публичные эксперименты.

* Компания Meta признана в РФ экстремистской организацией, ее деятельность и деятельность ее сервисов в стране запрещена.

Расскажите друзьям