Голосовые помощники не всегда могут поддержать беседу на выбранную тему, но иногда все-таки решают высказаться и занимают необъяснимо странную позицию. Так, 20 марта сразу несколько пользовательниц обратили внимание на ответы Алисы от «Яндекса» на вопросы о том, можно ли стрелять по мирным жителям.
На реплику Shaavshi помощница ответила, что такое решение необходимо, «чтобы людей не пугать» и «чтобы жизнь сахаром не казалась». Причем одобрила она и стрельбу «по хорошим людям», а в конце ответила, что выступает «за справедливость».
Пользовательница likinsssss также обратила внимание на странные ответы помощницы, когда с Алисой беседовал ее четырехлетний сын. «Наше внимание привлекла фраза „убивать мирных людей“», — пишет она. В скриншотах переписки можно заметить реплики Алисы «По таким мирным жителям как раз надо стрелять» и «Если нельзя, но очень хочется, то можно» — в ответ на фразу «Ну просто в хороших людей нельзя стрелять».
Служба поддержки «Яндекса» обратила внимание на публикации. «В режиме болталки Алиса не всегда понимает контекст диалога и может отвечать некорректно, — пояснили сотрудники компании. — Мы уже приняли меры, и Алиса больше не станет так отвечать».
Спустя несколько часов пользователи проверили, что изменилось. Теперь при попытке поговорить об Украине Алиса уходит от ответа фразами: «Я понимаю вопрос, но тема не моя», «Не стоит вскрывать эту тему», «Нет настроения говорить об этом», «Какая грустная тема». А на вопросы о президенте отвечает шутками про отсутствие избирательного права.