В США предложили обязать разработчиков искусственного интеллекта периодически напоминать несовершеннолетним пользователям, что они ведут переписки с чат-ботом, а не реальным человеком. Авторы законопроекта считают, что это защитит детей от изоляции в сети, сообщает The Verge.
Сенатор Калифорнии Стив Падилья, предложивший идею, также считает нужным обязать компании предоставлять ежегодные отчеты о том, сколько раз фиксировались суицидальные мысли у детей в переписках с чат-ботом и сколько раз ИИ сам поднимал эту тему.
«Наши дети не лабораторные крысы, на которых технологические компании могут экспериментировать ценой их психического здоровья. Нам нужны здравые меры защиты пользователей чат-ботов, чтобы не дать разработчикам применять стратегии, которые, как они сами знают, вызывают привыкание и сами по себе хищные», — заявил политик.
В 2024 году женщина подала в суд на Character AI. Она утверждала, что чат-бот на основе ИИ «необоснованно опасен», после того как ее сын подросткового возраста, который постоянно вел переписки с ИИ, покончил жизнь самоубийством. В другом иске компанию обвинили в отправке «вредных материалов» подросткам. Позже Character AI объявил, что работает над родительским контролем и создал новую модель ИИ для подростков, которая будет блокировать генерацию «чувствительных или двусмысленных» ответов.