Тренды

Бабушка с бегемотом, кенгуру с билетом и грибы с глазами: ИИ-видео уносят нас в матрицу

Фото: @yerbolat.mamen
Генерация роликов так продвинулась, что отличить работу нейронок от реальных видео почти невозможно. Иногда это помогает сделать их абсурдное содержание.

В соцсетях вирусятся фейковые интервью и репортажи, созданные новым ИИ-генератором Veo 3 от Google. Картинка в них реалистична, а вот герои роликов далеки от реальности: рептилоиды в ростовых куклах, живущие в фонтанах девочки-русалки и бабушка с домашним бегемотом.

Google представил новую генеративную модель 20 мая. Как отмечал CNBC, Veo 3 можно было бы назвать конкурентом Sora от Open AI, но у разработки Google есть отличие ― возможность встраивать аудио в создаваемые им ролики.

Разработчики хотели, чтобы технология открыла новую эру генерации нейросетевых видео. Однако в соцсетях ее использовали самым очевидным образом — стали лепить с помощью нее вирусные видео.

Одно из первых завирусившихся видео, созданных Veo 3, — с кенгуру, которого не пускают на борт самолета.

В российском сегменте мировой сети особенную популярность приобрели сгенерированные уличные репортажи. В одном из популярных у бабушки спрашивают, действительно ли в Рязани есть грибы с глазами. Доказательство их существования героиня ролика предъявляет на камеру.

Во многих фейковых интервью у людей на улицах интересуются, действительно ли они созданы нейросетью. Выясняется, что сгенерировано все вокруг.

На волне популярности таких видео стали появляться и реальные интервью, где обычных прохожих спрашивают, не сгенерированы ли они.

Режиссер и дизайнер @broksh_director создал с помощью Veo 3 целый мини-фильм про бабушку, которая завела бегемота. Со своим питомцем, которого героиня ласково зовет Булькой, бабушка ходит в магазин за продуктами, вызволяет уазики, застрявшие в грязи, и колет арбузы пополам. Моет своего бегемотика она во дворе из шланга, как автомобиль.

Бабушек так часто использовали в сгенерированных видео, что ИИ-художник Александр Доброкотов даже создал шутливый ролик на эту тему. Нейробабушки требуют перестать их эксплуатировать, ведь над ними просто смеются и никому не интересно, что бы они сказали на самом деле.

Но помимо веселья новая технология несет и риски. Журнал Time смог найти в соцсетях реалистичные сгенерированные видео, на которых толпа в Пакистане поджигает индуистский храм, китайские исследователи работают с летучей мышью в грязной лаборатории, сотрудник избирательной комиссии уничтожает бюллетени и палестинцы с благодарностью принимают помощь от США в Газе. По словам экспертов, такие ролики, несмотря на распространенные в них неточности, способны спровоцировать социальные волнения или насилие.

«Риски дипфейков и сгенерированного контента были хорошо известны и очевидны в течение многих лет. Тот факт, что индустрия технологий до сих пор не может защититься даже от таких очевидных угроз, ― это прямой сигнал, что она недостаточно ответственна, чтобы справляться с еще более опасными и продвинутыми версиями ИИ», ― считает эксперт по кибербезопасности из Conjecture Коннор Лихи.

Расскажите друзьям