Журналисты издания Ars Technica сгенерировали с помощью нейросети компрометирующие фотографии на вымышленного молодого человека по имени Джон.
По легенде, Джон — обычный учитель начальной школы, который в последние 12 лет публиковал снимки с работы и отдыха в фейсбуке*. Однако достаточно лишь семи изображений, чтобы сделать его любителем делать голые селфи, ходить в бары в костюме клоуна или членом экстремистской организации.
Изначально исследователи хотели использовать фотографии реального человека, но результаты эксперимента оказались столь убедительны, что сгенерированные изображения решили не публиковать — чтобы не навредить участникам.
Семь снимков с вымышленным Джоном загрузили в генератор изображений Stable Diffusion (версия 1.5). Эта модель способна переводить текстовые запросы в картинки. Затем в течение часа нейросеть обучалась на фотографиях Джона. Процесс был абсолютно бесплатным благодаря сервису облачных вычислений Google.
После этого еще несколько часов заняла генерация фото — но не потому, что они создавались медленно, а поскольку журналистам нужно было отсортировать множество изображений (и использовать метод проб и ошибок в подсказках), чтобы выбрать лучшие.
Например, так нейросеть видит Джона, пришедшего в ночной клуб в костюме клоуна. Неужели у тихого школьного учителя есть тайная жизнь?
А это Джон в офисе вместе с голой женщиной. Он женат, и это не его супруга.
Здесь нейросеть изобразила Джона в виде члена экстремистской организации — «пририсовала» ему бороду и «одела» в военную форму.
Джон расслабляется после занятий в своем классе. Наверное, родителям учеников такой снимок придется не по душе.
А тут Джон, видимо, страдает от боли. Ну или занимается чем‑то другим. Журналисты не стали публиковать нижнюю часть изображения.
Исследователи отмечают, что технология способна изобразить Джона, совершающего аморальные или незаконные поступки. Для этого достаточно лишь нескольких фотографий (подойдут даже стоп-кадры из видео). А при помощи дополнительных моделей его можно будет сделать звездой порнографии.
Да, полученные изображения не идеальны, и знающий человек сможет понять, что они подделки. Однако, предупреждает Ars Technica, технология быстро развивается, и вскоре, возможно, уже не получится отличить сгенерированную фотографию от реальной. И даже сейчас подобные снимки могут кому‑нибудь навредить.