Весь мир — deepfakes: как фейковое порно делает из нас медианигилистов

Текст и вопросы:
Александра Урман
28 февраля 2018 в 18:12
Каждый, кто выложил в интернет достаточно своих фотографий, может стать героем порно — и его об этом никто не спросит. Во всем виноваты нейросети. «Афиша Daily» рассказывает о deepfakes и просит экспертов ответить, насколько нормально желание создавать фейковое порно и насколько сложно его сделать.

Что такое deepfakes

В конце 2017 года пользователь с ником deepfakes выложил на Reddit несколько порногифок с известными актрисами и певицами, например, с Тейлор Свифт, Галь Гадот и Мейси Уилльямс. Гифки были созданы при помощи нейросети, которая накладывала лица знаменитостей на порно с другими актрисами. Позже он выложил алгоритм в открытый доступ — и пользователи Reddit смогли самостоятельно монтировать порноролики со знаменитостями, а потом появилось приложение FakeApp, в котором такой порноролик можно склеить без навыков программирования. Сабреддит с нейрофейками стал популярным — на него подписались более 90 тысяч человек.

Когда нейрофейки запретили везде, где только можно, появились небольшие форумы и The Deepfake Society, сайт для поддельных видео, где есть работающий алгоритм, видео, сделанные другими пользователями, и кнопка для загрузки роликов. Сейчас там сотни фейковых видео, к примеру, ролик, где Владимира Путина «заменяют» на Дональда Трампа, и знаменитый эпизод из «Титаника» с Николасом Кейджем вместо Кейт Уинслет. Николас Кейдж стал новым символом deepfakes. Его лицо на кого только ни накладывают: в подборках можно найти Йоду, Шварценеггера, Буша-младшего. Порно на The Deepfake Society найти не удалось.

Николас Кейдж заменяет Эми Адамс в «Человеке из стали»

Почему люди хотят делать фейковое порно

Подделка порно со знаменитостями не новое явление. Ранее существовал сабреддит r/CelebFakes, где энтузиасты приклеивали в Adobe Photoshop лица знаменитостей к телам порноактрис. Существовал и был забанен сабреддит r/doppelbangher, куда люди скидывали фотографии своих одноклассниц, соседок и бывших партнеров с просьбой наклеить их на тело подходящей порноактрисы. В правилах сабреддита говорилось: фотографии должны быть такими, чтобы их нельзя было отследить до профиля в социальной сети и предъявить претензии.

Авторы новых порнофейков не видят в них ничего страшного и не считают, что они могут кого‑то унизить. В разговорах с журналистами The Verge и Motherboard они утверждали, что нейрофейки всего лишь пародия, что они не отличаются от сексуальных фантазий, что в мире, где папарацци караулят знаменитостей, а хакеры сливают в интернет их обнаженные фотографии, поддельное порно не так страшно для репутации человека.

Олег Иванов
Руководитель Центра урегулирования социальных конфликтов

«Не могу сказать, что желание создавать подобные ролики — это особая «-филия», чем‑то отличающаяся от обычного просмотра порнографии. Скорее дело в постоянной человеческой тяге к чему-то новому.

Порнографические журналы и снимки прошлого века существенно отличаются от современных. Сейчас любителям клубнички доступны разнообразные (на любой вкус и цвет) фото и видео, игры и приложения. Так сказать, «Плейбоем» уже никого не удивишь. А «игра» с заменой лиц — это что‑то новенькое, что‑то свежее, это дает пользователям возможность пофантазировать.

Но когда алгоритм доступен широкому кругу пользователей, а видео появляются каждый день, эффект новизны быстро пропадает — и это становится уже не так интересно. Одно дело — получить реальные пикантные фото и видео, украденные из телефона звезды, а другое дело — регулярные фейковые истории».

Почему порнофейки — это очень плохо

Нейрофейки поднимают вопрос кражи личности. Никто из знаменитостей, чьи лица использовали, не давал согласия на поддельное порно. Авторы подделок украли их лица и использовали их так, как им захотелось. Но лицо могут украсть не только у знаменитости, а у любого человека, который выложил свои фотографии в социальные сети. В тематическом Discord-канале хвастались «неплохим видео» с лицом какой‑то девушки из интернета. Для этого понадобилось около 380 фотографий, которые взяли из ее инстаграма и фейсбука.

Возможно, мы не воспринимаем фейки как что‑то унизительное, потому что на них появляются лица знаменитостей. Ведь они ведут публичную жизнь, часто попадают в объектив камеры и даже участвуют в откровенных съемках! Но как мы отнесемся к поддельному порно с лицом лучшего друга? Многие из нас выкладывают селфи в социальные сети и не думают о том, что бывший партнер потом скинет их в сабреддит и попросит сделать с ними порно.

Из‑за deepfakes лицо человека перестает принадлежать ему. Оно становится товаром, которое можно использовать на свое усмотрение или продать за криптовалюту, как это делали люди в сабреддите r/deepfakeservice.

Гифка из фейкового порно с Дейзи Ридли

Как подделки делают из нас медианигилистов

Но это не единственная проблема. Журналист Джулиан Санчес, который часто высказывается по вопросу приватности, считает, что в будущем нейрофейки и подобные алгоритмы чреваты появлением не только поддельного порно, но и огромного количества фейковых новостей, которые нельзя будет отличить от настоящих. Поддельные видео можно легко использовать в качестве информационного оружия. Пока доступные нейросети еще не могут создавать достаточно реалистичные видео, но в будущем возможен сценарий, считает профессор компьютерных наук Дартмутского колледжа Хани Фарид, когда кто‑нибудь начнет войну, подделав видео, на котором Дональд Трамп заявляет о бомбардировке КНДР.

К сожалению, о таком нужно думать в мире, где пакистанский министр говорит о ядерной угрозе Израилю, после того как прочитал пост на сайте фейковых новостей. Журналист The Verge Джеймс Винсент считает, что нейрофейки делают из нас медианигилистов, людей, которые не доверяют ничему, что видят в интернете, даже если это фото или видео.

Что интернет может сделать с порнофейками

В конце января Reddit и другие сервисы, где появлялись подделанные нейросетью ролики — Discord, Gfycat, Pornhub и Twitter, — стали запрещать и удалять видео. В Pornhub заявили, что сервис не разрешает распространять порно, сделанное без согласия его участников на съемки. Deepfakes приравняли к порномести — откровенным видео и фото, которые выкладывают в интернет без согласия участников, чтобы опозорить их.

Reddit и Discord просто закрыли несколько сообществ, Pornhub удалял видео по жалобам пользователей. Возможно, самый эффективный способ — боты, которые охотятся на фейки. Gfycat использует два алгоритма: один ищет в интернете похожие видео в высоком разрешении, второй распознает лицо и пытается понять, соответствует ли оно лицу на оригинальном видео. Такой метод поможет найти фейковое порно со знаменитостями, но бесполезен против порно с лицом случайного человека из соцсети.

Как создаются такие фейки

Чтобы создать нейрофейк, нужно видео или массив фотографий, на которых лицо человека снято на чистом фоне, под разными углами и с разной мимикой. Идеальная цель — актер, ведущий на телевидении или блогер в YouTube. Иногда авторы пользуются инструментами — Porn World Doppelganger, Porn Star by Face, FindPornFace, — которые сравнивают лицо с фотографии с лицами порнозвезд: чем больше актер похож на жертву нейрофейка, тем лучше будет совпадение. Для создания фейка не нужна мощная техника — обработку запускали на компьютере за 500 долларов. А если машина не тянет, то вычисления можно отдать в Google Cloud Platform. Много времени тоже не нужно — гифку с порноактрисой Мелани Риос с лицом Джессики Альбы сделали за пять часов.

Процесс превращения порноактрисы Литтл Каприс в копии актрис Эммы Уотсон и Кейт Мары
Сергей Миляев
Ведущий исследователь VisionLabs, занимается компьютерным зрением и машинным обучением

«Сложность построения нейросети зависит от того, какую степень реалистичности мы хотим получить. Наложить примитивную маску лица, которая будет просто двигаться вместе с лицом другого человека, довольно несложно. Другое дело, что такая маска будет сильно заметна, а чтобы сделать ее более реалистичной, потребуется более углубленное изучение, проектирование модели и схемы ее обучения, усложнение алгоритма.

Те примеры алгоритмов, которые мы видим в интернете, часто работают уже не так хорошо, когда, например, лицо человека на видео поворачивается или делает какие‑то другие сложные движения.

Чтобы создавать реалистичные видео, где известная личность говорит то, что мы хотим, нужно разработать сразу несколько моделей. Грубо говоря, одна из них «выучивает» модель лица человека, который говорит, — это модель «источника».

Допустим, есть какой‑то целевой человек, например, знаменитость, и мы хотим, чтобы он говорил то, что говорит источник. Тогда мы обучаем две модели взаимодействовать между собой таким образом, чтобы выражения лица из модели «источника» переносились на модель «цели».

Есть ли в интернете что‑то получше deepfakes

Хотя видео deepfakes довольно легко можно отличить от настоящего видео — иногда вокруг лица видна «рамка» фотографии, иногда лицо начинает неестественно поворачиваться, иногда появляются визуальные артефакты, — другие разработчики научились создавать фейки, которые выглядят достовернее.

К примеру, одну нейронную сеть научили накладывать мимику актеров на видео с политиками. Алгоритм считывает выражение лица актера через веб-камеру и подстраивает под нее мимику политика на видео. При помощи нейросети специалисты «заставили» кривляться Владимира Путина во время новогоднего обращения. В середине 2017 года другая группа разработчиков сделала реалистичное фейковое видео с Бараком Обамой. Нейронную сеть научили в точности воспроизводить мимику и голос президента, и теперь разработчики могут «заставить» Обаму говорить на видео то, что им захочется.

Нейрофейки — это зло, или от них есть польза

Подделка видео дает большие возможности, например, для спецэффектов в кино. С помощью deepfakes удалось убрать усы Генри Кэвиллу на обычном компьютере. Студия Warner Bros. заплатила за ту же операцию несколько миллионов долларов. Другой пользователь воссоздал молодую Кэрри Фишер из «Изгоя-один», которую сложно отличить от копии Disney.

Сравнение компьютерной копии Кэрри Фишер из «Изгоя-один» с копией Кэрри Фишер, которую сделала нейросеть. Угадаете, где какая?
Александр Азаров
Старший вице-президент по разработке в WaveAccess, специализируется на разработке программ и машинном обучении

«Одна из первых областей, где могут пригодиться подобные технологии, — киноиндустрия. В частности, в ней давно практикуются спецэффекты с подменой изображений, наложением лиц одних актеров на других, удалением случайно попавших в кадр объектов и проч. — для чего используется метод motion capture. Он дает хороший результат, но бывает весьма трудозатратным. Похожее решение применяется в игровой индустрии для придания большей реалистичности мимике персонажей в ААА-играх.

Очевидно, что появятся стороны, заинтересованные в использовании технологии в противозаконных целях. Однако положительный момент в том, что та же самая технология позволяет противодействовать подобным угрозам — обнаруживая попытку сгенерировать фальшивку. Мы в том числе участвуем в проектах, где решаются задачи по детекции аномалий в биометрических образах.

В долгосрочной перспективе развитие подобных систем способно существенно удешевить многие процессы, исключив из них дорогостоящее оборудование и минимизировав ручной труд. При этом важно понимать, что не во всех областях и бизнесах использование машинного обучения обосновано и уместно — в каждом отдельном случае требуются анализ и тестирование. Тем не менее данных становится только больше, инфраструктура для применения алгоритмов machine learning тоже совершенствуется. Со временем для некоторых видов бизнеса машинное обучение станет обязательным элементом для поддержания конкурентоспособности».