Осторожно, поддельные Обама и Ким Чен Ын. Как создаются дипфейки и почему они опасны

Дипфейки, которые появляются благодаря AI, становится все сложнее распознать. Решили разобраться, как их используют для создания различного контента — от развлекательного до политического и к чему это приводит.

Оставить комментарий
Осторожно, поддельные Обама и Ким Чен Ын. Как создаются дипфейки и почему они опасны

Дипфейки, которые появляются благодаря AI, становится все сложнее распознать. Решили разобраться, как их используют для создания различного контента — от развлекательного до политического и к чему это приводит.

Что такое дипфейки и как они создаются

Дипфейк (deepfake — от сочетания deep learning и fake) — методика синтеза изображения, видео и аудио, которая основана на AI. Она используется для соединения и наложения новых изображений, видео и аудио на исходные фото, видео или звуковые дорожки. 

Процесс создания дипфейков достаточно трудоемкий. В случае с видео он может включать несколько этапов:

  1. Сначала вы загружаете тысячи снимков лиц двух людей (А — того, которого заменяют, и В — того, на которого заменяют) в специальный кодировщик (encoder). Алгоритм находит и изучает сходства между двумя лицами и сводит их к общим чертам, в процессе сжимая видео.
  2. Затем второй алгоритм — декодер (decoder) — «учится восстанавливать» лица из сжатых изображений. Для двух разных лиц при этом потребуются два декодера.
  3. Чтобы заменить одно лицо на другое, нужно в обученный на лице В декодер ввести сжатые данные лица А или наоборот. 
  4. Декодер в итоге восстанавливает лицо человека B с экспрессией и мимикой, характерными для лица A. 

Для получения качественного и убедительного видео весь процесс нужно делать отдельно для каждого кадра.

Еще один способ создания видеодипфеков предполагает использование генеративно-состязательных нейросетей или GAN. Алгоритм словно соревнуется сам с собой: одна его часть «учится» на реальных фотографиях и создает изображение, вторая проверяет подлинность изображения. Операция повторяется до тех пор, пока проверяющая часть алгоритма не начинает путать копию с оригиналом. 

Публичное использование и активное распространение технологии относят к 2017 году. Правда, это не означает, что до этого времени никто не создавал дипфейки — их активно применяли, к примеру, в киноиндустрии — для создания спецэффектов и несуществующих персонажей. 

Но настоящий бум технология пережила в 2017, когда один из пользователей Reddit выложил на ресурс порноролики, в которых лица актеров были заменены на лица знаменитых актрис и моделей — Галь Гадот, Тейлор Свифт, Скарлетт Йоханссон и других.

Популярность такого контента росла. И через год Reddit забанил свой сабреддит с 80 000 подписчиков — r/deepfakes. В группе часто выкладывали порноролики-фейки с участием селебрити. 

Фейковые президенты США и Ким Чен Ын

Популярности технологии дипфейков несколько лет назад прибавило и видео от Вашингтонского университета. В 2017 исследователи здесь сделали ролик с лже-Обамой.

На Обаме громкие истории с политическими дипфейками, естественно, не закончились. В мае 2018 в интернете появилось видео с нынешним президентом США. Дональд Трамп обратился к жителям Бельгии с призывом не признавать Парижское соглашение по климату. Ролик спровоцировал волну негативных высказываний в адрес Трампа, хотя и был сделан достаточно «криво», т. е. его сложно было принять за настоящий. Позже выяснилось, что за созданием видео стоит бельгийская соцпартия. Таким образом, пояснили политики, они хотели привлечь внимание к проблеме изменения климата. 

Дипфейки 2020 года отличаются от своих предшественников более высоким качеством — технология не стоит на месте. 

К примеру, фейкового Ким Чен Ына из ролика RepresentUs не все могут отличить от реального.

«По сравнению с 2019 количество просмотров подобных политических видео выросло в 20 раз», — говорят в компании CREOpoint, занимающейся защитой брендов и отслеживающей дезинформацию. По данным компании, с сентября 2019 года по октябрь 2020 года специализированные СМИ заработали на этой теме 120 миллионов просмотров на платформах своих соцсетей. В целом, 60 процентов всех дипфейков за последний год были политическими.

Подделать голос и «увести» из фирмы $250 тысяч

СМИ нередко пишут о поддельном фото- и видеоконтенте. Часто изображения и видео используют для создания порноконента и шантажа, а также для политических фейков. Но и аудиоклоны не редкость. К примеру, громкий скандал с аудио-дипфейком разгорелся в прошлом году. 

Жертвой мошенников стала одна из энергетических немецких компаний. В дочернее отделение позвонил якобы гендиректор из Германии и попросил срочно перевести деньги на счет венгерского поставщика. СЕО компании в Британии заподозрил неладное, когда после перевода звонки повторились, и то только потому, что поступали они не с немецкого, а с австрийского номера.  

Любопытно, что злоумышленники при помощи ПО для создания дипфейков смогли не только точно подделать голос гендиректора, но и его немецкий акцент. 

В итоге компания потеряла $243 000. Деньги с венгерского «уплыли» на счет в Мексике. 

В Италии от обнаженных дипфейков пострадали тысячи женщин

Управление по защите данных Италии на днях инициировало расследование использования ботов, которые создают поддельные обнаженные фото-дипфейки в Telegram. 

Ранее свое расследование провела охранная фирма Sensity. Выяснилось, что масштаб проблемы действительно велик.  

Боты могут генерировать такие фото частично обнаженными, а потом просить оплату за «раскрытие» всего изображения. Пользователи могут отправлять в такие каналы фотографию и получить обратно версию ню без указания, что изображение было изменено. По данным Sensity, оригинальные изображения берутся из социальных сетей. Жертвы нередко даже не догадываются, что их фото похищены и «раздеты». Часть пострадавших несовершеннолетние.

Sensity обнаружила, что изображения созданы ПО DeepNude, которое появилось в сети в прошлом году. Его создатель закрыл сайт, заявив, что «вероятность того, что люди воспользуются им не по назначению, слишком высока». Однако программное обеспечение было обновлено и сейчас доступно в репозиториях с открытым исходным кодом и на торрентах.

«Простота использования этой программы делает любого, у кого есть фотография в сети, потенциальной жертвой дипфейков», — говорится в заявлении Управления по защите данных Италии. Согласно заявлению, ведомство проведет проверку, соблюдает ли Telegram правила защиты данных своих пользователей.

Как отслеживают дипфейки

Если с обнаружением аудио- и фотодипфейков все более-менее понятно (подделки такого рода изучали давно), то с глубокими подделками видеоконта специалистам пришлось столкнуться сравнительно недавно.

Выявлением видео-дипфейков и серьезным изучением этого процесса занялись чуть более трех лет назад. Сперва процесс выявления такого контента был связан с обнаружением видимых недоработок. Однако со временем фейки стали лучше имитировать реальных персонажей, и их стало труднее обнаружить как специалистам, так и алгоритмам.

Есть два основных направления в работе по выявлению дипфейков. Первое предполагает изучение поведения людей на видео. Предположим, у вас есть много видео с какой-то известной личностью. AI может использовать этот контент, чтобы изучить шаблонное поведение человека — от жестов рук до пауз в речи. Затем оно сканирует дипфейк и находит моменты, где поведение персонажа фейкового ролика отличается от такового у реального человека. Преимущество такого подхода в том, что он работает даже при идеальном качестве видео. 

Еще одно направление в изучении и выявлении дипфейков связано с тем, что специалисты выделяют общие особенности всех фейковых видео. К примеру, нередко персонажи в видеоподделках неестественно моргают — слишком редко или часто, очень медленно или, наоборот, быстро. Правда, в последнее время таких грубых отличий в дипфейках становится все меньше. 

Проблемой занимаются не только крупные университеты и частные инициативы, но и ИТ-гиганты — в частности, Google, Facebook и Microsoft.

Google

Совместно с компанией Jigsaw в прошлом году выложила в свободный доступ датасет с более чем 3 000 видеороликов, созданных при помощи AI. Контент добавили в другой большой проект, посвященный видео-дипфейкам — FaceForensics++. При создании роликов использовались алгоритмы Deepfakes, Face2Face, FaceSwap и NeuralTextures. Датасет будет пополняться.

Ранее компания выпустила набор аудиозаписей искусственно созданной речи. Датасет был загружен более чем 150 научно-исследовательскими организациями и сейчас также находится в свободном доступе.

Microsoft

В сентябре был представлен Microsoft Video Authenticator (MVA). Инструмент оценивает процентную вероятность достоверности фото и видео. В случае с видео MVA может предоставить процент для каждого отдельно взятого кадра. Алгоритм находит границы наложения одного изображения на другое и выявляет даже незаметные для человеческого глаза цветовые несовпадения.

Facebook

В сентябре 2019 объявила Deepfake Detection Challenge (DFDC), челлендж закончился в июне 2020. Компания предложила посоревноваться в разработке эффективной модели по выявлению видеодипфейков. Призовой фонд составил $10 млн. 

«Челлендж объединил более 2000 участников со всего мира, позволил им обмениваться данными из 100 000 видео, тестировать различные модели, пробовать новые подходы и перенимать опыт друг у друга», — сказано на сайте компании в разделе, посвященном DFDC. 

Модели участников тестировали специалисты из Оксфордского университета, Национального университета Сингапура и Технического университета Мюнхена. В итоге эффективность модели-победителя составила 65,18%. 

И что из всего этого следует?

Очевидно, что ПО по созданию дипфейков будет и дальше совершенствоваться, а значит будет улучшаться и качество самих дипфейков. Возможно, алгоритмы смогут добится такого точного воспроизведения картинок, видео и аудио, что, как и в случае с произведениями искусства, подделку от оригинала будет отличить практически невозможно. 

Пока такая технология достаточно ресурсозатратна и по времени, и с точки зрения необходимого оборудования (на обычном компьютере это сделать практически невозможно). Поэтому в создание по-настоящему качественных дипфейков вкладываются немалые деньги.

Это значит, что заказчик преследует свои цели, нередко противозаконные (как в случае с фейковым порно и обнаженными фото) или полузаконные (когда речь идет о политической пропаганде).

Проверке подлинности контента многие крупные компании, такие как Google, Facebook и Microsoft, уделяют серьезное внимание. При этом, как признаются сами ИТ-гиганты, в этой сфере еще предстоит решить немало проблем. 

Хотите сообщить важную новость? Пишите в Телеграм-бот.

А также подписывайтесь на наш Телеграм-канал.

Читайте также

Бельгиец сделал AI, который публично позорит бездельничающих политиков
Бельгиец сделал AI, который публично позорит бездельничающих политиков
Бельгиец сделал AI, который публично позорит бездельничающих политиков
Работников Amazon увольняют алгоритмы
Работников Amazon увольняют алгоритмы
Работников Amazon увольняют алгоритмы
3 комментария
Первый в мире AI-корабль закончил свой океанический рейс поломкой
Первый в мире AI-корабль закончил свой океанический рейс поломкой
Первый в мире AI-корабль закончил свой океанический рейс поломкой
Новый инструмент Facebook распознаёт дипфейки и вычисляет источник
Новый инструмент Facebook распознаёт дипфейки и вычисляет источник
Новый инструмент Facebook распознаёт дипфейки и вычисляет источник

Обсуждение

Комментариев пока нет.
Спасибо! 

Получать рассылки dev.by про белорусское ИТ

Что-то пошло не так. Попробуйте позже