Мир глазами дипфейка
Главное
-
Дипфейк — это метод создания фотографий и видеороликов с помощью алгоритмов глубокого обучения. Технология позволяет в существующих медиаданных заменять лицо человека на совершенно другое.
-
В интернете обнаружено по меньшей мере 85 000 подделок, созданных с применением ИИ. По словам экспертов, их количество удваивается раз в шесть месяцев.
-
Помимо дезинформации, запугивания и преследования, дипфейки используются в сфере развлечений, синтезирования данных и восстановления голоса.
Что такое дипфейк?
Дипфейк — это технология синтезирования медиаданных, на которых лицо человека на существующих фото или видео заменяется лицом другого человека. При изготовлении подделок используются методы искусственного интеллекта, машинного обучения и нейронных сетей.
Название технологии произошло от сочетания английских терминов deep learning (глубокое обучение) и fake (подделка).
Для чего создаются дипфейки?
Многие из созданных дипфейков — порнографические. К концу 2020 года компания Sensity обнаружила в интернете 85 000 подделок, созданных с применением методов ИИ. 93% материалов были порнографическими, в подавляющем большинстве которых изображены лица знаменитых женщин.
Новые методы позволяют неквалифицированным людям делать дипфейки с помощью нескольких фотографий. По словам экспертов, количество подобного контента удваивается каждые шесть месяцев. Вероятно, поддельные видео распространятся за пределы мира знаменитостей, чтобы подпитывать порноместь .
Дипфейки также используются для информационных атак, создания пародий и сатиры.
В 2018 году американский режиссер Джордан Пил и издание BuzzFeed опубликовали якобы обращение бывшего президента США Барака Обамы, в котором он назвал Дональда Трампа «засранцем». Ролик создали с помощью приложения FaceApp и графического редактора Adobe After Effects. Режиссер и журналисты хотели продемонстрировать, как в будущем могут выглядеть фейковые новости.
В 2022 году после полномасштабного вторжения России на территорию Украины в социальных сетях распространилось фейковое видео президента Владимира Зеленского, в котором глава государства «призывает народ сдаться». Пользователи быстро определили подделку, а сам Зеленский записал опровержение.
В мае того же года мошенники распространили
Дипфейк Илона Маска , в котором тот «призывает инвестировать» в очевидный скам .
Опубликовавший ролик YouTube-канал имел свыше 100 000 подписчиков, а до удаления аккаунта видео посмотрели свыше 90 000 раз. Сколько людей повелись на скам, неизвестно.
Для развлечений существует множество приложений, создающих дипфейки. В начале 2020 года широкую известность получило приложение Reface, использующее технологию дипфейк для создания коротких видеороликов с наложением буквально любого лица на широкий спектр видео и гиф-анимации.
Что можно подделать?
Дипфейк-технология может создавать не только убедительные видео, но и полностью вымышленные фотографии с нуля. В 2019 году некая Мэйзи Кинсли завела профили в LinkedIn и Twitter, в которых она назвалась журналисткой Bloomberg. «Журналистка» связывалась с сотрудниками компании Tesla и выпытывала различную информацию.
Позже выяснилось, что это дипфейк. Никаких убедительных фактов, связывающих ее с изданием, соцсети не содержали, а фотография профиля была явно сгенерирована искусственным интеллектом.
В 2021 году Cryptoit HUB провел
Как создаются deepfakes?
Для создания deepfakes нужен большой набор данных двух людей. ИИ-кодировщик анализирует датасет, находит сходства и сжимает изображения.
Создание наборов данных двух лиц и их последующее кодирование. Данные: Cryptoit.
Затем декодер обучается восстанавливать лица из сжатых кадров. Для каждого человека используется отдельный алгоритм. Чтобы поменять лица местами, нужно загрузить сжатые данные в «неправильный» декодер.
Также можно подделать аудио для создания «голосовых клонов» публичных лиц. В ОАЭ мошенники подделали голос руководителя крупной компании и убедили банковского работника перевести $35 млн на свой счет. Аналогичный случай произошел в 2019 году с британской энергетической компанией. Мошенникам удалось украсть около $243 000, выдавая себя за директора фирмы с помощью поддельного голоса.
Например,
изображения человека А подаются в декодер, обученный на человеке Б. Алгоритм реконструирует лицо человека Б с выражением лица А. Помещение сжатых изображений лиц в «неправильный» декодер. Данные: Cryptoit.
Для получения качественного результата для видео алгоритм должен обработать таким образом каждый кадр.
Другой способ создания дипфейков — использование генеративно-состязательных нейросетей (GAN). Подобный метод используется в сервисах вроде This Person Does not Exist.
Кто создает дипфейки?
-
Дипфейки могут создавать академические и коммерческие исследователи, инженеры машинного обучения, энтузиасты-любители, студии визуальных эффектов и режиссеры.
-
Также благодаря популярным приложениям вроде Reface или FaceApp любой владелец смартфона может сделать поддельный снимок или видео.
-
Правительства также могут пользоваться технологией, например, в рамках своих онлайн-стратегий по дискредитации и подрыву экстремистских групп или установлению контактов с целевыми лицами.
-
В 2019 году журналисты обнаружили
Дипфейки и шпионаж через соцсети
- Национальный центр контрразведки и безопасности США сообщил, что иностранные шпионы используют поддельные профили в соцсетях для слежки за американскими целями.
- Южнокорейские инженеры создали дипфейк кандидата в президенты Юн Сок Еля для привлечения молодых избирателей в преддверии выборов 9 марта 2022 года.
Технологии изготовления дипфейков
Для создания дипфейков требуются высокопроизводительные компьютеры с мощными видеокартами или облачные сервисы.
Существует множество инструментов, помогающих создавать дипфейки прямо на смартфоне, например Reface, FaceApp и Zao.
Как распознать дипфейк
Дипфейки часто имеют низкое качество, неморгающие глаза, плохую синхронизацию речи и губ, пятнистый оттенок кожи и мерцание и пикселизацию по краям транспонированных граней.
Также следует обратить внимание на непоследовательное освещение, отражения на радужной оболочке глаз, а также на плохо перенесенные украшения и зубы.
Борьба с дипфейками проводится крупными технологическими компаниями. В апреле 2022 года Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и ARM создали альянс C2PA для выявления фальшивых фото и видео в сети.
В 2020 году перед выборами в США Facebook запретил дипфейковые видео, которые могут ввести пользователей в заблуждение.
В мае 2022 года Google ограничила возможность обучения моделей для создания дипфейков в облачной среде Colab.
- Опасность дипфейков :
- Помимо дезинформации, преследований, запугиваний и унижений, дипфейки могут подорвать доверие общества к конкретным событиям.
- По мнению профессора и эксперта в области интернет-права Университета Ньюкасла Лилиан Эдвардс, проблема заключается не столько в подделках, сколько в отрицании реальных фактов.
- По мере распространения технологии, дипфейки могут создать угрозу для правосудия, где фальсифицируемые события могут выдаваться за реальные.
- Они также представляют угрозу для личной безопасности. Дипфейки уже умеют имитировать биометрические данные и обманывать системы распознавания лиц, голоса или походки.
Зачем нужны дипфейки?
Помимо угроз, дипфейки могут оказаться и полезными. Технологию активно используют в развлекательных целях. Например, лондонский стартап Flawless разработал искусственный интеллект для синхронизации губ актеров и звуковой дорожки при дублировании фильмов на разные языки.
В июле 2021 года авторы документального фильма об известном шеф-поваре Энтони Бурдене, умершем в 2018 году, использовали дипфейк для озвучивания его цитат.
Кроме этого, технология может помочь людям вернуть голос , потерянный из-за болезни.
Также дипфейки используют для создания синтетических наборов данных. Это избавляет инженеров от необходимости собирать фотографии реальных людей и получать разрешения на их использование.
Подписывайтесь на новости Cryptoit в Telegram: Cryptoit AI — все новости из мира ИИ!
Что еще почитать?
- Компьютерное зрение — это ветвь машинного обучения , которая изучает возможности компьютера в обработке изображений и видео.
- Трансформеры — это алгоритмы машинного обучения , которые используются для задач обработки естественного языка, в том числе для машинного перевода и генерации текста.
- Обработка естественного языка — это область машинного обучения , которая изучает алгоритмы и методы для анализа, понимания и генерации естественного языка компьютерами.