Мир глазами дипфейка

Мир глазами дипфейка

Главное

  • Дипфейк — это метод создания фотографий и видеороликов с помощью алгоритмов глубокого обучения. Технология позволяет в существующих медиаданных заменять лицо человека на совершенно другое.

  • В интернете обнаружено по меньшей мере 85 000 подделок, созданных с применением ИИ. По словам экспертов, их количество удваивается раз в шесть месяцев.

  • Помимо дезинформации, запугивания и преследования, дипфейки используются в сфере развлечений, синтезирования данных и восстановления голоса.

Что такое дипфейк?

Дипфейк — это технология синтезирования медиаданных, на которых лицо человека на существующих фото или видео заменяется лицом другого человека. При изготовлении подделок используются методы искусственного интеллекта, машинного обучения и нейронных сетей.

Название технологии произошло от сочетания английских терминов deep learning (глубокое обучение) и fake (подделка).

Для чего создаются дипфейки?

Многие из созданных дипфейков — порнографические. К концу 2020 года компания Sensity обнаружила в интернете 85 000 подделок, созданных с применением методов ИИ. 93% материалов были порнографическими, в подавляющем большинстве которых изображены лица знаменитых женщин.

Новые методы позволяют неквалифицированным людям делать дипфейки с помощью нескольких фотографий. По словам экспертов, количество подобного контента удваивается каждые шесть месяцев. Вероятно, поддельные видео распространятся за пределы мира знаменитостей, чтобы подпитывать порноместь .

Дипфейки также используются для информационных атак, создания пародий и сатиры.

В 2018 году американский режиссер Джордан Пил и издание BuzzFeed опубликовали якобы обращение бывшего президента США Барака Обамы, в котором он назвал Дональда Трампа «засранцем». Ролик создали с помощью приложения FaceApp и графического редактора Adobe After Effects. Режиссер и журналисты хотели продемонстрировать, как в будущем могут выглядеть фейковые новости.

В 2022 году после полномасштабного вторжения России на территорию Украины в социальных сетях распространилось фейковое видео президента Владимира Зеленского, в котором глава государства «призывает народ сдаться». Пользователи быстро определили подделку, а сам Зеленский записал опровержение.

В мае того же года мошенники распространили

Дипфейк Илона Маска , в котором тот «призывает инвестировать» в очевидный скам .

Опубликовавший ролик YouTube-канал имел свыше 100 000 подписчиков, а до удаления аккаунта видео посмотрели свыше 90 000 раз. Сколько людей повелись на скам, неизвестно.

Для развлечений существует множество приложений, создающих дипфейки. В начале 2020 года широкую известность получило приложение Reface, использующее технологию дипфейк для создания коротких видеороликов с наложением буквально любого лица на широкий спектр видео и гиф-анимации.

Что можно подделать?

Дипфейк-технология может создавать не только убедительные видео, но и полностью вымышленные фотографии с нуля. В 2019 году некая Мэйзи Кинсли завела профили в LinkedIn и Twitter, в которых она назвалась журналисткой Bloomberg. «Журналистка» связывалась с сотрудниками компании Tesla и выпытывала различную информацию.

Позже выяснилось, что это дипфейк. Никаких убедительных фактов, связывающих ее с изданием, соцсети не содержали, а фотография профиля была явно сгенерирована искусственным интеллектом.

В 2021 году Cryptoit HUB провел

Как создаются deepfakes?

Для создания deepfakes нужен большой набор данных двух людей. ИИ-кодировщик анализирует датасет, находит сходства и сжимает изображения.

Что такое deepfake? Создание наборов данных двух лиц и их последующее кодирование. Данные: Cryptoit.

Затем декодер обучается восстанавливать лица из сжатых кадров. Для каждого человека используется отдельный алгоритм. Чтобы поменять лица местами, нужно загрузить сжатые данные в «неправильный» декодер.

Также можно подделать аудио для создания «голосовых клонов» публичных лиц. В ОАЭ мошенники подделали голос руководителя крупной компании и убедили банковского работника перевести $35 млн на свой счет. Аналогичный случай произошел в 2019 году с британской энергетической компанией. Мошенникам удалось украсть около $243 000, выдавая себя за директора фирмы с помощью поддельного голоса.

Например,

изображения человека А подаются в декодер, обученный на человеке Б. Алгоритм реконструирует лицо человека Б с выражением лица А. Что такое дипфейк? Что такое дипфейк? Помещение сжатых изображений лиц в «неправильный» декодер. Данные: Cryptoit.

Для получения качественного результата для видео алгоритм должен обработать таким образом каждый кадр.

Другой способ создания дипфейков — использование генеративно-состязательных нейросетей (GAN). Подобный метод используется в сервисах вроде This Person Does not Exist.

Кто создает дипфейки?

  • Дипфейки могут создавать академические и коммерческие исследователи, инженеры машинного обучения, энтузиасты-любители, студии визуальных эффектов и режиссеры.

  • Также благодаря популярным приложениям вроде Reface или FaceApp любой владелец смартфона может сделать поддельный снимок или видео.

  • Правительства также могут пользоваться технологией, например, в рамках своих онлайн-стратегий по дискредитации и подрыву экстремистских групп или установлению контактов с целевыми лицами.

  • В 2019 году журналисты обнаружили

Дипфейки и шпионаж через соцсети

  • Национальный центр контрразведки и безопасности США сообщил, что иностранные шпионы используют поддельные профили в соцсетях для слежки за американскими целями.
  • Южнокорейские инженеры создали дипфейк кандидата в президенты Юн Сок Еля для привлечения молодых избирателей в преддверии выборов 9 марта 2022 года.

Технологии изготовления дипфейков

Для создания дипфейков требуются высокопроизводительные компьютеры с мощными видеокартами или облачные сервисы.

Существует множество инструментов, помогающих создавать дипфейки прямо на смартфоне, например Reface, FaceApp и Zao.

Как распознать дипфейк

Дипфейки часто имеют низкое качество, неморгающие глаза, плохую синхронизацию речи и губ, пятнистый оттенок кожи и мерцание и пикселизацию по краям транспонированных граней.

Также следует обратить внимание на непоследовательное освещение, отражения на радужной оболочке глаз, а также на плохо перенесенные украшения и зубы.

Борьба с дипфейками проводится крупными технологическими компаниями. В апреле 2022 года Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и ARM создали альянс C2PA для выявления фальшивых фото и видео в сети.

В 2020 году перед выборами в США Facebook запретил дипфейковые видео, которые могут ввести пользователей в заблуждение.

В мае 2022 года Google ограничила возможность обучения моделей для создания дипфейков в облачной среде Colab.

  • Опасность дипфейков :
  • Помимо дезинформации, преследований, запугиваний и унижений, дипфейки могут подорвать доверие общества к конкретным событиям.
  • По мнению профессора и эксперта в области интернет-права Университета Ньюкасла Лилиан Эдвардс, проблема заключается не столько в подделках, сколько в отрицании реальных фактов.
  • По мере распространения технологии, дипфейки могут создать угрозу для правосудия, где фальсифицируемые события могут выдаваться за реальные.
  • Они также представляют угрозу для личной безопасности. Дипфейки уже умеют имитировать биометрические данные и обманывать системы распознавания лиц, голоса или походки.

Зачем нужны дипфейки?

Помимо угроз, дипфейки могут оказаться и полезными. Технологию активно используют в развлекательных целях. Например, лондонский стартап Flawless разработал искусственный интеллект для синхронизации губ актеров и звуковой дорожки при дублировании фильмов на разные языки.

В июле 2021 года авторы документального фильма об известном шеф-поваре Энтони Бурдене, умершем в 2018 году, использовали дипфейк для озвучивания его цитат.

Кроме этого, технология может помочь людям вернуть голос , потерянный из-за болезни.

Также дипфейки используют для создания синтетических наборов данных. Это избавляет инженеров от необходимости собирать фотографии реальных людей и получать разрешения на их использование.

Подписывайтесь на новости Cryptoit в Telegram: Cryptoit AI — все новости из мира ИИ!

Что еще почитать?

  • Компьютерное зрение — это ветвь машинного обучения , которая изучает возможности компьютера в обработке изображений и видео.
  • Трансформеры — это алгоритмы машинного обучения , которые используются для задач обработки естественного языка, в том числе для машинного перевода и генерации текста.
  • Обработка естественного языка — это область машинного обучения , которая изучает алгоритмы и методы для анализа, понимания и генерации естественного языка компьютерами.
CryptoIt