Дипфейк — это манипуляция или искусственное создание (синтез) аудио, видео или других форм цифрового контента, чтобы создать впечатление, что произошло определенное событие или что кто-то вел себя или выглядел иначе, чем на самом деле.
Манипуляции с фотографиями и видео, которые раньше выполнялись вручную с помощью инструментов графического редактирования, претерпели значительную эволюцию благодаря использованию искусственного интеллекта и, в частности, глубокого обучения.
Среди различных методов создания дипфейков Generative Adversarial Networks (GAN) — технология, показавшая замечательные результаты, создающая манипуляции, которые сложно отличить от оригинального контента. GAN — это модели машинного обучения (ML), в которых две нейронные сети — генератор и дискриминатор — конкурируют друг с другом, чтобы сделать максимально точные прогнозы или, в случае генерации дипфейков, получить наиболее реалистичный результат.
Помимо вопроса манипулирования контентом, существует также обеспокоенность тем, что дипфейковый контент может способствовать дезинформации и оказывать негативное влияние на мнение людей, что может иметь потенциальные политические и социальные последствия. Обнаженные или иным образом оскорбительные изображения людей, мистификации и финансового мошенничества также могут быть созданы с помощью видеоманипуляций.
Кроме того, возможность выдавать себя за других людей, меняя лица на фотографиях и видео, увеличивает риск несанкционированного доступа к услугам или помещениям.
Было предложено несколько подходов для автоматического обнаружения поддельных видеороликов с людьми, в том числе обнаружение изменения бровей, обнаружение моргания и движения глаз, непостоянные блики роговицы (т. е. постоянство отражения глаз окружающего освещения) и даже обнаружение сердцебиения путем захвата незначительного цвета кожи. изменения в видео.
Другие методы сосредоточены на обнаружении уникальных элементов (отпечатков пальцев) в цифровом контенте, возникающих в результате использования инструментов дипфейка; эти элементы обычно называют «артефактами».
Алгоритмы категоризации обучаются на больших коллекциях реальных и поддельных аудиовизуальных образцов для выявления артефактов .
Существующие детекторы дипфейков в основном полагаются на сигнатуры существующего контента дипфейков с использованием методов машинного обучения, включая неконтролируемую кластеризацию и методы контролируемой классификации, и поэтому с меньшей вероятностью обнаруживают неизвестные манипуляции с дипфейками. Однако технология, используемая для обнаружения фейкового контента, по-прежнему не может обеспечить достаточную гарантию. Современные детекторы дипфейков сталкиваются с проблемами, особенно из-за неполных, разреженных и зашумленных данных на этапах обучения.
Положительное влияние, предусмотренное на защиту данных:
- Предотвращение воздействия дипфейков на частных лиц
С учетом отмеченных выше ограничений обнаружение дипфейков можно использовать для выявления контента, которым манипулировали в злонамеренных целях. Обнаружение и маркировка поддельных видео и изображений позволяет отдельным лицам и организациям принимать меры, чтобы остановить распространение потенциально опасной дезинформации. Это может защитить репутацию и конфиденциальность отдельных лиц и предотвратить распространение фейковых новостей, мошенничества или киберзапугивания.
- Защита персональных данных путем предотвращения атак на основе дипфейков
Манипуляции с дипфейками могут использоваться для создания убедительных имитаций отдельных лиц, что потенциально может привести к краже личных данных или несанкционированному доступу к конфиденциальным данным. Поскольку поддельные видео и аудио используются в различных формах кибератак, включая целевой фишинг и социальную инженерию, наличие надежных механизмов обнаружения может предотвратить несанкционированный доступ к конфиденциальной информации.
- Повышение точности данных за счет применения проверки данных
Обнаружение Deepfake можно использовать для проверки данных. В финансовом, медицинском и юридическом секторах (это примеры, когда точность данных имеет первостепенное значение) инструменты обнаружения дипфейков могут помочь проверить подлинность документов, аудиозаписей или видеозаписей, гарантируя, что решения и действия основаны на достоверной информации.
Ожидаемые негативные последствия для защиты данных:
- Отсутствие справедливости и доверия
Исследования показывают, что базы данных, обычно используемые для обучения обнаружению дипфейков, не отличаются разнообразием и, что более важно, показывают, что модели обнаружения дипфейков могут быть сильно предвзятыми. Было замечено, что существующие наборы аудио- и визуальных данных дипфейков содержат несбалансированные данные разного этнического происхождения и пола. В некоторых ситуациях наличие больших губ или носа, веса или черного цвета приводило к большему количеству ошибок обнаружения по сравнению с изображениями без этих атрибутов. Существует риск того, что применение предвзятых моделей в реальном мире может привести к дискриминации определенных лиц.
- Отсутствие прозрачности и справедливости в методах обнаружения.
Существующие подходы к обнаружению дипфейков обычно предназначены для пакетного анализа большого набора данных. Однако когда эти методы применяются на местах, например, журналистами или правоохранительными органами, для анализа может быть доступен лишь небольшой набор видео.
В таких ситуациях объяснение числового балла, присвоенного вероятности того, что контент является дипфейком, может быть необходимо, чтобы анализу можно было доверять перед публикацией или использованием в возможных судебных исках. Однако большинству методов и инструментов обнаружения дипфейков не хватает такого объяснения, особенно тем, которые основаны на глубоком обучении, из-за их природы «черного ящика».
- Отсутствие точности
В настоящее время методы обнаружения дипфейков формулируются как задача бинарной классификации, где каждый образец может быть либо реальным, либо поддельным. Однако в реальных сценариях видео можно изменять иными способами, кроме дипфейка (например, путем постобработки), поэтому контент, не обнаруженный как манипулируемый, не гарантирует, что видео является подлинным. Кроме того, поддельные изображения и видео обычно распространяются в социальных сетях и по этой причине страдают от большого количества изменений, таких как уровень сжатия, изменение размера и шум (процесс, известный как промывка мультимедиа). Это может привести к большому количеству ложноотрицательных результатов (т. е. необнаруженных подделок).
Рекомендации для дальнейшего чтения:
- Масуд М., Наваз М., Малик К.М., Джавед А., Иртаза А. и Малик Х. (2023). Генерация и обнаружение дипфейков: современное состояние, открытые проблемы, меры противодействия и путь вперед. Прикладной интеллект, 53(4), 3974-4026 .
- Патил К., Кейл С., Дхоки Дж. и Галхейн А. (2023). Обнаружение дипфейков по биологическим признакам: опрос. Препринт arXiv arXiv:2301.05819.
- Тринь Л. и Лю Ю. (2021). Проверка справедливости моделей ИИ для обнаружения дипфейков. Препринт arXiv arXiv:2105.00558.
Источник:
https://www.edps.europa.eu/data-protection/technology-monitoring/techsonar/deepfake-detection_en