web analytics

Словакия: дипфейковая аудиозапись журналистки представляет собой тревожный пример злоупотребления искусственным интеллектом

Дезинформация

Манипулируемый аудиоклип с участием журналистки Моники Тодовой, опубликованный накануне всеобщих выборов, предвещает возможное использование инструментов искусственного интеллекта в будущем для дискредитации СМИ


Парламентская избирательная кампания в Словакии 2023 года вошла в историю, и не по правильным причинам. Впервые в предвыборной борьбе свою роль сыграли дипфейки. За два дня до выборов в социальных сетях распространилось видео с аудиоклипом, в котором якобы фигурируют Моника Тодова, известная журналистка независимой новостной платформы Denník N, и Михал Шимечка, председатель партии «Прогрессивная Словакия». Фейкового разговора так и не произошло, но видео все равно дошло до тысяч пользователей социальных сетей.

«Разговор» о фальсификациях на выборах оказался чистой выдумкой. Но в коротком видео, распространенном всего за несколько дней до выборов в Словакии, были слышны голоса журналиста и председателя партии, созданные в цифровом формате и говорящие об этом. В искусственно обработанном видео, известном как дипфейк, показано статичное изображение журналиста и политика. Звуковая дорожка некачественная и не аутентичная, но их слова тоже есть в субтитрах. Оба участника сразу же опровергли подлинность разговора. Несколько фактчекинговых организаций и экспертов также подтвердили недостоверность видео.

По мнению групп по свободе прессы, дипфейк с участием Тодовой считается одним из первых в ЕС примеров использования технологии искусственного интеллекта для манипулирования внешностью журналиста – и может стать тревожным предзнаменованием будущего злоупотребления такими инструментами для очернять и дискредитировать средства массовой информации.

Хотя дипфейковые видео или аудиоклипы может создать практически любой человек с минимальными усилиями, обнаружить их не так просто. «По-настоящему эффективного, доступного и, прежде всего, надежного инструмента для обнаружения контента, созданного искусственным интеллектом, — от аудио до видео и фотографий — пока не существует», — подтверждает журналист и исследователь ICJK Bellingcat Майкл Колборн. Также сложно определить, как именно он был создан. «Невозможно сказать, был ли он создан кем-то, загрузившим его и затем использовавшим искусственный интеллект для дублирования, или же кто-то обучил искусственный интеллект и затем создал на его основе аудиофайл», — добавляет аналитик данныхInvestigace.cz Йозеф Шлерка.

Отследить путь дипфейкового видео также проблематично. Тот факт, что вирус впервые начал распространяться через Telegram, еще больше усложнил поиск его происхождения. Определить первоисточник, распространяющий клип, со стопроцентной уверенностью практически невозможно. Однако очевидно, что запись могла послужить двум целям: дискредитировать журналиста и предоставить доказательства утверждений Кремля о том, что США хотят манипулировать результатами выборов в Словакии.

Схема дискредитирующих атак

Моника Тодова, видный деятель словацкой журналистики из газеты Denník N, уже сталкивалась с клеветническими кампаниями. Согласно анализу Расследовательского центра Яна Куцяка (ICJK ), она была самым подвергаемым нападениям журналистом за несколько месяцев до парламентских выборов в сентябре 2023 года. Хотя это дипфейковое видео превзошло предыдущую тактику, она уже давно стала объектом этих атак.

Против Тодовой ведется непрерывная клеветническая кампания, в которую вовлечены не только политики, но и дезинформационные платформы. Постоянная дискредитация, разжигание ненависти и даже слежка – вот с чем ей пришлось столкнуться в последние годы. И зачастую именно политики подпитывают их, в том числе на своих пресс-конференциях. Вдобавок к этому она стала жертвой дипфейка, который в будущем может стать совершенно новым инструментом для клеветнических кампаний. Журналист уже подал в суд и с помощью защитной платформы Safe.Journalism.SK подал заявление о возбуждении уголовного дела – по подозрению в клевете и преступном нанесении ущерба правам других лиц.

Однако это фейковое видео могло служить и другой цели – вписаться в версию Кремля о том, что США хотят манипулировать результатами выборов в Словакии. Видео, выпущенное за несколько дней до того, как словаки пошли на выборы, было эффективно распространено в социальных сетях и по электронной почте. Самыми успешными распространителями фейкового видео в социальных сетях стали политики: бывший глава Верховного суда и экс-министр Штефан Харабин и бывший депутат Петер Марчек. Оба являются ярыми сторонниками прокремлевской позиции и пропаганды в стране. Сам Марчек посетил аннексированный Крым в 2018 году.

Выводы ICJK показывают, что фейковое видео первоначально стало широко распространенным после того, как его поделился аккаунтом Штефана Харабина в Telegram. Однако он переслал его со скрытого личного аккаунта под именем «Габика Ха». В аккаунте бывшего министра юстиции не случайно поделился контентом этого пользователя. Он сделал это как минимум 27 раз. Более того, анализ содержания учетной записи показывает, что человек, использующий учетную запись, «Габика Ха», должно быть, лично сопровождал бывшего министра юстиции на Днях Саламандры в Банской Штьявнице в начале сентября 2023 года. На вопрос, может ли профиль быть связан с его жена Габриэла (сокращенно Габика) Харабинова, имя которой похоже на «Габика Ха», Харабин повесил трубку с репортером ICJK.

Несмотря на то, что сфабрикованное видео первоначально появилось в Telegram, оно распространилось среди десятков тысяч пользователей через Facebook. По словам фактчекера AFP Роберта Барки, который проверяет правдивость информации в словацком Facebook, она распространялась в основном через личные аккаунты, «как и большая часть вирусного ложного контента в Facebook». Самым успешным постом, по мнению «Барсы», стал пост бывшего члена национального совета Петера Марчека.

Примечательно, что появление дипфейкового видео с участием Тодовой и Шимечки совпало с опубликованным незадолго до появления видео пресс-релизом российской разведки СВР, в котором утверждалось о причастности США к влиянию на исход словацких выборов. Глава разведки СВР Сергей Нарышкин обвинил Соединенные Штаты в том, что они поручают союзникам сотрудничать с деловыми и политическими кругами «для обеспечения требуемых американцами результатов голосования», в частности, стремясь к «победе своего доверенного лица, либеральной партии Прогрессивная Словакия (…)». В пресс-релизе также упоминается председатель партии Михал Шимечка.

В ночь перед выборами 29 сентября выборы в Словакии заняли центральное место в новостях, транслировавшихся по российскому государственному телеканалу «Россия 1». Основное внимание в докладе было сосредоточено на возможности вмешательства США в результаты выборов в Словакии. Именно Штефан Харабин повторил эту теорию на камеру и, судя по кадрам, был единственным, кто дал интервью российскому пропагандистскому телевидению.

Если правоохранительным органам Словакии не удастся определить источник дезинформационной атаки, конечный мотив дипфейка никогда не будет установлен. Однако по мере того, как в ближайшие годы использование инструментов ИИ станет более доступным, вероятность подобных клеветнических атак и кампаний дезинформации, поддерживаемых ИИ, может возрасти, что поставит серьезные демократические вопросы не только для Словакии, но и для Европы и всего мира. Поскольку во всем мире продолжаются дебаты о том, как ИИ повлияет на журналистику и свободу прессы, этот случай представляет собой тревожный пример угроз, которые технология дипфейков может представлять как сейчас, так и в будущем.

Карин Ковари Шоймос работает в Следственном центре Яна Куцяка (ICJK) в Словакии

Источник:
https://ipi.media/slovakia-deepfake-audio-of-dennik-n-journalist-offers-worrying-example-of-ai-abuse/

Rate article
( No ratings yet )

Leave a Reply