Европейские граждане из 27 различных государств-членов будут голосовать за следующий парламент ЕС в период с 6 по 9 июня.
Дезинформация (по данным недавнего глобального опроса ЮНЕСКО , более 85% людей обеспокоены ее последствиями, а 87% считают, что она уже нанесла вред политике их страны ) скрывается в преддверии выборов, готовая использовать трещины и беспорядки в Европе. стран, чтобы поляризовать ситуацию и потенциально способствовать интересам различных игроков, как национальных, так и иностранных.
Способность ИИ генерировать контент, который можно использовать для распространения дезинформации, согласно исследовательским работам и различным экспертам , является одним из наиболее тревожных событий в этой области за последние годы. В марте парламент ЕС принял закон об искусственном интеллекте — комплексное регулирование искусственного интеллекта, но его положения не вступят в силу к выборам в ЕС в 2024 году. Другие правовые инструменты ЕС – в частности, DSA и DMA – потенциально могут сыграть свою роль, но все законодательство в этой области является относительно новым и непроверенным.
Согласно ежемесячным отчетам сети проверки фактов EDMO , до сих пор дезинформационный контент, сгенерированный ИИ, по-прежнему составляет незначительное меньшинство от общего количества обнаруженной дезинформации в ЕС , но некоторые соответствующие случаи были распространены в последние несколько недель и месяцев и были опровергнуты. организациями, проверяющими факты.
Учитывая четыре категории контента – изображения, аудио, видео и текст, сгенерированные искусственным интеллектом – и глядя на недавние прецеденты (многие из них перечислены в этом отчете Целевой группы EDMO по выборам в ЕС и в ежемесячных сводках EDMO ), чего можно разумно ожидать на предстоящих выборах в ЕС?
Изображения, созданные искусственным интеллектом
В последние месяцы в разных странах ЕС были распространены различные изображения, созданные ИИ, для передачи дезинформации. Например, изображение тракторов и тюков соломы перед Эйфелевой башней в Париже было призвано преувеличить масштаб протестов тракторов; фотография Франса Тиммерманса, бывшего вице-президента Комиссии ЕС и кандидата от альянса GroenLinks-PvdA на выборах в Нидерландах в 2023 году, на частном самолете, предположительно летающего туда и обратно в Малагу, с вкусной едой на столе, подпись как свидетельство его безнравственность; изображение Дональда Трампа с Джеффри Эпштейном, чтобы дискредитировать бывшего президента США ; изображение белой бездомной матери с детьми, распространенное с целью разжечь враждебность по отношению к мигрантам в контексте жилищного кризиса в Ирландии; изображение , на котором весь пол комнаты завален коробками из-под пиццы, предположительно на конференции немецкой Партии зеленых, которые использовались для нападок на партию и так далее .
Во всех этих случаях все доказательства указывают на то, что изображения не настоящие, а созданы с помощью технологии искусственного интеллекта из-за деталей самого изображения: руки, глаза, формы и оттенки часто кажутся странными, а то и совершенно нереальными на изображениях, созданных искусственным интеллектом. . Эта относительная простота обнаружения изображений, созданных ИИ, не только для экспертов, но и для пользователей, является одной из наиболее вероятных причин, почему эта технология пока не является важным инструментом для производства дезинформации. В недавних кризисах, таких как конфликт между Израилем и ХАМАСом, хорошо известная методика повторного обмена старыми изображениями с вводящими в заблуждение подписями, чтобы создать впечатление, что они связаны с текущими событиями, была более распространена по сравнению с изображениями, созданными ИИ.
Учитывая прецеденты и текущую способность ИИ генерировать изображения, можно предвидеть ограниченное или не особенно эффективное использование такого рода контента для распространения дезинформации накануне выборов в ЕС. Можно ожидать, что изображения, сгенерированные ИИ, будут созданы для создания различных повествований, например, о фальсификации выборов, подделке бюллетеней, участии в выборах нелегальных мигрантов; или о политических деятелях, делающих то, чего они никогда не делали; или для передачи эмоциональных сообщений по актуальным темам политических дебатов и так далее.
Однако их качество должно позволять быстро и эффективно обнаруживать и разоблачать даже обычных пользователей. Учитывая это, также возможно, что количество изображений, созданных ИИ, способствующих дезинформации, не вырастет перед выборами значительно выше тех процентов, которые наблюдались в предыдущие месяцы. Техника повторного распространения старых изображений с вводящими в заблуждение подписями, чтобы создать впечатление, что они связаны с текущими событиями, скорее всего, будет широко использоваться для распространения дезинформации.
Очевидно, что этот сценарий может быстро измениться, если развитие технологий искусственного интеллекта затруднит отличие создания изображений от реальных.
Аудио, созданное искусственным интеллектом
Учитывая прецеденты, наибольшую озабоченность на данный момент представляет распространение дезинформации, создаваемой искусственным интеллектом. Эта технология уже способна создавать контент, который среднестатистическому пользователю очень трудно распознать как созданный искусственным интеллектом, поскольку ему не хватает визуального элемента, который часто дает важные подсказки для немедленного распознавания его искусственного происхождения, и даже инструменты обнаружения искусственного интеллекта, похоже, не справляются со своими задачами .
Один пример, в частности, показывает, как эта техника дезинформации может быть чрезвычайно вредной перед выборами. В Словакии всего за два дня до парламентских выборов в сентябре 2023 года тысячи пользователей социальных сетей поделились подозрительным аудиофайлом , который представлял собой разговор между Михалом Шимечкой, председателем Progresivne Словакии (PS), и журналисткой Моникой Тодовой. Аудиозапись якобы представляла собой запись телефонного разговора между ними, в котором они обсуждали, как манипулировать выборами в пользу ПС, в том числе подкупать голоса у цыганской общины.
Качество звука было относительно низким, поэтому разные эксперты с высокой степенью вероятности смогли сделать вывод, что он был сгенерирован ИИ. Тем не менее, во время моратория на выборы аудиозапись широко распространялась, что затрудняло любую возможную реакцию пострадавшего субъекта.
Всего за несколько дней до этого Шимечка уже подвергся подобной манипуляции: в социальных сетях появились различные посты с якобы аудиозаписью, на которой он обсуждает планы партии по резкому повышению цен на пиво после выборов. Качество звука снова оказалось достаточно плохим, чтобы эксперты и инструменты могли быстро оценить происхождение контента с помощью ИИ. Между тем, всего за несколько дней до голосования фальшивая аудиозапись распространилась вирусно.
Еще одним уместным примером, который можно упомянуть, является аудиозапись президента США Джо Байдена, сгенерированная искусственным интеллектом: за два дня до праймериз в Нью-Гэмпшире в январе 2024 года тысячи людей в штате получили то, что, похоже, было вызовом робота, сгенерированным искусственным интеллектом . Голос, очень похожий на голос Джо Байдена, призывал людей не голосовать на первичных выборах. Или, опять же, фейковая аудиозапись, на которой мать Алексея Навального обвиняет его жену Юлию Навальную в том, что она бессердечная оппортунистка, по сути ответственная за смерть его сына.
Глядя на этот предыдущий опыт, можно сказать, что аудиоконтент, созданный ИИ, скорее всего, появится в преддверии следующих выборов в ЕС, по крайней мере, в некоторых странах. Их можно использовать для дискредитации политиков, продвижения теорий заговора о честности выборов и/или препятствования демократическому участию. Можно ожидать, что количество этих инцидентов, вероятно, будет не очень большим, учитывая, что во многих странах ЕС дезинформация еще не сильно характерна для этой технологии, а качество все еще должно быть недостаточно высоким, чтобы помешать экспертам обнаружить искусственное происхождение Контент. Тем не менее, вполне вероятно, что обычные пользователи могут быть обмануты с помощью аудиоконтента, сгенерированного ИИ, и если это произойдет незадолго до выборов, конечному разоблачающему контенту будет сложно быстро дойти до всех граждан, подвергшихся воздействию фальшивого аудио.
Стоит упомянуть отдельную, но связанную с этим возможность, а именно выпуск реальной аудиозаписи, информирующей население о чем-то, что на самом деле произошло перед голосованием – например, о тревожном или смущающем заявлении кандидата, пойманного без микрофона – с человеком( s) участвует в аудиозаписи, утверждая, что это ложный контент, созданный искусственным интеллектом. Если время, необходимое для опровержения таких утверждений, превышает время до голосования, субъекты, распространяющие дезинформацию, могут выиграть от путаницы. Кстати, важно помнить, что главная цель дезинформации редко состоит в том, чтобы убедить людей в ложности, которую она распространяет, а в том, чтобы послать сообщение о том, что невозможно узнать правду и что каждая версия реальности одинаково легитимна.
Видео, созданное искусственным интеллектом
Технология создания видео, генерируемого искусственным интеллектом, быстро развивается. Недавно в сети были опубликованы различные видеоролики, созданные ИИ, начиная с текста, показывающие, насколько сложно обычному пользователю идентифицировать контент как искусственный, а не настоящий. Самый продвинутый инструмент такого рода, пожалуй, Sora от OpenAI, компании, создавшей ChatGPT. Был анонсирован Sora, демонстрирующий свои возможности в создании видео более реалистичными, чем когда-либо, но он еще не доступен публично, вероятно, также из-за опасений по поводу потенциальных злоупотреблений, среди которых одно из крупнейших связано с неверной/дезинформацией.
Ограниченный выпуск лучших технологий является одной из наиболее вероятных причин, почему фактчекеры в Европе до сих пор не обнаружили дезинформационный контент, созданный таким образом: доступные текстовые видеоролики вряд ли достаточно реалистичны, чтобы их можно было принять за настоящие видео. Таким образом, текущий риск того, что видеоконтент, полностью созданный с помощью ИИ, будет распространяться в преддверии следующих выборов в ЕС с целью повлиять на них, кажется низким.
В преддверии голосования в парламенте ЕС вероятность обнаружения дезинформационного контента, в котором звук генерируется или изменяется с помощью искусственного интеллекта, а видео лишь незначительно изменяется для подтверждения звука, будет гораздо выше. Изменение видео может быть ограничено губами и выражением лица говорящего, чтобы слова и губы/лицо были синхронизированы. Технология достижения такого эффекта уже разработана, хотя зачастую и несовершенна, и широко используется.
В последние месяцы различные организации фактчекинговой сети EDMO обнаруживали подобный контент. Например, была подтасована видеотрансляция France24 , в результате чего один из ее журналистов, используя синхронизацию губ, сказал то, чего он никогда не говорил. В частности, в сфальсифицированном видео журналист рассказывает, что президент Франции Эммануэль Макрон был вынужден отменить свой визит в Украину из-за опасений покушения. Видео Греты Тамберг, снятое BBC, было изменено , чтобы заставить ее сказать, что людям следует выбирать «устойчивые танки и оружие», если они хотят продолжать вести войны. Видео чешского актера Ондржея Ветчи, который начал сбор средств с целью отправки в Украину для приобретения дронов, было сфальсифицировано , чтобы заставить его заявить, что чехи должны поклоняться Степану Бандере (крайне правый националистический украинский политик, сотрудничавший с нацистами во время мировой войны). II). Видео бывшего главы Вооруженных сил Украины генерала Валерия Залужного было смонтировано , чтобы заставить его обвинить президента Зеленского в предательстве и призвать украинцев восстать против его правительства. Многие другие выявленные случаи, часто связанные с политиками (например, Мелони , Бабиш , Денков ), были мошенничеством.
Учитывая эти прецеденты, можно ожидать, что подобный контент может появиться накануне выборов в ЕС в 2024 году с целью дискредитации политиков, продвижения теорий заговора и/или распространения ложных новостей, которые могут нанести ущерб демократическому процессу. Угрозу можно оценить как немного меньшую по сравнению с угрозой, исходящей от аудио, генерируемого ИИ, поскольку видео часто предоставляют больше элементов – как для экспертов, так и для обычных пользователей – позволяющих обнаружить искусственное происхождение. Более того, существование оригинального видео с другим звуком обычно можно легко проверить. Тем не менее, подобный контент потенциально может обмануть граждан перед тем, как они проголосуют.
Текст, сгенерированный ИИ
Текст, сгенерированный ИИ, создает два разных типа проблем. Если текст генерируется по запросу пользователя, и пользователь не обнародует этот текст, существует риск – особенно значительный для тех LLM, которые не имеют надежных механизмов защиты и/или полагаются на противоречивые наборы данных – что информация пользователь будет непосредственно подвергнут воздействию, является неверным или вводящим в заблуждение, а внешние стороны (организации по проверке фактов, эксперты и т. д.) не имеют доступа к этому контенту для его проверки. Как отмечает EDMO в специальной статье , существует особый риск, связанный с тем, что пользователи считают, что ответы чат-ботов, основанных на моделях большого языка (LLM), являются наиболее правильными, а не просто убедительными.
С другой стороны, если тексты, сгенерированные искусственным интеллектом, будут общедоступны – например, новостные веб-сайты , которые полностью состоят из такого рода контента, или частные пользователи, которые делятся онлайн результатами своих подсказок с LLM –, дезинформация будет распространяться не иначе, чем «традиционная». текстовые ложные новости, созданные людьми. Самым проблемным аспектом является объем: теоретически ИИ позволяет создавать огромные объемы текстовой дезинформации с небольшими затратами и за очень короткое время. Однако сам объем производства не является самым важным аспектом. Это заключается в возможности автоматизации с помощью ИИ не только создания, но и распространения и усиления лавины дезинформационного контента, то есть с помощью ботов.
Маловероятно, что это произойдет в преддверии следующих выборов в ЕС, но его влияние можно относительно легко ограничить за счет точного применения политик основных платформ социальных сетей (например, Meta , X , TikTok ), направленных на обнаружение и противодействие недостоверному поведению. и скоординированные кампании по распространению дезинформации.
Заключение
Созданный искусственным интеллектом контент, используемый для передачи дезинформации, представляет собой значительный риск в преддверии выборов в ЕС в 2024 году. Его можно использовать для дискредитации политиков и/или других общественных деятелей, распространения ложных обвинений и теорий заговора и, в целом, для нападения на честность. демократического процесса.
Изображения, созданные ИИ, представляют средний риск, учитывая их текущее качество. Видео, созданные ИИ, потенциально опасны, особенно те, в которых видео реально, а звук изменен с помощью ИИ, но их разоблачение на данный момент относительно легко. Тексты, сгенерированные ИИ, в настоящее время представляют относительно небольшой риск, но важно реагировать быстро и эффективно, чтобы остановить любую кампанию дезинформации, направленную на использование потенциально огромного объема дезинформации, которая может быть создана таким образом. Аудиозаписи, сгенерированные искусственным интеллектом, по-видимому, представляют наибольшую опасность: их труднее разоблачить, и их легче обмануть.
Первой и наиболее важной линией защиты является осведомленность граждан: когда они сталкиваются с контентом, который передает сильное эмоциональное послание, которое может повлиять на решимость граждан голосовать или их политические предпочтения и которое не подтверждается традиционными средствами массовой информации, воспитывая здоровый скептицизм, рассмотрение потенциально раскрывающих деталей и ожидание дальнейшего подтверждения, прежде чем делиться ими, — это лучшие практики, которые могут значительно уменьшить распространение дезинформации.
Томмазо Канетта, заместитель директора Pagella Politica/Facta News и координатор деятельности EDMO по проверке фактов
Источник:
https://edmo.eu/publications/prebunking-ai-generated-disinformation-ahead-of-eu-elections/