Эксперты предупреждают, что достижения в области генеративного искусственного интеллекта могут усилить пропагандистскую игру.
Абанальная антиутопия, в которой манипулятивный контент настолько дешев в производстве и настолько прост в массовом производстве, что становится повсеместным: это политическое будущее, о котором беспокоятся цифровые эксперты в эпоху генеративного искусственного интеллекта (ИИ).
В преддверии президентских выборов 2016 года платформы социальных сетей были источниками дезинформации, поскольку крайне правые активисты, кампании иностранного влияния и сайты фейковых новостей распространяли ложную информацию и обостряли разногласия. Четыре года спустя выборы 2020 года были наводнены теориями заговора и безосновательными заявлениями о мошенничестве на выборах, число которых увеличилось до миллионов, что разожгло антидемократическое движение за отмену выборов.
Теперь, когда приближаются президентские выборы 2024 года, эксперты предупреждают, что достижения в области ИИ могут взять на вооружение тактику дезинформации прошлого и вдохнуть в нее новую жизнь.
По словам экспертов, дезинформация, создаваемая искусственным интеллектом, не только угрожает обмануть аудиторию, но и подрывает и без того находящуюся в боевой готовности информационную экосистему, наводняя ее неточностями и обманом.
«Степень доверия снизится, работа журналистов и других лиц, пытающихся распространять актуальную информацию, станет сложнее», — сказал Бен Уинтерс, старший юрисконсульт Электронного информационного центра конфиденциальности, некоммерческой организации, занимающейся исследованиями в области конфиденциальности. «Это не окажет положительного влияния на информационную экосистему».
Новые инструменты для старых тактик
Инструменты искусственного интеллекта, которые могут создавать фотореалистичные изображения, имитировать звук голоса и писать убедительно человеческий текст, стали использоваться в этом году резко, поскольку такие компании, как OpenAI, выпустили свои продукты на массовый рынок. Технология, которая уже угрожала перевернуть многие отрасли и усугубить существующее неравенство , все чаще используется для создания политического контента.
В последние месяцы сгенерированное искусственным интеллектом изображение взрыва в Пентагоне вызвало кратковременное падение фондового рынка. Аудиопародии ИИ на президентов США, играющих в видеоигры, стали вирусным трендом. Сгенерированные искусственным интеллектом изображения, на которых видно, как Дональд Трамп отбивается от полицейских, пытающихся его арестовать, широко распространялись в социальных сетях. Республиканский национальный комитет выпустил рекламу, полностью сгенерированную искусственным интеллектом , в которой были показаны изображения различных воображаемых бедствий, которые произойдут в случае переизбрания Байдена, а Американская ассоциация политических консультантов предупредила, что дипфейки видео представляют «угрозу демократии».
В некотором смысле эти изображения и реклама не так уж отличаются от манипулируемых изображений и видео, вводящих в заблуждение сообщений и автоматических звонков, которые годами были характерной чертой общества. Но раньше кампании по дезинформации сталкивались с целым рядом логистических препятствий: создание индивидуальных сообщений для социальных сетей занимало невероятно много времени, равно как и обработка изображений в фотошопе и редактирование видео.
Однако теперь генеративный ИИ сделал создание такого контента доступным для всех, кто обладает даже базовыми цифровыми навыками, несмотря на ограниченные ограничения или эффективное регулирование, ограничивающее его. Потенциальный эффект, предупреждают эксперты, заключается в своего рода демократизации и ускорении пропаганды как раз в то время, когда в нескольких странах вступают крупные выборы.
ИИ снижает планку дезинформации
Потенциальный вред ИИ для выборов можно рассматривать как самые серьезные опасения за последние десятилетия вмешательства в выборы. Ботов социальных сетей, которые притворяются настоящими избирателями, манипулируют видео или изображениями и даже обманывают роботов, легче создать и сложнее обнаружить с помощью инструментов ИИ.
У зарубежных стран также появляются новые возможности попытаться повлиять на выборы в США или подорвать их честность, как давно предупреждают федеральные чиновники, над чем работают Россия и Китай. Языковые барьеры для создания вводящего в заблуждение контента стираются, а явные признаки мошенников или дезинформационных кампаний с использованием повторяющихся фраз или странного выбора слов заменяются более правдоподобными текстами.
«Если вы сидите на ферме троллей в чужой стране, вам больше не нужно бегло говорить, чтобы написать бегло звучащую статью на языке вашей целевой аудитории», — сказал Джош Гольдштейн, научный сотрудник Центра Джорджтаунского университета. Безопасность и новые технологии. «Вы можете просто заставить языковую модель выдать статью с грамматикой и словарным запасом свободно говорящего».
Технология ИИ также может активизировать кампании по подавлению избирателей, нацеленные на маргинализированные сообщества. Два крайне правых активиста в прошлом году признались , что сделали более 67 000 автоматических звонков, нацеленных на чернокожих избирателей на Среднем Западе, с дезинформацией о выборах, и такие эксперты, как Уинтерс, отмечают, что ИИ гипотетически можно использовать для воспроизведения такой кампании в большем масштабе с более персонализированной информацией. Звук, имитирующий избранных лидеров или доверенных лиц, может сообщать избранным группам избирателей вводящую в заблуждение информацию об опросах и голосовании или вызывать общее замешательство.
Создание кампаний по написанию писем или фальшивое участие также может создать своего рода ложную избирательную группу, из-за чего будет неясно, как избиратели на самом деле реагируют на проблемы. В рамках исследовательского эксперимента , опубликованного ранее в этом году, профессора Корнельского университета Сара Крепс и Дуг Крайнер разослали десятки тысяч электронных писем более чем 7000 законодателям штатов по всей стране. Электронные письма якобы были отправлены заинтересованными избирателями, но были разделены на письма, созданные искусственным интеллектом, и письма, написанные человеком. Ответы были практически одинаковыми: написанные человеком электронные письма получали только на 2% больше ответов, чем сообщения, созданные ИИ.
Кампании пробуют воду
Кампании уже начали использовать контент, созданный ИИ, в политических целях. После того, как губернатор Флориды Рон ДеСантис объявил о своей кандидатуре во время прямой трансляции в Твиттере в мае, Дональд Трамп издевался над своим оппонентом, показывая пародийное видео на объявление, в котором использовались сгенерированные искусственным интеллектом голоса ДеСантиса, Илона Маска и Адольфа Гитлера. В прошлом месяце кампания ДеСантиса поделилась сгенерированными ИИ изображениями Трампа, обнимающего и целующего Энтони Фаучи.
Изображения и видео, сгенерированные искусственным интеллектом, могут быть созданы гораздо быстрее, чем специалисты по проверке фактов могут просмотреть и опровергнуть их.
Во время выборов 2016 и 2020 годов кампания Трампа в значительной степени опиралась на мемы и видеоролики, сделанные его сторонниками, включая обманчиво отредактированные видеоролики , из которых создавалось впечатление, что Байден невнятно произносит слова или говорит, что ему не следует быть президентом. Наблюдатели за выборами предупреждают, что версия этой стратегии с использованием искусственного интеллекта появляется, когда Трамп в мае поделился дипфейковым видео, на котором ведущий CNN Андерсон Купер рассказывает зрителям , что они только что посмотрели «Трамп разорвал нам нового мудака здесь, в прямом эфире президентской ратуши CNN». .
Поскольку до президентских выборов осталось около 16 месяцев, а широкое использование генеративного ИИ все еще только начинается, остается открытым вопрос, какую роль искусственный интеллект будет играть в голосовании. Исследователи говорят, что создание вводящего в заблуждение контента, сгенерированного ИИ, не означает, что он повлияет на выборы, а измерение воздействия кампаний по дезинформации является заведомо сложной задачей. Одно дело отслеживать использование поддельных материалов, а другое — оценивать вторичные последствия загрязнения информационной экосистемы до такой степени, что люди обычно не доверяют любой информации, которую они потребляют в Интернете.
Но есть тревожные признаки. В то время как использование генеративного ИИ растет, многие платформы социальных сетей, на которые злоумышленники полагаются для распространения дезинформации, начали отменять некоторые из своих мер по модерации контента — YouTube отменил свою политику честности выборов, Instagram разрешил стороннику теории заговора против вакцин. Роберт Кеннеди-младший вернулся на свою платформу, а глава отдела модерации контента Twitter покинул компанию в июне на фоне общего падения стандартов при Илоне Маске.
Исследователи говорят, что еще предстоит увидеть, насколько эффективными могут быть медиаграмотность и традиционные средства проверки фактов в противодействии потоку вводящего в заблуждение текста и изображений, поскольку потенциальный масштаб генерируемого контента представляет собой новую проблему.
«Изображения и видео, сгенерированные ИИ, могут быть созданы гораздо быстрее, чем специалисты по проверке фактов могут их просмотреть и опровергнуть», — сказал Гольдштейн, добавив, что ажиотаж вокруг ИИ также может подорвать доверие, заставив общественность поверить в то, что все может быть создано искусственно.
Некоторые службы генеративного ИИ, в том числе ChatGPT, имеют политики и средства защиты от создания дезинформации и в некоторых случаях могут блокировать использование службы для этой цели. Но до сих пор неясно, насколько они эффективны, и в некоторых моделях с открытым исходным кодом такие политики и функции отсутствуют.
«На самом деле не будет достаточного контроля над распространением», — сказал Уинтерс. «Нет недостатка в роботах-дозвонщиках, автоматических отправителях электронной почты или текстовых сообщений, а также в платформах массовой электронной почты. Нет ничего, что ограничивало бы их использование».
Источник:
https://www.theguardian.com/us-news/2023/jul/19/ai-generated-disinformation-us-elections