Целенаправленная политическая дезинформация, генерируемая искусственным интеллектом, уже существует, и люди на нее попадаются.
Много лет до выпуска ChatGPT моя исследовательская группа, Лаборатория социального принятия решений Университета Кембриджа, задавалась вопросом, возможно ли создание дезинформации с помощью нейронных сетей. Для этого мы обучили предшественника ChatGPT, GPT-2, на примерах популярных теорий заговора, а затем попросили его сгенерировать для нас фальшивые новости. Он предоставил нам тысячи вводящих в заблуждение, но правдоподобно звучащих новостных историй. Несколько примеров: «Некоторые вакцины содержат опасные химикаты и токсины» и «Чиновники правительства манипулировали ценами на акции, чтобы скрыть скандалы». Вопрос заключался в том, поверит ли кто-нибудь этим утверждениям?
Мы создали первый психометрический инструмент для проверки этой гипотезы, который мы назвали Тестом на Восприимчивость к Дезинформации (MIST). В сотрудничестве с YouGov, мы использовали заголовки, сгенерированные ИИ, чтобы проверить, насколько американцы восприимчивы к фальшивым новостям, созданным ИИ. Результаты были тревожными: 41 процент американцев ошибочно считали заголовок о вакцине правдивым, а 46 процентов думали, что правительство манипулирует фондовым рынком. Другое недавнее исследование, опубликованное в журнале «Science», показало не только то, что GPT-3 производит более убедительную дезинформацию, чем люди, но и то, что люди не могут надежно отличить дезинформацию, созданную человеком, от дезинформации, созданной ИИ.
Мой прогноз на 2024 год заключается в том, что дезинформация, созданная ИИ, появится на выборах недалеко от вас, и вы даже не осознаете этого. Фактически, вы могли уже столкнуться с некоторыми примерами. В мае 2023 года вирусная фальшивая история о бомбардировке Пентагона была сопровождена изображением, сгенерированным ИИ, которое показывало большое облако дыма. Это вызвало общественное возмущение и даже падение на фондовом рынке. Кандидат в президенты от Республиканской партии Рон ДеСантис использовал фальшивые изображения Дональда Трампа, обнимающего Энтони Фаучи, в рамках своей политической кампании. Смешивая реальные и сгенерированные ИИ изображения, политики могут размывать границы между фактом и вымыслом, используя ИИ для усиления своих политических атак.
Перед взрывом генеративного ИИ киберпропагандистские фирмы по всему миру должны были сами писать вводящие в заблуждение сообщения и нанимать тролль-фабрики для массового воздействия на людей. С помощью ИИ процесс создания вводящих в заблуждение новостных заголовков может быть автоматизирован и вооружен с минимальным участием человека. Например, микротаргетинг — практика обращения к людям с сообщениями на основе данных их цифрового следа, таких как лайки на Facebook — уже был поводом для беспокойства на прошлых выборах, несмотря на его основное препятствие в необходимости создания сотен вариантов одного и того же сообщения, чтобы увидеть, что работает на данной группе людей. То, что раньше требовало больших усилий и было дорогостоящим, теперь доступно быстро и недорого без каких-либо барьеров для входа. ИИ фактически демократизировал создание дезинформации: любой, у кого есть доступ к чат-боту, теперь может засеять модель на определенную тему, будь то иммиграция, контроль за оружием, изменение климата или вопросы ЛГБТК+, и сгенерировать десятки убедительных фальшивых новостей за минуты. Фактически, уже появляются сотни новостных сайтов с ИИ-генерированным контентом, распространяющих ложные истории и видео.
Чтобы проверить влияние такой дезинформации, созданной ИИ, на политические предпочтения людей, исследователи из Университета Амстердама создали дипфейк-видео политика, оскорбляющего его религиозных избирателей. Например, в видео политик шутил: «Как бы сказал Христос, не распинайте меня за это». Исследователи обнаружили, что религиозные христианские избиратели, которые смотрели дипфейк-видео, относились к политику более негативно, чем те, кто был в контрольной группе.
Одно дело обманывать людей дезинформацией, созданной ИИ, в экспериментах. Другое дело — экспериментировать с нашей демократией. В 2024 году мы увидим больше дипфейков, клонирования голосов, манипуляций с идентичностью и фальшивых новостей, созданных ИИ. Правительства серьезно ограничат, если не запретят, использование ИИ в политических кампаниях. Потому что, если они этого не сделают, ИИ подорвет демократические выборы.
Автор:
Sander van der Linden автор книги Foolproof: Why Misinformation Infects Our Minds and How to Build Immunity.
Источник:
https://www.wired.com/story/ai-generated-fake-news-is-coming-to-an-election-near-you/