web analytics

Как ИИ влияет на исход выборов по всему миру

Political Tech

Эта статья — часть серии материалов Global Voices, которые будут выходить в апреле 2026 года под общим названием «Человеческий взгляд на ИИ». Серия посвящена тому, как технологии искусственного интеллекта применяются в странах глобального большинства, как они влияют на отдельные сообщества и какие последствия этот технологический эксперимент может иметь для будущих поколений.

Статья Сафы Гнаим в сотрудничестве с Институтом Гёте в Бразилии была опубликована на DataDetoxKit.org. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках партнёрского соглашения.

Во время избирательной кампании возникает ощущение, что кандидаты появляются повсюду и одновременно, высказываясь по каждому вопросу, который вас волнует. И как им удаётся так точно угадывать, какие сообщения вы хотите видеть и слышать — и даже когда и где именно вы готовы их воспринимать?

Смартфон в вашей ладони порой напоминает магический хрустальный шар. Но, как ловкий «экстрасенс», который считывает ваши реакции и шепчет вам именно то, что вы хотите услышать, политические штабы используют ваши персональные данные, чтобы адресно доносить наиболее убедительные для вас сообщения. И такие методы уже применяются на выборах по всему миру — в Чили, Грузии, Индии, Италии, Кении, Малайзии, Нигерии и США.

Сегодня технологические гиганты идут дальше: они активно тестируют инструменты искусственного интеллекта, способные сделать политическую агитацию ещё более точной, навязчивой и убедительной. И работают эти технологии в интересах не только тех кандидатов, которым вы доверяете, но и тех, кого бы вы никогда не поддержали.

Кто на самом деле влияет на нас?

На нас постоянно влияют, будь то прямо или косвенно. Сообщения, намёки, мягкие «подталкивания» онлайн и офлайн, — постепенно меняют наши взгляды, поведение и решения. Само по себе это влияние не однозначно негативно, но важно уметь вовремя его распознать.

Термин «инфлюенсер» в наши дни чаще ассоциируется с популярными блогерами в социальных сетях — Instagram, TikTok или YouTube. Однако реальный круг их влияния куда шире. Формируют общественное мнение и публичные фигуры — знаменитости, телеведущие, журналисты. Их воздействие проявляется в выборе слов, визуального образа, вопросов, которым они уделяют внимание, и сюжетов, которые выводятся на первый план.

При этом влияние распространяется не только через социальные сети, но встроено в саму архитектуру цифровой среды: в результаты выдачи поисковых систем, таких как Google, в алгоритмы рекомендаций, подбрасывающие пользователям «следующее видео» или «интересный пост», в заголовки новостей, формирующие повестку дня. Даже в мессенджерах типа WhatsApp циркулируют сообщения, способные незаметно корректировать общественные настроения.

Особый вид «инфлюенсеров» — политики, особенно в период избирательных кампаний. Штабы кандидатов инвестируют огромные средства, чтобы достучаться до избирателя. Вокруг этого сформировалась целая индустрия: более 500 компаний по всему миру специализируются на технологиях политического воздействия. Они предлагают политикам и кампаниям услуги по точечному влиянию — чтобы, в конечном счёте, получить ваш голос.

Сегодня эти компании совершают огромный рывок, активно внедряя технологии ИИ. Цель менеджеров — удешевить традиционные методы влияния, сделать их быстрее, убедительнее и практически полностью их автоматизировать. Но вместе с этим практики становятся всё менее прозрачными, всё труднее поддаются контролю и регулированию. Рынок стремительно растёт — и финансовые ставки в нём чрезвычайно высоки.

Как ИИ ловят наше внимание

Приёмы, которые используют в рекламе товаров, применяются и в борьбе за ваш голос [анг]. Это неудивительно, но гораздо поразительнее то, насколько изощрёнными стали цифровые методы воздействия — отчасти потому, что их трудно распознать. Каждый поисковый запрос в Google [анг] или Bing [анг] — источник данных. С появлением инструментов, аналогичных ChatGPT, сложные и развёрнутые поисковые запросы [анг] позволяют выстроить ваш детализированный портрет — с интересами, тревогами и ценностями.

Компании, работающие в сфере политического влияния, сфокусировались [анг] на убеждении избирателей, привлечении финансирования и повышении явки. С внедрением искусственного интеллекта эти процессы вышли на новый уровень оптимизации. «Индустрия влияния» располагает множеством [анг] ИИ-инструментов, которые со временем становятся всё точнее, масштабнее и эффективнее, охватывая миллионы людей. Знакомясь с этими методами и осознанно обращая на них внимание, вы сможете лучше понять, как индустрия влияния выстраивает и масштабирует воздействие на массовую аудиторию.

Методы политического убеждения эволюционируют вместе с технологиями. Вот лишь некоторые из них.

Персонализированный ИИ-контент

Позволяет перейти от работы с широкой аудиторией к точечному воздействию на конкретного человека. ИИ-сообщения автоматически подстраиваются [анг] под ваши интересы, язык, культурный контекст и даже эмоциональное состояние.

ИИ, работающий за политические партии

Некоторые компании уже предлагают инструментарий ИИ для написания речей кандидатов, обращений к избирателям и даже разработки целых стратегий политических кампаний. Это повышает «эффективность», но поднимает вопросы о человеческом контроле, ответственности и рисках внешнего вмешательства.

ИИ трансформирует образ политического кандидата — делает его моложе и привлекательнее

ИИ способен создавать «виртуальные аватары» политиков на основе минимального набора данных — голоса и изображения. Такие аватары могут обращаться к избирателям по имени, говорить на их языке или диалекте, создавая ощущение личного контакта. При этом граница между реальным человеком и его цифровым двойником становится всё более размытой [анг].

Где же границы допустимого? Если политики всё чаще делегируют коммуникацию алгоритмам, какие механизмы прозрачности должны существовать? Должны ли такие сообщения маркироваться? И какую информацию вы хотели бы видеть, чтобы отличать реального человека от ИИ-сгенерированного образа?

Политика мИИлоты

Использование соцсетей и инструментария ИИ в избирательных кампаниях — не футуристический сценарий, а повседневная практика. Показательный пример — 2024 год с выборами по всему миру, во время который политической коммуникацией стал заниматься ИИ.

В США кандидат в Конгресс опубликовал видео в соцестях с голосом Мартина Лютера Кинга, якобы поддерживающего эту кандидатуру. Позже выяснилось, что это был ИИ голос-клон [анг]. Видео вызвало волну обсуждений. Появились ИИ-изображения певицы Тейлор Свифт [анг], якобы поддерживающей Дональда Трампа. Кстати, сам Трамп охотно делился подобными материалами, усиливая эффект. Ещё один инцидент — автоматизированные звонки избирателям, которых фальшивый Джо Байден убеждал не участвовать в праймериз. Ложное сообщение ввело в заблуждение тысячи людей [анг].

В Пакистане политик Имран Хан, сидящий в тюрьме и находящийся под запретом участвовать в выборах, продолжал выступать перед избирателями: его команда использовала архивные видео и синтезированный голос [анг], создавая иллюзию живого участия. Ролики сопровождались пометкой «authorized AI voice», однако остаётся неясным, контролировал ли сам политик содержание этих выступлений. На выборах 2024 года в Индонезии повсеместно использовались цифровые аватары для привлечения молодёжи. Так, кандидат Прабово Субианто выступал, прикрываясь милым аватаром [анг] в соцсетях, включая TikTok. Это позволило полностью изменить публичный образ и выиграть на президентских выборах: люди забыли про былые обвинения политика в серьёзных нарушениях прав человека.

И это лишь несколько примеров того, как ИИ трансформирует политическую атмосферу по всему миру. Использует ли ваш местный политик ИИ в своей кампании?

Заглянуть за ширму

То, что контент, созданный генеративным ИИ, выглядит и звучит убедительно, ещё не делает его подлинным. Если вы сталкиваетесь в ленте с чем-то шокирующим, странным или выбивающимся из привычной картины, есть высокая вероятность, что перед вами результат работы ИИ — либо полностью сгенерированный материал, либо до неузнаваемости изменённый, пусть даже вы на первый взгляд не можете отличить правду от вымысла.

Быстрее прочего распространяется контент [анг, pdf, 909 КБ], вызывающий сильные эмоции: страх, отвращение, восторг, гнев или тревогу. Эмоционально заряженный контент — наилучший способ сделать материал вирусным и распространить дезинформацию. Отслеживайте свои реакции, и пусть сильные эмоции станут для вас подсказкой, что предлагаемую информацию надо проверить. Например, вы видите ролик, в котором политик делает или говорит нечто тревожное и скандальное. Стоит потратить время на дополнительную проверку: правда ли перед вами или этот материал — сгенерированный ИИ фальсификат.

Можно ориентироваться на проверенные международные структуры, например, «Международную фактчекинговую сеть» (International Fact-Checking Network [анг] ), чтобы узнать, какие источники уделяют особое внимание проверке публикуемой информации. На странице Signatories [анг] по странам приводятся источники, которые входят в этот список.

Источник:
https://ru.globalvoices.org/2026/04/10/130378/

Оцените статью
( Пока оценок нет )

Добавить комментарий