Эта статья — часть серии материалов Global Voices, которые будут выходить в апреле 2026 года под общим названием «Человеческий взгляд на ИИ». Серия посвящена тому, как технологии искусственного интеллекта применяются в странах глобального большинства, как они влияют на отдельные сообщества и какие последствия этот технологический эксперимент может иметь для будущих поколений.
Статья Сафы Гнаим в сотрудничестве с Институтом Гёте в Бразилии была опубликована на DataDetoxKit.org. Отредактированная и переведённая версия материала предлагается на Global Voices в рамках партнёрского соглашения.
Во время избирательной кампании возникает ощущение, что кандидаты появляются повсюду и одновременно, высказываясь по каждому вопросу, который вас волнует. И как им удаётся так точно угадывать, какие сообщения вы хотите видеть и слышать — и даже когда и где именно вы готовы их воспринимать?
Смартфон в вашей ладони порой напоминает магический хрустальный шар. Но, как ловкий «экстрасенс», который считывает ваши реакции и шепчет вам именно то, что вы хотите услышать, политические штабы используют ваши персональные данные, чтобы адресно доносить наиболее убедительные для вас сообщения. И такие методы уже применяются на выборах по всему миру — в Чили, Грузии, Индии, Италии, Кении, Малайзии, Нигерии и США.
Кто на самом деле влияет на нас?
На нас постоянно влияют, будь то прямо или косвенно. Сообщения, намёки, мягкие «подталкивания» онлайн и офлайн, — постепенно меняют наши взгляды, поведение и решения. Само по себе это влияние не однозначно негативно, но важно уметь вовремя его распознать.
Термин «инфлюенсер» в наши дни чаще ассоциируется с популярными блогерами в социальных сетях — Instagram, TikTok или YouTube. Однако реальный круг их влияния куда шире. Формируют общественное мнение и публичные фигуры — знаменитости, телеведущие, журналисты. Их воздействие проявляется в выборе слов, визуального образа, вопросов, которым они уделяют внимание, и сюжетов, которые выводятся на первый план.
При этом влияние распространяется не только через социальные сети, но встроено в саму архитектуру цифровой среды: в результаты выдачи поисковых систем, таких как Google, в алгоритмы рекомендаций, подбрасывающие пользователям «следующее видео» или «интересный пост», в заголовки новостей, формирующие повестку дня. Даже в мессенджерах типа WhatsApp циркулируют сообщения, способные незаметно корректировать общественные настроения.
Особый вид «инфлюенсеров» — политики, особенно в период избирательных кампаний. Штабы кандидатов инвестируют огромные средства, чтобы достучаться до избирателя. Вокруг этого сформировалась целая индустрия: более 500 компаний по всему миру специализируются на технологиях политического воздействия. Они предлагают политикам и кампаниям услуги по точечному влиянию — чтобы, в конечном счёте, получить ваш голос.
Как ИИ ловят наше внимание
Приёмы, которые используют в рекламе товаров, применяются и в борьбе за ваш голос [анг]. Это неудивительно, но гораздо поразительнее то, насколько изощрёнными стали цифровые методы воздействия — отчасти потому, что их трудно распознать. Каждый поисковый запрос в Google [анг] или Bing [анг] — источник данных. С появлением инструментов, аналогичных ChatGPT, сложные и развёрнутые поисковые запросы [анг] позволяют выстроить ваш детализированный портрет — с интересами, тревогами и ценностями.
Компании, работающие в сфере политического влияния, сфокусировались [анг] на убеждении избирателей, привлечении финансирования и повышении явки. С внедрением искусственного интеллекта эти процессы вышли на новый уровень оптимизации. «Индустрия влияния» располагает множеством [анг] ИИ-инструментов, которые со временем становятся всё точнее, масштабнее и эффективнее, охватывая миллионы людей. Знакомясь с этими методами и осознанно обращая на них внимание, вы сможете лучше понять, как индустрия влияния выстраивает и масштабирует воздействие на массовую аудиторию.
Персонализированный ИИ-контент
Позволяет перейти от работы с широкой аудиторией к точечному воздействию на конкретного человека. ИИ-сообщения автоматически подстраиваются [анг] под ваши интересы, язык, культурный контекст и даже эмоциональное состояние.
ИИ, работающий за политические партии
Некоторые компании уже предлагают инструментарий ИИ для написания речей кандидатов, обращений к избирателям и даже разработки целых стратегий политических кампаний. Это повышает «эффективность», но поднимает вопросы о человеческом контроле, ответственности и рисках внешнего вмешательства.
ИИ трансформирует образ политического кандидата — делает его моложе и привлекательнее
ИИ способен создавать «виртуальные аватары» политиков на основе минимального набора данных — голоса и изображения. Такие аватары могут обращаться к избирателям по имени, говорить на их языке или диалекте, создавая ощущение личного контакта. При этом граница между реальным человеком и его цифровым двойником становится всё более размытой [анг].
Политика мИИлоты
Использование соцсетей и инструментария ИИ в избирательных кампаниях — не футуристический сценарий, а повседневная практика. Показательный пример — 2024 год с выборами по всему миру, во время который политической коммуникацией стал заниматься ИИ.
В США кандидат в Конгресс опубликовал видео в соцестях с голосом Мартина Лютера Кинга, якобы поддерживающего эту кандидатуру. Позже выяснилось, что это был ИИ голос-клон [анг]. Видео вызвало волну обсуждений. Появились ИИ-изображения певицы Тейлор Свифт [анг], якобы поддерживающей Дональда Трампа. Кстати, сам Трамп охотно делился подобными материалами, усиливая эффект. Ещё один инцидент — автоматизированные звонки избирателям, которых фальшивый Джо Байден убеждал не участвовать в праймериз. Ложное сообщение ввело в заблуждение тысячи людей [анг].
В Пакистане политик Имран Хан, сидящий в тюрьме и находящийся под запретом участвовать в выборах, продолжал выступать перед избирателями: его команда использовала архивные видео и синтезированный голос [анг], создавая иллюзию живого участия. Ролики сопровождались пометкой «authorized AI voice», однако остаётся неясным, контролировал ли сам политик содержание этих выступлений. На выборах 2024 года в Индонезии повсеместно использовались цифровые аватары для привлечения молодёжи. Так, кандидат Прабово Субианто выступал, прикрываясь милым аватаром [анг] в соцсетях, включая TikTok. Это позволило полностью изменить публичный образ и выиграть на президентских выборах: люди забыли про былые обвинения политика в серьёзных нарушениях прав человека.
И это лишь несколько примеров того, как ИИ трансформирует политическую атмосферу по всему миру. Использует ли ваш местный политик ИИ в своей кампании?
Заглянуть за ширму
То, что контент, созданный генеративным ИИ, выглядит и звучит убедительно, ещё не делает его подлинным. Если вы сталкиваетесь в ленте с чем-то шокирующим, странным или выбивающимся из привычной картины, есть высокая вероятность, что перед вами результат работы ИИ — либо полностью сгенерированный материал, либо до неузнаваемости изменённый, пусть даже вы на первый взгляд не можете отличить правду от вымысла.
Быстрее прочего распространяется контент [анг, pdf, 909 КБ], вызывающий сильные эмоции: страх, отвращение, восторг, гнев или тревогу. Эмоционально заряженный контент — наилучший способ сделать материал вирусным и распространить дезинформацию. Отслеживайте свои реакции, и пусть сильные эмоции станут для вас подсказкой, что предлагаемую информацию надо проверить. Например, вы видите ролик, в котором политик делает или говорит нечто тревожное и скандальное. Стоит потратить время на дополнительную проверку: правда ли перед вами или этот материал — сгенерированный ИИ фальсификат.
Можно ориентироваться на проверенные международные структуры, например, «Международную фактчекинговую сеть» (International Fact-Checking Network [анг] ), чтобы узнать, какие источники уделяют особое внимание проверке публикуемой информации. На странице Signatories [анг] по странам приводятся источники, которые входят в этот список.






