В ходе эксперимента, проведенного во время выборов в нижнюю палату парламента Японии в феврале 2026 года, политические взгляды доминировали в рекомендациях по голосованию, предлагаемых чат-ботами на основе искусственного интеллекта, и леволиберальные позиции побудили пять моделей ИИ рекомендовать Коммунистическую партию Японии. Результаты обусловлены доступностью моделей к определенным источникам и имеют важное значение для демократических систем, поскольку они сталкиваются с будущими выборами в эпоху искусственного интеллекта.
Ноа Ронкин
Поскольку люди все чаще обращаются к крупным языковым моделям для решения политических задач, включая предоставление рекомендаций по голосованию, политическая нейтральность чат-ботов на основе ИИ стала серьезной проблемой в сфере государственной политики. Американские чат-боты на основе ИИ используются по всему миру, однако мало что известно об их поведении как инструментов принятия политических решений и потенциальной политической предвзятости за пределами США.
Чтобы устранить этот пробел, исследователи провели эксперимент в последнюю неделю всеобщих выборов в Японии 8 февраля 2026 года. Эксперимент выявил поразительную закономерность: на вопрос о том, какую партию поддержать на выборах, пять основных моделей искусственного интеллекта из трех компаний в подавляющем большинстве случаев направляли профили избирателей с левыми политическими позициями к Коммунистической партии Японии (КПК). Причина, по мнению исследователей, связана с информационной средой, к которой имеют доступ системы искусственного интеллекта.
Эти выводы, опубликованные в рабочем документе под названием « Почему модели ИИ советуют левым избирателям поддерживать Коммунистическую партию?» , «предполагают, что рекомендации ИИ по голосованию могут формироваться в той же степени средой поиска информации, что и обучением модели, что имеет последствия для рамок управления, основанных на предположениях, ориентированных на США», — пишут исследователи Эндрю Холл , профессор политической экономии имени семьи Дэвис в Стэнфордской высшей школе бизнеса и старший научный сотрудник Института Гувера, и Шо Миядзаки , приглашенный исследователь в Институте политической экономии Васэда, будущий аспирант в области государственной политики в Гарвардском университете и бывший научный сотрудник Стэнфордского университета. Миядзаки также является ключевым членом проекта Stanford Japan Barometer , реализуемого в рамках Японской программы в Азиатско-Тихоокеанском исследовательском центре Шоренштейна при Стэнфордском университете.
Как модели искусственного интеллекта дают политические советы в Японии: систематический эксперимент.
Чтобы понять, как модели ИИ предоставляют политические рекомендации в японском контексте, Холл и Миядзаки создали 36 300 синтетических профилей избирателей с различным полом, регионом проживания и заявленными политическими взглядами по 12 вопросам политики, охватывающим безопасность (конституционные поправки, расходы на оборону, закон о шпионаже), дипломатию и иммиграцию (отношения с Китаем, иностранные рабочие, постоянное место жительства), энергетику (ядерная энергетика), экономику (налог на потребление, социальное страхование) и социальные сферы (двойные фамилии, ограничения на корпоративные пожертвования, сокращение мест в парламенте).
Затем они запросили информацию у пяти моделей из трех компаний, занимающихся искусственным интеллектом (OpenAI, Google и xAI), во время выборов в нижнюю палату парламента Японии 8 февраля 2026 года, попросив каждую модель порекомендовать политическую партию на основе профилей избирателей. Запросы ко всем пяти моделям выполнялись с включенным веб-поиском, и они имели доступ к актуальной информации.
Исследователи обнаружили, что политические позиции в подавляющем большинстве случаев определяли рекомендации партий, представленные в моделях, вызывая колебания в выборе партии от 50 до 98 процентных пунктов, по сравнению с колебаниями всего от 0,5 до 7 процентных пунктов для демографических факторов. Таким образом, демографические эффекты на порядок меньше, чем политические.
Кроме того, леволиберальные политические взгляды в профилях избирателей привели к тому, что все пять моделей искусственного интеллекта в подавляющем большинстве случаев рекомендовали Коммунистическую партию Японии, даже несмотря на то, что другие партии занимают в целом схожие позиции по тестируемым вопросам. Таким образом, концентрация на рекомендации КПЯ при леволиберальных политических взглядах не объясняется идеологическими различиями.
В контрольных условиях без учета политических факторов модели не показали единообразной левой направленности: три из пяти моделей рекомендовали Либерально-демократическую партию с высокой частотой, а доля JCP была низкой для четырех из пяти моделей.
«Главный вывод заключается в том, что количество рекомендаций JCP резко возрастает, когда предоставляются политические позиции, что является типичным сценарием, когда избиратели используют эти инструменты на практике», — пишут Холл и Миядзаки.
Асимметрия информационной среды
Почему именно JCP? Исследователи проследили закономерность до источников, на которые ссылаются модели искусственного интеллекта при выработке рекомендаций.
JCP управляет газетой Akahata, которая позиционирует себя как ежедневная газета, публикуемая на полностью открытом веб-сайте, к которому инструменты веб-поиска с использованием ИИ могут свободно получать доступ. В отличие от этого, крупные японские новостные агентства ввели технические барьеры (известные как ограничения robots.txt), которые блокируют доступ к их контенту для поисковых роботов с использованием ИИ, что обусловлено опасениями по поводу авторских прав.
Исследователи обнаружили, что открытый веб-сайт и партийная газета Коммунистической партии Японии (КПЯ) были одними из наиболее цитируемых источников в рекомендациях моделей искусственного интеллекта. Неспособные различать редакционно независимую журналистику и партийный контент, модели рассматривали контент КПЯ как заслуживающий доверия источник новостей. Таким образом, информационная среда, доступная ИИ, систематически смещена в сторону партийных источников КПЯ, которые предназначены для убеждения, а не для анализа и информирования.
«Модель, которая извлекает информацию с сайта jcp.or.jp/akahata и одновременно классифицирует этот сайт как новостной ресурс, не просто допускает ошибку в маркировке: она работает в информационной среде, где граница между партийной коммуникацией и журналистикой действительно размыта, и где последствия этого размывания напрямую влияют на ее рекомендации», — пишут Холл и Миядзаки.
Исследователи также обнаружили, что включение в поисковую систему X-поиска усилило рекомендации левоориентированного толка в Японии, что противоречит ожиданиям, основанным на дискурсивной среде США.
Последствия для демократических систем в эпоху искусственного интеллекта
Результаты исследования имеют важные последствия:
- В рамках управления ИИ следует рассматривать политику доступа к контенту и политическую нейтральность ИИ как тесно взаимосвязанные области.
- Избирательные комиссии должны создавать беспристрастные платформы, которые будут собирать структурированные данные о позициях партий, чтобы информация была сопоставимой, независимой от партийной принадлежности и машиночитаемой.
- Новостным организациям следует понимать, что, вводя ограничения на доступ к контенту, продиктованные авторскими правами, они могут непреднамеренно уступить влияние на информацию, создаваемую с помощью ИИ, в пользу партийных деятелей. Им, возможно, стоит рассмотреть формы согласованного доступа.
- Политические деятели , вероятно, начнут оптимизировать свою коммуникацию с учетом возможностей ИИ.
- Пользователям следует проявлять осторожность при использовании ИИ в качестве советника при голосовании и помнить о его потенциальных предвзятостях и «слепых зонах».
«Если системы искусственного интеллекта собираются выступать в качестве политических посредников в более широком смысле, необходимо решить две проблемы», — пишет Холл в статье об этом исследовании, опубликованной на его платформе Substack . «Первая — информационная: обеспечение того, чтобы то, что читают модели, отражало тот же баланс анализа и обсуждения, с которым избиратели сталкиваются в здоровой медиа-экосистеме. Вторая — консультативная: решение о том, как система ИИ должна вообще переводить ценности избирателя в политические рекомендации».







