Взрывной рост генеративного искусственного интеллекта уже трансформирует журналистику, финансы и медицину, но он также может оказать разрушительное влияние на политику. Например, если вы спросите чат-бота, как разобраться в сложной бюрократической системе или помочь составить письмо избранному должностному лицу, это может повысить гражданскую активность. Однако та же самая технология – с ее способностью производить дезинформацию и дезинформацию в больших масштабах – угрожает помешать демократическому представительству, подорвать демократическую подотчетность и подорвать социальное и политическое доверие. В этом эссе анализируются масштабы угроз в каждой из этих сфер и обсуждаются потенциальные препятствия для таких злоупотреблений, включая нейронные сети, используемые для идентификации сгенерированного контента, саморегулирование с помощью платформ генеративного искусственного интеллекта и повышение цифровой грамотности со стороны,как общественности, так и элиты.
Всего через месяц после своего появления ChatGPT, чат-бот с генеративным искусственным интеллектом (ИИ), привлек 100 миллионов ежемесячных пользователей, что сделало его самым быстрорастущим приложением в истории. Для сравнения: сервису потокового видео Netflix, имя которого теперь стало нарицательным, потребовалось три с половиной года, чтобы охватить миллион пользователей в месяц. Но в отличие от Netflix, стремительный рост ChatGPT и его потенциал к добру или злу вызвали серьезные споры. Смогут ли студенты использовать или, скорее, злоупотреблять этим инструментом для исследований или написания статей? Остановит ли это журналистов и программистов? Будет ли это «похищать демократию», как выразилась одна статья в «Нью-Йорк Таймс» , позволяя массовым, фальшивым вкладам, возможно, влиять на демократическое представительство? 1 И самое главное (и апокалиптическое): могут ли достижения в области искусственного интеллекта действительно представлять экзистенциальную угрозу человечеству? 2
Новые технологии вызывают новые вопросы и проблемы разного масштаба и срочности. Например, опасение, что генеративный ИИ — искусственный интеллект, способный создавать новый контент — представляет экзистенциальную угрозу, не является ни правдоподобным, ни неизбежным, и не обязательно правдоподобным. Сценарий Ника Бострома со скрепками, в котором машина, запрограммированная на оптимизацию скрепок, устраняет все, что стоит на пути к достижению этой цели, еще не близок к воплощению в жизнь. 3 Используют ли дети или студенты университетов инструменты искусственного интеллекта в качестве ярлыков, это ценный педагогический спор, но он должен разрешиться сам по себе, когда приложения станут более плавно интегрироваться в поисковые системы. Последствия генеративного ИИ для занятости в конечном итоге будет трудно оценить, поскольку экономика сложна, что затрудняет выделение чистого эффекта сокращения рабочих мест, вызванного ИИ, от прибылей отрасли. Однако потенциальные последствия для демократии являются немедленными и серьезными. Генеративный ИИ угрожает трем центральным столпам демократического управления: представительству, подотчетности и, в конечном счете, самой важной валюте политической системы — доверию.
Самый проблематичный аспект генеративного ИИ заключается в том, что он прячется на виду, производя огромные объемы контента, который может наводнить медиа-пространство, Интернет и политическую коммуникацию в лучшем случае бессмысленной чушью, а в худшем — дезинформацией. Для правительственных чиновников это подрывает усилия по пониманию настроений избирателей, ставя под угрозу качество демократического представительства. Для избирателей это угрожает попыткам контролировать действия избранных должностных лиц и результаты их действий, подрывая демократическую подотчетность. Разумной когнитивно-профилактической мерой в такой медиа-среде было бы ни во что не верить, нигилизм, который противоречит живой демократии и разъедает социальное доверие. По мере того как объективная реальность еще дальше отходит от дискурса СМИ, те избиратели, которые не отключаются вообще, вероятно, начнут еще больше полагаться на другие эвристики, такие как партийность, что только еще больше усугубит поляризацию и усилит давление на демократические институты.
Угрозы демократическому представительству
Демократия, как писал Роберт Даль в 1972 году, требует «постоянного реагирования правительства на предпочтения своих граждан». 4 Однако для того, чтобы выборные должностные лица могли чутко реагировать на предпочтения своих избирателей, они должны сначала уметь различать эти предпочтения. Опросы общественного мнения, которые (по крайней мере, на данный момент) в основном невосприимчивы к манипуляциям со стороны контента, генерируемого ИИ, предоставляют выборным должностным лицам одно окно в предпочтения своих избирателей. Но большинству граждан не хватает даже базовых политических знаний, а уровень знаний по конкретной политике, вероятно, еще ниже. 5 Таким образом, у законодателей есть сильные стимулы максимально реагировать на интересы избирателей, имеющих твердые взгляды по конкретному вопросу политики, а также тех, для кого этот вопрос очень важен. Письменная переписка уже давно играет центральную роль в том, как избранные должностные лица держат руку на пульсе своих округов, особенно для того, чтобы оценить предпочтения тех, кто наиболее активно мобилизован по тому или иному вопросу. 6
Однако в эпоху генеративного ИИ сигналы, посылаемые электронными коммуникациями о насущных политических вопросах, могут вводить в заблуждение. Технологические достижения теперь позволяют злоумышленникам генерировать ложные «избирательные настроения» в больших масштабах, легко создавая уникальные сообщения, занимая позиции по любой стороне множества проблем. Даже несмотря на старые технологии, законодатели с трудом могли отличить рукописные сообщения от машинных.
В ходе полевого эксперимента, проведенного в 2020 году в США, мы составили пропагандистские письма по шести различным вопросам, а затем использовали эти письма для обучения современной генеративной модели ИИ, GPT-3, для написания сотен писем. левые и правые пропагандистские письма. Мы отправили рандомизированные письма, написанные искусственным интеллектом и людьми, 7200 законодателям штатов, всего около 35 000 электронных писем. Затем мы сравнили показатели ответов на переписку, написанную человеком и сгенерированную искусственным интеллектом, чтобы оценить, в какой степени законодатели смогли распознать (и, следовательно, не ответить на) машинописные обращения. По трем вопросам частота ответов на сообщения, написанные искусственным интеллектом и людьми, была статистически неразличима. По трем другим вопросам процент ответов на электронные письма, созданные ИИ, был ниже, но в среднем лишь на 2 процента. 7 Это говорит о том, что злоумышленник, способный легко генерировать тысячи уникальных сообщений, потенциально может исказить представление законодателей о том, какие проблемы являются наиболее важными для их избирателей, а также о том, как избиратели относятся к той или иной конкретной проблеме.
Точно так же генеративный ИИ может нанести двойной удар по качеству демократического представительства, сделав устаревшим процесс общественного обсуждения, посредством которого граждане могут стремиться влиять на действия регулирующего государства. Законодатели обязательно пишут законы широкими мазками, предоставляя административным органам значительную свободу действий не только для решения технических вопросов, требующих существенной экспертизы (например, определение допустимых уровней загрязняющих веществ в воздухе и воде), но и для вынесения более широких суждений о ценностях (например, приемлемые уровни загрязняющих веществ в воздухе и воде). компромиссы между защитой общественного здравоохранения и отсутствием неоправданного ограничения экономического роста). 8 Более того, в эпоху интенсивной партийной поляризации и частых законодательных тупиков в отношении насущных политических приоритетов президенты США все чаще стремятся продвигать свои политические программы посредством административного нормотворчества.
Перенос центра власти по выработке политики от избранных представителей к неизбираемым бюрократам вызывает опасения по поводу дефицита демократии. Верховный суд США выразил такую обеспокоенность в деле Западная Вирджиния против EPA (2022 г.), сформулировав и систематизировав доктрину основных вопросов, согласно которой агентства не имеют полномочий вносить серьезные изменения в политику без четкого законодательного разрешения Конгресса. Суд может пойти еще дальше в находящемся на рассмотрении деле Лопер Брайт Энтерпрайзис против Раймондо и отменить доктрину Chevron , которая на протяжении почти трех десятилетий давала агентствам широкую свободу в интерпретации двусмысленных статутов Конгресса, тем самым еще больше ужесточая ограничения на изменение политики через процесс регулирования. .
Однако не все согласны с тем, что процесс регулирования является недемократичным. Некоторые ученые утверждают, что гарантированные возможности для участия общественности и прозрачности в период публичного уведомления и комментариев являются «освежающе демократичными» 9 и превозносят этот процесс как «демократически подотчетный, особенно в том смысле, что принятие решений осуществляется открыто и на равной основе». доступ обеспечен всем». 10 Более того, появление в 2002 году программы правительства США по электронному нормотворчеству (электронное нормотворчество) обещало «расширить участие общественности». . . чтобы способствовать принятию более эффективных регуляторных решений» путем снижения барьера для участия граждан. 11 Конечно, общественные комментарии всегда были склонны, часто в значительной степени, к интересам, которые больше всего были поставлены на карту в результате принятия предлагаемого правила, и, несмотря на снижение барьеров для взаимодействия, электронное нормотворчество не изменило эту фундаментальную реальность. 12
Несмотря на свои недостатки, прямое и открытое участие общественности в процессе нормотворчества помогло укрепить демократическую легитимность изменения политики посредством бюрократических действий. Но способность злоумышленников использовать генеративный искусственный интеллект для наполнения платформ электронного нормотворчества безграничными уникальными комментариями, продвигающими определенную повестку дня, может сделать практически невозможным для агентств узнать об подлинных общественных предпочтениях. Первый (и безуспешный) тестовый пример возник в 2017 году, когда боты наводнили Федеральную комиссию по связи более чем восемью миллионами комментариев, призывающих к отмене сетевого нейтралитета, в период открытых комментариев по предлагаемым изменениям в правилах. 13 Однако этот «астротурфинг» был обнаружен, поскольку более 90 процентов этих комментариев не были уникальными, что указывает на скоординированные усилия по введению в заблуждение, а не на искреннюю поддержку отмены на низовом уровне. Современные достижения в области технологий искусственного интеллекта могут легко преодолеть это ограничение, в результате чего агентствам будет чрезвычайно сложно определить, какие комментарии действительно отражают предпочтения заинтересованных сторон.
Угрозы демократической подотчетности
Здоровая демократия также требует, чтобы граждане имели возможность привлекать правительственных чиновников к ответственности за свои действия, в первую очередь посредством свободных и справедливых выборов. Однако для того, чтобы подотчетность избирательных урн была эффективной, избиратели должны иметь доступ к информации о действиях, предпринятых от их имени их представителями. 14 Обеспокоенность тем, что партийная предвзятость в средствах массовой информации, на которые избиратели уже давно полагаются в получении политической информации, может повлиять на результаты выборов, существует уже давно, но генеративный ИИ представляет гораздо большую угрозу честности выборов.
Как широко известно, иностранные игроки использовали ряд новых технологий в скоординированных усилиях, чтобы повлиять на президентские выборы в США в 2016 году. В отчете сенатского комитета по разведке за 2018 год говорилось:
Выдавая себя за американцев, эти (российские) оперативники использовали таргетированную рекламу, намеренно фальсифицированные новостные статьи, самостоятельно создаваемый контент и инструменты социальных сетей, чтобы взаимодействовать и пытаться обмануть десятки миллионов пользователей социальных сетей в Соединенных Штатах. Эта кампания была направлена на поляризацию американцев на основе социальных, идеологических и расовых различий, спровоцировала события реального мира и была частью тайной поддержки иностранным правительством любимого кандидата России на президентских выборах в США. 15
Несмотря на беспрецедентные масштабы и масштабы, некоторые недостатки кампании влияния, возможно, ограничили ее воздействие. 16 Посты российских оперативников в социальных сетях содержали едва заметные, но заметные грамматические ошибки, которые не допустил бы носитель языка, например, неуместная или отсутствующая статья — явные признаки того, что сообщения были фейковыми. Однако ChatGPT делает каждого пользователя эквивалентом носителя языка. Эту технологию уже используют для создания целых спам-сайтов и наводнения сайтов фейковыми отзывами. Технический веб-сайт The Verge сообщил о поиске работы «редактора искусственного интеллекта», который мог бы генерировать «от 200 до 250 статей в неделю», явно подразумевая, что работа будет выполняться с помощью генеративных инструментов искусственного интеллекта, которые могут производить массовое количество контента на свободном английском языке. нажатие кнопки «регенерировать» редактора. 17 Потенциальных политических применений множество. Недавние исследования показывают, что пропаганда, созданная искусственным интеллектом, столь же правдоподобна, как и пропаганда, написанная людьми. 18 Это, в сочетании с новыми возможностями микротаргетинга, может произвести революцию в кампаниях по дезинформации, сделав их гораздо более эффективными, чем попытки повлиять на выборы 2016 года. 19 Постоянный поток целенаправленной дезинформации может исказить восприятие избирателями действий и деятельности выборных должностных лиц до такой степени, что выборы перестанут обеспечивать подлинный механизм подотчетности, поскольку сама по себе предпосылка того, за что люди голосуют, фактически сомнительна. 20
Угрозы демократическому доверию
Достижения в области генеративного искусственного интеллекта могут позволить злоумышленникам создавать дезинформацию, в том числе контент, микротаргетированный для обращения к определенной демографической группе и даже отдельным людям в больших масштабах. Распространение платформ социальных сетей позволяет легко распространять дезинформацию, включая ее эффективную передачу конкретным группам населения. Исследования показывают, что, хотя читатели всех политических взглядов не могут отличить диапазон контента, созданного человеком, от контента, созданного искусственным интеллектом (считая все это правдоподобным), дезинформация не обязательно изменит мнение читателей. 21 Политическое убеждение затруднено, особенно в поляризованном политическом ландшафте. 22 Индивидуальные взгляды, как правило, довольно укоренились, и мало что может изменить прежние настроения людей.
Риск заключается в том, что по мере распространения недостоверного контента — текста, изображений и видео — в Интернете люди могут просто не знать, чему верить, и поэтому не будут доверять всей информационной экосистеме. Доверие к средствам массовой информации уже низкое, а распространение инструментов, которые могут генерировать недостоверный контент, еще больше подорвет это доверие. Это, в свою очередь, может еще больше подорвать опасно низкий уровень доверия к правительству. Социальное доверие является важным клеем, скрепляющим демократические общества. Оно стимулирует гражданскую активность и политическое участие, укрепляет доверие к политическим институтам и способствует уважению к демократическим ценностям, что является важным оплотом против отката демократии и авторитаризма. 23
Доверие действует в нескольких направлениях. Для политических элит реагирование требует веры в то, что получаемые ими сообщения законно отражают предпочтения избирателей, а не является скоординированной кампанией по искажению общественного мнения ради продвижения определенной точки зрения. Случаи «астротурфинга» не являются чем-то новым в политике: примеры в США относятся, по крайней мере, к 1950-м годам. 24 Однако достижения в области искусственного интеллекта грозят сделать такие усилия повсеместными и их труднее обнаружить.
Для граждан доверие может мотивировать политическое участие и участие, а также поощрять сопротивление угрозам демократическим институтам и практикам. Резкое падение доверия американцев к правительству за последние полвека является одним из наиболее документированных событий в политике США. 25 Хотя многие факторы способствовали этому разрушению, доверие к средствам массовой информации и доверие к правительству тесно связаны между собой. 26 Бомбардировка граждан контентом сомнительной достоверности, созданным искусственным интеллектом, может серьезно подорвать доверие к средствам массовой информации, что будет иметь серьезные последствия для доверия к правительству.
Смягчение угроз
Хотя понимание мотивов и технологии является важным первым шагом в постановке проблемы, очевидным следующим шагом является формулирование профилактических мер. Одной из таких мер является обучение и развертывание тех же моделей машинного обучения, которые генерируют ИИ, для обнаружения контента, созданного ИИ. Нейронные сети, используемые в искусственном интеллекте для создания текста, также «знают» типы языка, слов и структур предложений, которые создают этот контент, и поэтому могут использоваться для распознавания закономерностей и отличительных черт текста, сгенерированного ИИ, по сравнению с текстом, написанным человеком. Инструменты обнаружения искусственного интеллекта быстро распространяются, и их необходимо будет адаптировать по мере адаптации технологии, но модель в стиле «Turnitin» — подобная той, которую учителя используют для обнаружения плагиата в классе — может обеспечить частичное решение. Эти инструменты по существу используют алгоритмы для выявления шаблонов в тексте, которые являются отличительными чертами текста, сгенерированного ИИ, хотя инструменты по-прежнему будут различаться по своей точности и надежности.
Еще более фундаментально то, что платформы, ответственные за создание этих языковых моделей, все больше осознают то, на что платформам социальных сетей потребовалось много лет, — что они несут ответственность с точки зрения того, какой контент они производят, как этот контент оформляется и даже какой тип контента запрещен. Если вы спросите ChatGPT о том, как генеративный ИИ может быть использован против ядерного командования и контроля, модель ответит: «Извините, я не могу с этим помочь». OpenAI, создатель ChatGPT, также работает с внешними исследователями над демократизацией ценностей, закодированных в их алгоритмах, в том числе над тем, какие темы должны быть закрыты для результатов поиска и как формулировать политические позиции выборных должностных лиц. Действительно, поскольку генеративный ИИ становится все более повсеместным, эти платформы несут ответственность не только за создание технологии, но и за то, чтобы делать это с набором ценностей, которые являются этически и политически обоснованными. Вопрос о том, кто решает, что является этическим, особенно в поляризованных и сильно партийных обществах, не нов. Платформы социальных сетей уже много лет находятся в центре этих дебатов, а теперь платформы генеративного искусственного интеллекта оказались в аналогичной ситуации. По крайней мере, избранные государственные чиновники должны продолжать тесно сотрудничать с этими частными фирмами для создания подотчетных и прозрачных алгоритмов. Решение семи крупных компаний, занимающихся генеративным ИИ, взять на себя добровольные меры защиты ИИ в координации с администрацией Байдена является шагом в правильном направлении.
Наконец, кампании по цифровой грамотности призваны сыграть свою роль в защите от неблагоприятных последствий генеративного искусственного интеллекта путем создания более информированного потребителя. Точно так же, как нейронные сети «учатся», как генеративный ИИ говорит и пишет, так и отдельные читатели могут это делать сами. После того, как в ходе нашего исследования мы опросили законодателей штатов о его целях и конструкции, некоторые заявили, что они могут распознавать электронные письма, созданные ИИ, потому что знают, как пишут их избиратели; они знакомы со стандартным жаргоном жителей Западной Вирджинии или Нью-Гэмпшира. Тот же тип проницательности возможен и для американцев, читающих контент в Интернете. Большие языковые модели, такие как ChatGPT, имеют определенный шаблонный стиль написания — возможно, они слишком хорошо изучили искусство эссе из пяти абзацев.
Когда мы задали вопрос: «Где у США ракетные шахты?» ChatGPT ответил с типичной вежливостью: «У США есть ракетные шахты, расположенные в нескольких штатах, в первую очередь в центральной и северной частях страны. В ракетных шахтах размещаются межконтинентальные баллистические ракеты (МБР) в рамках стратегии ядерного сдерживания США. Конкретные местоположения и количество ракетных шахт могут со временем меняться из-за оперативных изменений и усилий по модернизации».
В этом ответе нет ничего плохого, но он также очень предсказуем для любого, кто регулярно использовал ChatGPT. Этот пример иллюстрирует тип языка, который часто генерируют модели ИИ. Изучение их контента, независимо от темы, может помочь людям распознать признаки, указывающие на недостоверный контент.
В более общем плане некоторые методы цифровой грамотности, которые уже получили распространение, скорее всего, будут применяться в мире быстро распространяющихся текстов, видео и изображений, генерируемых искусственным интеллектом. Для каждого должно стать стандартной практикой проверять подлинность или фактическую точность цифрового контента в различных средствах массовой информации и перепроверять все, что кажется сомнительным, например, вирусное (хотя и фейковое) изображение Папы Римского в пуховом пальто Balenciaga, чтобы определить, фейк это или настоящий. Такая практика также должна помочь распознавать материалы, созданные ИИ, в политическом контексте, например, в Facebook во время избирательного цикла.
К сожалению, Интернет остается одной большой машиной по предвзятому подтверждению информации. Информация, которая кажется правдоподобной, поскольку она соответствует политическим взглядам человека, с меньшей вероятностью побудит этого человека проверить правдивость истории. В мире легко генерируемого фейкового контента многим людям, возможно, придется пройти тонкую грань между политическим нигилизмом (то есть неверием ничему и кому-либо, кроме своих единомышленников) и здоровым скептицизмом. Отказ от объективных фактов или, по крайней мере, от возможности отличить их из новостей, подорвет доверие, на котором должно основываться демократическое общество. Но мы больше не живем в мире, где «увидеть значит поверить». Людям следует применять подход «доверяй, но проверяй» к потреблению, чтению и просмотру средств массовой информации, но соблюдая дисциплину с точки зрения установления достоверности материала.
Новые технологии, такие как генеративный искусственный интеллект, готовы принести обществу огромную пользу — экономическую, медицинскую и, возможно, даже политическую. Действительно, законодатели могли бы использовать инструменты искусственного интеллекта, чтобы помочь выявить недостоверный контент, а также классифицировать характер проблем своих избирателей, и то, и другое поможет законодателям отражать волю людей в своей политике. Но искусственный интеллект также представляет политическую опасность. Однако при правильном понимании потенциальных рисков и мер по смягчению их негативных последствий мы можем сохранить и, возможно, даже укрепить демократические общества.
Астротурфинг (astroturfing) — это практика создания искусственного или поддельного общественного мнения, которое выглядит как настоящее и искреннее выражение массового мнения. Этот термин происходит от английского слова “astroturf”, что означает искусственный газон, и используется для описания “искусственной” поддержки.
Примеры астротурфинга:
- Создание фиктивных аккаунтов в социальных сетях: Компания может создать множество фиктивных аккаунтов в социальных сетях для публикации положительных отзывов о своем продукте или услуге или для критики конкурентов.
- Поддельные петиции: Организация может создать поддельную петицию, которая, казалось бы, поддерживается многими людьми, чтобы воздействовать на общественное мнение или политические решения.
- Создание фиктивных блогов или сайтов: Компания может создать блог или сайт, который выглядит как независимый источник информации, но на самом деле используется для продвижения определенной агенды или продукта.
- Использование “троллей”: Нанятые люди могут активно участвовать в онлайн-дискуссиях, выдавая себя за обычных пользователей, чтобы влиять на общественное мнение.
- Организация “народных” мероприятий: Компания или политическая группа может организовать мероприятие, которое выглядит как инициированное народом, но на самом деле финансируется и контролируется заинтересованной стороной.
Астротурфинг может быть использован в различных областях, включая политику, рекламу и PR. Главная цель — создать иллюзию настоящей общественной поддержки, когда на самом деле таковой может не быть.
ПРИМЕЧАНИЯ
1. Натан Э. Сандерс и Брюс Шнайер, «Как ChatGPT захватывает демократию», New York Times , 15 января 2023 г., www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html .
2. Кевин Руз, «ИИ представляет «риск исчезновения», предупреждают лидеры отрасли», New York Times , 30 мая 2023 г., www.nytimes.com/2023/05/30/technology/ai-threat-warning.html .
3. Алексей Турчин и Дэвид Денкенбергер, «Классификация глобальных катастрофических рисков, связанных с искусственным интеллектом», AI & Society 35 (март 2020 г.): 147–63.
4. Роберт Даль, Полиархия: участие и оппозиция (Нью-Хейвен: издательство Йельского университета, 1972), 1.
5. Майкл X. Делли Карпини и Скотт Китер, Что американцы знают о политике и почему это важно (Нью-Хейвен: издательство Йельского университета, 1996); Джеймс Куклински и др., «Только факты, мэм»: политические факты и общественное мнение», Анналы Американской академии политических и социальных наук, 560 (ноябрь 1998 г.): 143–54; Мартин Гиленс, «Политическое невежество и предпочтения коллективной политики», American Political Science Review 95 (июнь 2001 г.): 379–96.
6. Андреа Луиза Кэмпбелл, Как политика делает граждан: политический активизм старших и американское государство всеобщего благосостояния (Принстон: Princeton University Press, 2003); Пол Мартин и Мишель Клейборн, «Участие граждан и реакция Конгресса: новые доказательства важности участия», Legislative Studies Quarterly 38 (февраль 2013 г.): 59–81.
7. Сара Крепс и Дуг Л. Крайнер, «Потенциальное влияние новых технологий на демократическое представительство: данные полевого эксперимента», Новые медиа и общество (2023), https://doi.org/10.1177/14614448231160526 .
8. Елена Каган, «Администрация президента», Harvard Law Review 114 (июнь 2001 г.): 2245–2353.
9. Майкл Азимов, «О максимальном давлении на Макнолгаста: проблема издержек регулирования», « Право и современные проблемы» 57 (зима 1994 г.): 127, 129.
10. Кеннет Ф. Уоррен, Административное право в политической системе (Нью-Йорк: Routledge, 2018).
11. Комитет по статусу и будущему федерального электронного нормотворчества, Американская ассоциация адвокатов, «Достижение потенциала: будущее федерального электронного нормотворчества», 2008 г., https://scholarship.law.cornell.edu/cgi/viewcontent . cgi?article=2505&context=facpub .
12. Джейсон Уэбб Яки и Сьюзен Уэбб Яки, «Склонность к бизнесу? Оценка влияния групп интересов на бюрократию США», Journal of Politics 68 (февраль 2006 г.): 128–39; Синтия Фарина, Мэри Ньюхарт и Джозайя Хайдт, «Нормотворчество против демократии: оценка и подталкивание к участию общественности, которое имеет значение», Мичиганский журнал экологического и административного права 2, выпуск 1 (2013): 123–72.
13. Эдвард Уокер. «Миллионы фейковых комментаторов попросили Федеральную комиссию по связи положить конец сетевому нейтралитету: «астротурфинг» — это бизнес-модель», блог Washington Post Monkey Cage, 14 мая 2021 г., www.washingtonpost.com/politics/2021/05/14/millions-fake- комментаторы-спросили-FCC-конец-сетевой нейтралитет-астротурфинг-это-бизнес-модель/ .
14. Адам Пшеворкси, Сьюзен С. Стоукс и Бернард Манин, ред., Демократия, подотчетность и представительство (Нью-Йорк: издательство Кембриджского университета, 1999).
15. Отчет Специального комитета по разведке Сената США о кампаниях активных мер России и вмешательстве в выборы в США 2016 г., Отчет Сената 116–290, www.intelligence.senate.gov/publications/report-select-committee-intelligence-united -государства-сенат-российские-активные-меры .
16. О потенциально ограниченных последствиях дезинформации о выборах 2016 года в целом см. Эндрю М. Гесс, Брендан Найхан и Джейсон Райфлер, «Воздействие ненадежных веб-сайтов на выборах в США в 2016 году», Nature Human Behavior 4 (2020): 472–80 . .
17. Джеймс Винсент, «ИИ убивает старую сеть, а новая сеть борется за рождение», The Verge , 26 июня 2023 г., www.theverge.com/2023/6/26/23773914/ai-large-language- модели-очистки-данных-генерации-переделки-сети .
18. Джош Гольдштейн и др., «Может ли ИИ писать убедительную пропаганду?» рабочий документ, 8 апреля 2023 г., https://osf.io/preprints/socarxiv/fp87b .
19. Сара Крепс, «Роль технологий в онлайн-дезинформации», Брукингский институт, июнь 2020 г., www.brookings.edu/articles/the-role-of-technology-in-online-misinformation .
20. Таким образом, дезинформация, генерируемая ИИ, может значительно усилить «десенсибилизацию» — взаимосвязь между деятельностью действующего президента и убеждениями избирателей — подрывая демократическую подотчетность. См. Эндрю Т. Литтл, Кейт Э. Шнакенберг и Ян Р. Тернер, «Мотивированное рассуждение и демократическая подотчетность», American Political Science Review 116 (май 2022 г.): 751–67.
21. Сара Крепс, Р. Майлз Маккейн и Майлз Брандейдж, «Все новости, которые можно сфабриковать», Журнал экспериментальной политологии 9 (весна 2022 г.): 104–17.
22. Кэтлин Донован и др., «Мотивированные рассуждения, общественное мнение и одобрение президента». Политическое поведение 42 (декабрь 2020 г.): 1201–21.
23. Марк Уоррен, редактор, Демократия и доверие (Нью-Йорк: издательство Кембриджского университета, 1999); Роберт Патнэм, Боулинг в одиночку: крах и возрождение американского сообщества (Нью-Йорк: Саймон и Шустер, 2000); Марк Хетерингтон, «Почему доверие имеет значение: снижение политического доверия и упадок американского либерализма» (Принстон: Princeton University Press, 2005); Пиппа Норрис, редактор « Критически настроенные граждане: глобальная поддержка демократического управления» (Нью-Йорк: Oxford University Press, 1999); Стивен Левицкий и Дэниел Зиблатт, Как умирают демократии (Нью-Йорк: Crown, 2019).
24. Льюис Энтони Декстер, «Что слышат конгрессмены: почта», Public Opinion Quarterly 20 (весна 1956 г.): 16–27.
25. См., среди прочего, Pew Research Center, «Общественное доверие к правительству: 1958–2022», 6 июня 2022 г., https://www.pewresearch.org/politics/2023/09/19/public-trust-in- правительство-1958-2023/ .
26. Томас Паттерсон, Вне порядка (Нью-Йорк: Кнопф, 1993); Джозеф Н. Каппелла и Кэтлин Холл Джеймисон, «Новостные рамки, политический цинизм и цинизм СМИ», Анналы Американской академии политических и социальных наук, 546 (июль 1996 г.): 71–84.
Об авторах
Сара Крепс
Дуг Крайнер
Источник:
https://www.journalofdemocracy.org/articles/how-ai-threatens-democracy/







