web analytics

Опасность эскалации искусственного интеллекта, которую Трампу и Си Цзиньпину необходимо устранить

Stratcom/Стратегические коммуникации

Президент Дональд Трамп встретится с председателем Си Цзиньпином в Пекине 14-15 мая , и в повестку дня войдут дискуссии по искусственному интеллекту. ИИ может стать областью взаимного сотрудничества между Соединенными Штатами и Китаем, но существует фундаментальная проблема, которую необходимо решить в первую очередь. Китайские базовые модели, особенно DeepSeek , демонстрируют тревожные тенденции к эскалации в контексте национальной безопасности. В результате, когда встретятся два самых влиятельных человека в мире, им следует обсудить необходимость общих критериев для содействия управлению кризисами в XXI веке.

От военных до министерств иностранных дел , модели искусственного интеллекта все чаще используются в государственном управлении. Коммунистическая партия Китая рассматривает ИИ как ключевой элемент своего видения будущего. Однако многие из этих моделей представляют собой универсальные системы, обученные на больших объемах несекретных и зашумленных данных. В кризисных ситуациях они могут выдавать рекомендации, которые кажутся уверенными, но несут в себе опасные стратегические предубеждения.

Недавнее исследование CSIS, проведенное совместно со Scale AI, показывает, почему это важно. В исследовании Critical Foreign Policy Decisions Benchmark , сравнивающем традиционные тенденции эскалации, характерные для моделей ИИ, на основе 66 473 точек данных , исследователи обнаружили, что несколько моделей демонстрируют тревожные закономерности во внешнеполитических кризисах. Исследование было разработано для проверки того, как модели реагируют на реалистичные политические решения, включающие эскалацию, вмешательство, сотрудничество и управление кризисами. Его результаты показывают, что системы ИИ не следует рассматривать как нейтральные инструменты, когда их просят консультировать политиков по вопросам войны и мира, без тестирования и доработки.

Наиболее тревожная тенденция связана с эскалацией. Китайская модель Qwen2 выбирала вариант эскалации почти в 45% случаев. Некоторые американские модели показали незначительные отличия. Llama 3.1 и Gemini 1.5 Pro также были примерно так же склонны к эскалации , как и Qwen2, за ними следует DeepSeek , еще одна китайская модель. В том же исследовании было обнаружено, что ответы моделей различаются в зависимости от страны : некоторые системы чаще рекомендовали эскалацию для западных государств, таких как США, Франция и Великобритания, чем для России или Китая. Эта тенденция вызывает беспокойство, поскольку, когда эти модели используются в консультативных рабочих процессах, они могут формировать выбор и определять диапазон приемлемых политических мер реагирования.

В последующем исследовании, представленном исследовательской группой на NeurIPS , ведущей конференции по искусственному интеллекту и машинному обучению, изучалась эта динамика в контексте принятия решений, связанных с применением ядерного оружия. В исследовании сравнивались семь различных американских и китайских моделей, и DeepSeek выделялся среди них. В кризисных сценариях модель рекомендовала применение ядерного оружия более чем в 10% случаев. В отсутствие фактического применения ядерного оружия моделям также предоставлялась возможность угрожать применением ядерного оружия. Две модели, которые чаще всего выбирали вариант ядерной угрозы (около 20% случаев), — это DeepSeek и Qwen, обе китайские модели. Эти результаты показывают, что проблема не ограничивается обычной эскалацией. Она также распространяется на самую опасную категорию принятия решений в современной военной сфере.

В последующем исследовании также оценивалась предвзятость в отношении распространения ядерного оружия. Результаты снова вызывают тревогу и выявляют серьезные недостатки в некоторых ведущих китайских моделях. DeepSeek и Qwen были двумя моделями, которые рекомендовали государствам стремиться к обладанию ядерным оружием чаще, чем другие (например, ChatGPT и Gemini), и разница была статистически значимой. Этот вывод важен, поскольку давление в сфере контроля над вооружениями ослабевает по мере истечения срока действия или утраты ключевых договоров . Поэтому рекомендации моделей, подталкивающие государства к обладанию ядерным оружием, вызывают беспокойство не только у чиновников, но и у рядовых граждан. Общедоступные инструменты искусственного интеллекта могут влиять на то, как люди понимают ядерные риски, что, в свою очередь, может породить общественное давление в пользу распространения в некоторых политических условиях.

Бенчмаркинг ИИ — это стандартная практика оценки моделей ИИ на соответствующих задачах и в различных формах выполнения. Интеграция ИИ в процесс принятия военных решений требует надежной системы тестирования и оценки, в рамках которой модели постоянно оцениваются. Однако бенчмаркинг в оборонной сфере остается недостаточным . Такие инициативы, как Defense Benchmarking Suite, пытаются восполнить этот пробел, но более широкая проблема остается. Большинство бенчмарков были разработаны для оценки эффективности в коммерческих или академических целях, а не для обеспечения стабильности в кризисных ситуациях, управления эскалацией или поддержки принятия решений в ядерной сфере.

Лидеры Китая и США ранее встречались на саммите в Калифорнии в ноябре 2023 года, посвященном искусственному интеллекту, где бывший президент Джо Байден и президент Си Цзиньпин положили начало официальному диалогу между США и Китаем по вопросам ИИ. Затем, в 2024 году, обе страны объявили, что люди сохранят за собой право принимать решения о запуске ядерного оружия. Однако результаты сравнительных исследований показывают, что с обеих сторон необходимо дальнейшее сотрудничество. Ядерные тенденции — это лишь верхушка айсберга. Недавние модели, такие как Mythos , показывают, что при выпуске моделей ИИ необходима подотчетность как со стороны частного сектора, так и со стороны правительства. Перед интеграцией моделей в важные рабочие процессы необходимо проводить сравнительный анализ их последствий для национальной безопасности.

Это должно стать центральным пунктом повестки дня в американо-китайской дипломатии в области ИИ . Вашингтону и Пекину не нужно делиться весовыми коэффициентами моделей, исходным кодом, секретными данными или конфиденциальными военными рабочими процессами. Они могут начать с более узкого соглашения. Любая система ИИ, используемая для поддержки принятия решений в ядерной, военной сфере или управлении кризисами, должна пройти специализированное тестирование перед развертыванием . Эти тесты должны проверять предвзятость в отношении эскалации, предвзятость в отношении специфики страны, галлюцинации в условиях неопределенности, восприимчивость к враждебным воздействиям и способность модели сохранять свободу воли человека.

Правительствам обеих стран также следует создать постоянный канал для реагирования на инциденты, связанные с ИИ, в контексте национальной безопасности. Соединенные Штаты и Китай уже понимают ценность кризисной коммуникации в военных делах. ИИ добавляет новый класс рисков. Модель может дать ложную оценку намерений противника. Инструмент поддержки принятия решений может рекомендовать принудительный вариант с необоснованной уверенностью. Автономный кибер-инструмент может быть использован третьей стороной в своих целях. В экстремальных ситуациях у руководителей должен быть способ уточнить, отражает ли очевидный сигнал официальную политику, ошибку машины или злонамеренное манипулирование.

Искусственный интеллект прочно вошел в стратегическое и государственное управление. Поиск ответственных способов его интеграции должен стать приоритетом внешней политики для обеих сверхдержав.

Бенджамин Йенсен — директор Лаборатории перспективных исследований и старший научный сотрудник Департамента обороны и безопасности в Центре стратегических и международных исследований (CSIS) в Вашингтоне, округ Колумбия. Ясир Аталан — заместитель директора Лаборатории перспективных исследований CSIS и научный сотрудник Департамента обороны и безопасности.

Источник:
https://www.csis.org/analysis/ai-escalation-danger-trump-and-xi-must-address

Rate article
( No ratings yet )

Leave a Reply