Пентагон хочет, чтобы ИИ мог вести войны без ограничений. Одна из ведущих американских компаний, занимающихся разработкой ИИ, заявляет, что есть границы, которые она не переступит. И на этой неделе это противостояние переросло в полномасштабную конфронтацию.
Чтобы обсудить последствия спора между компанией Anthropic и Пентагоном, включая определение того, что компания представляет собой риск для цепочки поставок, я поговорил с двумя экспертами:
Кэт Даффи , старший научный сотрудник по вопросам цифровой политики и политики в киберпространстве в Совете по международным отношениям, и
Амос Тох , старший юрисконсульт программы «Свобода и национальная безопасность» в Центре правосудия имени Бреннана.
Джастин Хендрикс:
Чтобы понять конфликт между Anthropic и Пентагоном, необходимо понять, куда стремятся президент Дональд Трамп и министр обороны Пит Хегсет. В январе Хегсет представил стратегию Министерства обороны по ускорению развития ИИ в своей речи на базе SpaceX в Техасе, рядом с которым присутствовал Илон Маск. Он заявил, что в будущем, движимом ИИ, скорость имеет решающее значение.
Секретарь Пит Хегсет:
…Для дальнейшего развития этой области сегодня по моему указанию мы реализуем стратегию ускорения развития ИИ, которая позволит нам укрепить лидирующие позиции в военной сфере ИИ, установленные во время первого срока президента Трампа. Эта стратегия позволит проводить эксперименты, устранит бюрократические барьеры, сосредоточится на инвестициях и продемонстрирует необходимый подход к реализации, чтобы обеспечить наше лидерство в военной сфере ИИ и его дальнейшее доминирование в будущем.
Короче говоря, мы выиграем эту гонку, став боевой силой, в первую очередь использующей искусственный интеллект, во всех областях, от бэк-офиса Пентагона до тактического превосходства на передовой.
Джастин Хендрикс:
Стремление создать боевые силы, в первую очередь использующие искусственный интеллект, возникло не на пустом месте. Оно появилось в контексте более широкой акселерационистской политики администрации Трампа . И в июле прошлого года президент Трамп подписал Исполнительный указ 14319 — «Предотвращение внедрения «прогрессивного» ИИ в федеральное правительство» — предписывающий федеральным агентствам закупать только те модели ИИ, которые администрация считает свободными от идеологической предвзятости. В этом контексте, возможно, неудивительно, что видение Хегсета о боевых силах, в первую очередь использующих ИИ, сопровождалось четким посылом о том, какой ИИ Пентагон будет — и какой не будет — принимать от своих поставщиков.
Секретарь Пит Хегсет:
Сегодня я хочу прояснить, что означает ответственный подход к ИИ в Министерстве обороны. Прошли времена справедливого ИИ и других мер по обеспечению разнообразия, равенства и социальной справедливости, которые ограничивают и затрудняют использование этой технологии. С этого момента ответственный подход к ИИ в Министерстве обороны означает объективно правдивые возможности ИИ, используемые безопасно и в рамках законов, регулирующих деятельность министерства. Мы не будем использовать модели ИИ, которые не позволят вам вести войны.
Мы будем оценивать модели ИИ исключительно по этому критерию: фактическая точность, соответствие задачам, отсутствие идеологических ограничений, препятствующих законному военному применению. ИИ Министерства обороны не будет «прогрессивным». Он будет работать на нас. Мы создаём боеспособное оружие и системы, а не чат-боты для преподавательских комнат престижных университетов.
Джастин Хендрикс:
Компания Anthropic, разработавшая модель искусственного интеллекта Claude и являющаяся одним из подрядчиков Пентагона, придерживалась иного определения ответственности. Генеральный директор Дарио Амодей заявил, что его компания не может согласиться на неограниченное военное применение, проведя две четкие линии: никакого внутреннего наблюдения, никакого летального автономного оружия. Министр Хегсет поставил ему крайний срок: 17:00 прошлой пятницы. Амодей не уступил. А затем вчера произошло следующее:
Час новостей PBS:
Противостояние между компанией Anthropics, занимающейся разработкой искусственного интеллекта, и правительством США сегодня резко обострилось : президент Трамп обрушился с критикой на руководство компании и распорядился, чтобы все федеральные агентства прекратили использование продукции Anthropics. Пентагон же признал компанию угрозой национальной безопасности в сфере поставок.
NBC News:
Помните, мы сообщали вам эту сенсационную новость в программе: генеральный директор Anthropic заявил, что компания не может согласиться с условиями, выдвинутыми министром обороны Питом Хегсетом. Эти условия, по сути, требовали от Anthropic передать свои технологии для любых законных военных целей, но Anthropic проводит двойную черту: в отношении внутреннего наблюдения и летального автономного оружия. А президент назвал это высказывание «эгоизмом, который ставит под угрозу американскую ложь, войска, опасность и национальную безопасность».
Он добавил: «Нам это не нужно. Нам это не нужно, и мы больше не будем вести с ними дела».
Кэт Даффи:
Меня зовут Кэт Даффи. Я работаю в Совете по международным отношениям в качестве старшего научного сотрудника по вопросам цифровой политики и политики в киберпространстве.
Амос Тох:
Меня зовут Амос Тох. Я старший юрисконсульт программы «Свобода и национальная безопасность» в Центре правосудия имени Бреннана.
Джастин Хендрикс:
Я рад видеть вас двоих в пятницу днем.
До крайнего срока, установленного министром обороны Питом Хегсетом для завершения спора, разворачивавшегося на протяжении всей недели между компанией Anthropic и Министерством обороны, или, вернее, Министерством войны, в зависимости от того, как вы предпочитаете использовать эту терминологию, остаются считанные минуты.
И, похоже, у нас уже есть общее представление о том, куда всё движется. Президент опубликовал в социальных сетях упреждающее сообщение, и даже сейчас, когда мы разговариваем, могут появиться дополнительные новости из Пентагона, но я надеюсь, что в этом разговоре мы сможем немного отступить назад, поговорить о том, как мы сюда попали, о общей картине, о некоторых важных проблемах, и о том, какие проблемы останутся, независимо от того, как всё сложится.
Поэтому я подумал, что начну с тебя, Амос, попроси нас немного рассказать о том, как мы сюда попали.
Амос Тох:
Итак, я думаю, в январе агентство Reuters сообщило о споре между компанией Anthropic и Пентагоном по поводу того, может ли Anthropic наложить ограничения на использование своей модели искусственного интеллекта Claude. Два из спорных ограничений заключались в следующем: во-первых, Министерство обороны не могло использовать Claude для слежки за американцами, и во-вторых, оно не могло использовать Claude для развертывания автономного оружия без достаточного человеческого контроля. Причиной этого спора стало то, что Claude, как сообщается, использовался во время вторжения в Венесуэлу, а также при захвате Николаса Мадуро, что привело к серии эскалаций, которые побудили Anthropic усилить и повторить эти ограничения на использование Пентагону.
Пентагон заявил, что может использовать Клода так, как считает нужным, если это законно. Но на протяжении всего этого эпизода меня всегда волновал вопрос: действительно ли использование спорных методов законно?
Джастин Хендрикс:
Кэт, с вашей точки зрения, вы представили это как проверку на прочность глобального доверия к технологическим компаниям в Америке. Верните нас к тому моменту, с которого вы всё это наблюдаете.
Кэт Даффи:
Я думаю, дело в двух моментах. С геополитической точки зрения, это выглядит не очень хорошо. Anthropic, пожалуй, является самой заботящейся о безопасности ведущей компанией в области передового ИИ. Это один из крупнейших американских новаторов в этой сфере. Они больше, чем любая другая компания, сосредоточились на корпоративных внедрениях, таких как те, которые можно увидеть внутри правительства США, в отличие от приложений, ориентированных в первую очередь на потребителя, как это делает OpenAI. Поэтому во многих отношениях Anthropic, как можно предположить, должна быть компанией, на которую правительство США действительно должно делать ставку, если его главным приоритетом является «победа» в гонке ИИ с Китаем или, точнее, активное продвижение внедрения более безопасных и надежных систем ИИ по всему миру.
Вместо этого мы видим, как правительство США требует от частной компании сделать то, что, по его словам, противоречит условиям контракта, а затем угрожает в весьма непоследовательной форме либо тем, что это настолько важно для национальной безопасности, что они заставят компанию предоставить эту услугу в соответствии с Законом об оборонном производстве, либо, в качестве альтернативы, они объявят компанию угрозой для цепочки поставок, в этом случае компании будет запрещено участвовать в государственных контрактах в целом. Следует уточнить, что угроза для цепочки поставок связана именно с государственными контрактами. Это запретит им участвовать в государственных контрактах, а не быть технологическим звеном для государственных подрядчиков.
Здесь есть некоторое различие, которое, как мне кажется, немного затерялось в путанице вокруг этого обозначения, но это понятно, потому что исторически такое обозначение присваивалось противникам, таким как Huawei в Китае, где существует значительная угроза национальной безопасности. В общем, в режиме реального времени мы наблюдаем как непоследовательность, так и очень странную тактику и давление со стороны правительства США на одну из ведущих технологических компаний. И в то же время мы видим, как правительства по всему миру в геополитическом плане стремятся к цифровому суверенитету и пытаются отделиться от американских технологических платформ, отчасти потому, что, как мне кажется, многие правительства во всем мире все чаще рассматривают американские компании как неприемлемый риск, связанный с непостоянными капризами и непредсказуемостью нынешней администрации.
Это не красит нас. Это не идет на пользу нашей национальной безопасности. Это, безусловно, не идет на пользу нашей внешней стратегии. И что наиболее удивительно, это, похоже, никак не согласуется с тем, что администрация называла приоритетами в плане продвижения американских систем искусственного интеллекта во всем мире, поскольку это, безусловно, свидетельствует о недоверии к странам, которые могли бы сотрудничать с нами в этом начинании.
Джастин Хендрикс:
Мы вообще понимаем, что здесь происходит? Амос, ты изложил хронологию событий, начиная с Венесуэлы, но упоминаешь только то, что произошло с января. Первые намёки на это появились благодаря странным комментариям Пита Хегсета из SpaceX, сделанным рядом с Илоном Маском, о том, что он не хочет инвестировать в системы искусственного интеллекта, которые не позволят нам выигрывать войны. Мы знаем, что одним из конкурентов Anthropic в борьбе за заказы от военных, конечно же, является xAI, и Grok, по-видимому, был назначен одной из систем, способных взаимодействовать с секретной информацией.
Илон Маск пишет в Твиттере, что антропогенная ненависть ненавидит западную цивилизацию. Всё это, конечно же, происходит в контексте войны администрации против «прогрессивного ИИ». Насколько это просто политика, и насколько это действительно связано с национальной безопасностью?
Амос Тох:
Что ж, я скажу, что спорные пользователи, если верить Пентагону, на самом деле не являются теми пользователями, в отношении которых они будут предпринимать какие-либо действия для внедрения, верно? Но тогда возникает вопрос, что они имеют в виду, когда говорят, что могут свободно использовать модель Клода, если использование этой модели законно. Так, например, когда речь идет о массовом наблюдении, массовом наблюдении за американцами с использованием ИИ, это фактически подразумевает крупномасштабный сбор и анализ личных и конфиденциальных данных американцев таким образом, который, конечно, Верховный суд и Конгресс напрямую не рассматривали, но который противоречит Четвертой поправке и требуемым ею гарантиям, верно?
Что касается автономного наведения оружия, то в собственном руководстве Министерства обороны подчеркивается необходимость соблюдения законов войны при его применении. При этом неясно и даже сомнительно, действительно ли такое оружие способно различать военные цели и гражданское население и предотвращать чрезмерный вред гражданскому населению в соответствии с законами войны.
Джастин Хендрикс:
Кэт, есть ли у тебя какая-нибудь информация по этому вопросу, касающемуся исключительно политической подоплеки и участвующих в этом мужчин? Мне кажется, это в равной степени личные споры и политические разногласия.
Кэт Даффи:
Со стороны, я смотрю на это и думаю: «Как это могло так выйти из-под контроля?» Я согласен с Амосом, на самом базовом уровне, похоже, с одной стороны, есть руководитель компании, обеспокоенный тем, как используется их программное обеспечение, их инструменты, и желающий узнать об этом. А с другой стороны, министр обороны, по сути, заявляет, что ведомство может делать абсолютно все, что угодно, с услугой, которую оно приобрело по контракту, независимо от того, нарушает ли это условия контракта. Таким образом, в какой-то степени это просто обычный договорной спор, и, опять же, как отметил Амос, вопрос об автономных системах здесь не совсем уместен.
Вопрос в технологии, находятся ли технологии, находятся ли LLM в таком состоянии, когда их использование в качестве основы, средства наведения или ведения войны было бы хоть сколько-нибудь безопасным без существенного участия человеческого суждения? Однако, где именно должно проявляться и проявляться это человеческое суждение, будет меняться по мере развития технологий и изменения контекста конфликта. Так что этот вопрос был решен очень давно. Автономное оружие в той или иной форме существует уже очень давно, и в нем всегда так или иначе присутствовало человеческое суждение.
С другой стороны, вопрос массового наблюдения, на мой взгляд, очень актуален и вызывает серьезную обеспокоенность. Роль Министерства обороны или, точнее, Министерства войны в этом вопросе, мне кажется очень неясной. Существуют вполне обоснованные опасения относительно того, что является законным в настоящее время с точки зрения массового наблюдения за гражданами США и как системы искусственного интеллекта позволят масштабировать это. Кроме того, проведение подобного рода разведывательной деятельности или работы выходит за рамки традиционной компетенции Министерства войны. Поэтому, на мой взгляд, это более уместно в споре по контракту, например, с АНБ или ФБР. В споре по контракту с Министерством войны это не так логично.
Поэтому здесь возникает вопрос: что происходит с технологиями? И если технологии недостаточно совершенны, чтобы быть безопасными для использования в конфликте, то мы хотим, чтобы это было предельно ясно, мы хотим быть прозрачными в этом вопросе, и мы хотим, чтобы компании и наши военные работали как можно теснее, чтобы убедиться, что они используют лучшие из возможных технологий, делают это ответственно, безопасно и в соответствии с законом.
Джастин Хендрикс:
Амос, можем ли мы немного подробнее обсудить тему массового наблюдения?
Амос Тох:
Да, я думаю, что Дарио может беспокоиться, и это подтверждается некоторыми его работами на эту тему, о том, что военные могут осуществлять массовое наблюдение за американцами тремя способами, верно? Во-первых, когда они фактически отслеживают цели за рубежом, совершенно законные военные цели, способ сбора информации об этих целях может включать в себя крупномасштабный сбор информации, который неизбежно затрагивает личные и конфиденциальные данные американцев, верно? Таким образом, в соответствии с тем, как устроены наши коммуникационные сети сегодня, если вы общаетесь с кем-то в Великобритании, ваши решения о коммуникации не остаются в США. Они проходят через глобальные сети, и поэтому могут быть перехвачены военной разведкой, верно?
Второй способ, которым военные могут получить информацию о гражданах США, — это покупка наборов данных у брокеров данных. Вся эта информация собирается рекламодателями через подключенные к интернету устройства, данные о местоположении, финансовые записи. Брокеры данных, по сути, продают эту информацию правительству и другим покупателям, не разделяя информацию о гражданах США и негражданах. Поэтому, когда военные получают доступ к этим данным, вся эта информация оказывается перемешанной. Когда они применяют метод LLM ко всем этим наборам данных для получения разведывательной информации и других выводов, это неизбежно включает в себя определенный уровень анализа информации о гражданах США.
И, пожалуй, единственное, что я бы сказала, это то, что Кэт абсолютно права: нам следует беспокоиться об АНБ. Дело в том, что АНБ фактически является подразделением Министерства обороны, и неясно, в какой степени АНБ в такой структуре обменивается информацией с Министерством обороны и имеет доступ к системам Министерства обороны, в которые интегрированы модели Clawed и другие. Поэтому я думаю, что существуют точки соприкосновения, где использование этих моделей военными, будь то для автоматизации крупномасштабного сбора данных или, что более важно, для анализа этих данных и получения ценных выводов, может привести к тем самым опасениям по поводу слежки, на которые Дарио пытается направить ограничения на использование Claude.
Кэт Даффи:
Амос высказал превосходную мысль. И я думаю, это также объясняет общую путаницу, которая сейчас царит, потому что мы говорим об очень важном моменте в отношениях правительства США с одной из ведущих компаний в области ИИ, с одной стороны, который включает в себя множество требований, публичных запросов и интереса. И в то же время, мы говорим о договорном споре, о котором никто не видел контракта. Поэтому, как отметил Амос, неясно, насколько он всеобъемлющий и может ли Министерство обороны что-либо в него вмешиваться, или это контракт для каких-то конкретных целей. И теперь, конечно, президент Трамп также заявил, что Anthropic не будет разрешен ни для одного государственного учреждения США.
И большинство правительственных учреждений, я думаю, используют тарифный план за 1 доллар с абонентом от Claude, который компания предложила, по сути, как убыточный продукт, чтобы помочь правительству США продвинуться в плане доступа к технологиям и повышения квалификации. Мне трудно поверить, что налогоплательщики, Конгресс, федеральные служащие и все остальные ведомства, которые, возможно, пытаются научиться использовать эти инструменты, вдруг не могут этого сделать, потому что компания посчитала это «прогрессивным», опасаясь массового наблюдения за гражданами США и использования этих инструментов в нарушение контракта. Так что я не знаю, когда контракты стали «прогрессивными».
Джастин Хендрикс:
Итак, позвольте мне спросить вас о надзоре. Амос, вы писали о том, что Министерство обороны, похоже, либо прекратило, либо ослабило различные формы надзора, либо, возможно, не проводит те виды отчетности, которые оно обещало проводить в отношении ИИ в целом. Можете ли вы немного подробнее рассказать об этом? И затем я хочу спросить вас обоих о Конгрессе. Сейчас многие задаются вопросом, может ли Конгресс вмешаться в эту ситуацию. Не является ли Конгресс подходящим органом для того, чтобы провести некоторые из этих, казалось бы, неясных границ в этом нынешнем споре? Но Амос, какова сейчас ответственность Министерства обороны в отношении прозрачности, отчетности и надзора за этими вопросами?
Амос Тох:
В целом, я думаю, что в отношении ИИ мы видим не так уж много требований к отчетности и еще меньше требований к прозрачности, верно? Так вот, в ходе последнего ежегодного обсуждения расходов на оборону Конгресс фактически ввел требование к Министерству обороны о предоставлении отчетности: «Если вы хотите отказаться от каких-либо гарантий при разработке автономного оружия, вы должны сообщить нам об этом и объяснить обоснование, продолжительность и все остальное». Это минимальный уровень того, что мог бы сделать Конгресс, верно?
По сути, то, как военные используют ИИ в системах вооружения, способных поражать цель без вмешательства человека, имеет огромные внешнеполитические последствия. Это имеет огромные последствия для обязательств США в соответствии с законами войны, и это не то, что должно регулироваться Министерством обороны. И то, как Министерство обороны фактически регулирует это, и здесь, я думаю, есть некоторая путаница, заключается в том, что Министерство обороны не запретило себе разработку оружия, полностью автономного оружия, то есть оружия, способного поражать цель без вмешательства человека. Они лишь создали основу для, по сути, проверки и потенциального утверждения всех этих систем вооружения высшим военным руководством.
Поэтому я считаю, что Конгресс действительно обязан установить существенные правила, потому что, на мой взгляд, часть ответственности за надзор, помимо прозрачности и отчетности, заключается в том, что основные правила должны быть установлены Конгрессом. И то, какой уровень человеческого суждения считается приемлемым при применении силы, — это очень важный вопрос, который должен рассмотреть Конгресс.
Кэт Даффи:
Я бы добавил к этому. В какой-то момент Конгрессу придётся заняться вопросом конфиденциальности личной информации американцев, и точка. Причина, по которой проблема массового наблюдения настолько реальна, заключается в том, что у брокеров данных можно приобрести огромное количество информации, которую затем можно собрать, агрегировать и проанализировать в рамках строго законного процесса. В то же время, я не совсем понимаю, как Anthropic будет отслеживать, используется ли её программное обеспечение для массового наблюдения за гражданами США, потому что что, если, например, Anthropic обнаружит, что оно лежит в основе 90% устройств считывания номерных знаков в стране, или что оно стало предпочтительным программным обеспечением для 80% крупнейших коммерческих брокеров данных страны, или что оно станет основой для множества компаний, являющихся сторонними поставщиками видеозаписей с нательных камер, которые анализируются без разбора или даже потенциально продаются?
Таким образом, здесь присутствует аспект, который я приветствую: компания Anthropic и любая другая компания, заявляющая: «Мы не хотим получать деньги за участие в массовой слежке за гражданами США». В то же время, я надеюсь, что все эти компании действительно прилагают усилия для усиления защиты конфиденциальности данных американцев, чтобы наши данные не стали тем товаром, каким они являются сейчас и каким были так долго. И это также во многом подорвет то, как эти компании создали то, что создали, как они развивались и как они будут продолжать совершенствовать свои системы. Так что это сложный вопрос.
Джастин Хендрикс:
Поразительно, что компания, занимающаяся искусственным интеллектом, отказывается от сбора личной информации и пытается донести до общественности информацию об уязвимости, позволяющей правительству фактически покупать бесконечные массивы данных об американских гражданах, их передвижениях, веб-браузере, в то время как Дарио Амодей пишет заявление на основе общедоступных источников, не получив ордера. Создается впечатление, что проблемы, о которых вы двое говорили и писали некоторое время, в некотором смысле замыкаются в круг.
Кэт Даффи:
Я бы сказала, да, но будет ли это иметь значение? Было так много вопросов, которые, как мне кажется, замкнулись в круг, и мы по-прежнему наблюдаем полное бездействие Конгресса. Поэтому я не знаю, что должно произойти, чтобы достичь реального двухпартийного консенсуса и сотрудничества по некоторым из этих ключевых вопросов, по которым американцам необходимо, чтобы их избранные должностные лица выполняли свою работу.
Амос Тох:
Конгресс может сделать многое, не так ли? Помимо принятия давно назревшего всеобъемлющего законодательства о неприкосновенности частной жизни, об искусственном интеллекте, о слежке, верно? В ходе расследований действий США, военных действий в Венесуэле, в Иране, в открытом море, я думаю, есть достаточно возможностей задавать вопросы и оказывать давление на руководителей Министерства обороны относительно того, как они используют ИИ, для чего они его используют, какие гарантии, если таковые вообще существуют, существуют. Конгресс может оказывать давление на множество областей, которые он до сих пор не оправдал ожиданий. Поэтому я думаю, что Конгресс может делать то, что могут делать законодатели, и чего мы должны ожидать и к чему должны призывать законодателей на данном этапе, учитывая, что мы видим пределы требований… Мы видим пределы давления на компанию с целью обеспечения соблюдения по сути конституционных и правовых ограничений в отношении Министерства обороны.
Кэт Даффи:
Я заметил, что сейчас 5:19. Есть ли какие-нибудь новости?
Джастин Хендрикс:
Да. Так что я просто… пожалуй, прервусь, чтобы сказать, что, пока мы ведем этот разговор, Пит Хегсет опубликовал сообщение на X, в котором говорится: «В связи с директивой президента федеральному правительству о прекращении использования технологий Anthropic, я поручаю Министерству обороны признать Anthropic угрозой национальной безопасности в цепочке поставок». И, по сути, это тот путь, который они выбрали. Думаю, я бы попросил вас обоих ответить на это. Амос, вы изучали, что означает «угроза в цепочке поставок». Вы уже упоминали об этом.
Амос Тох:
Прежде всего, я хочу сказать, что сомнительно, что у министра действительно есть законные полномочия выносить решения о рисках в цепочке поставок такого рода, учитывая обстоятельства их спора, верно? По сути, похоже, что министр исключил компанию Anthropic из числа участников оборонных закупок в соответствии со статьей 3252 раздела 10 Кодекса США, а также Законом о безопасности цепочки поставок в рамках федеральных закупок. Но если вы посмотрите на формулировку статьи 3252 раздела 10 Кодекса США, то увидите, что определение риска в цепочке поставок — это риск, который противники, и я действительно хочу подчеркнуть, могут саботировать или иным образом подорвать систему национальной безопасности.
И мне совершенно непонятно, как ограничения на использование системы Клода могут быть использованы противниками для саботажа военных систем. На самом деле, эти ограничения могут снизить вероятность неправильной идентификации целей и случайных осечек, а также повысить безопасность и надежность этих систем, что прямо противоположно определению риска в цепочке поставок. И еще один важный момент: подобное исключение допускается только в том случае, если разумно доступны менее радикальные меры для смягчения любых рисков в цепочке поставок, которые, по мнению министра, здесь имеют место, верно?
И опять же, сомнительно, что Пентагон предпринял добросовестную попытку принять менее инвазивные меры. Он все еще может продолжить переговоры об ограничениях на использование. Он может даже расторгнуть конкретный контракт, о котором идет речь. На самом деле ему не нужно делать такой значительный шаг и объявлять Anthropic угрозой для цепочки поставок, верно? Потому что, как только что сказала Кэт, Claude все еще может безопасно использоваться и использоваться без споров, даже с этими ограничениями на использование в административных функциях Министерства обороны или в любых других государственных административных функциях. Поэтому я думаю, что хочу особо подчеркнуть, насколько беспрецедентным является подобное обозначение и насколько потенциально юридически сомнительным оно является.
Кэт Даффи:
Ну, давайте также обратим внимание на тот факт, что… Я смотрю на самую последнюю часть заявления, где говорится: «Министерству обороны поручается объявить компанию Anthropic угрозой национальной безопасности в цепочке поставок, вступающей в силу немедленно. Ни один подрядчик, поставщик или партнер, ведущий бизнес с вооруженными силами США, не может осуществлять какую-либо коммерческую деятельность с компанией Anthropic». А сразу после этого говорится: «Компания Anthropic продолжит предоставлять свои услуги Министерству обороны в течение периода не более шести месяцев». Им понадобится Anthropic для предоставления услуг Министерству обороны, но все остальные, на кого полагается Министерство обороны и кто сейчас использует Anthropic, вдруг волшебным образом не могут этого делать, и это почему-то будет считаться безопасным?
Это просто поразительное отсутствие логической связи. И мне очень интересно посмотреть, как отреагируют другие компании, работающие на передовых рубежах. Потому что, если сказать, что Anthropic пыталась оказать давление на Министерство обороны или Министерство войны, Anthropic просто заявила: «Мы не хотим, чтобы наши ресурсы использовались для этого, поэтому нам нужно отказаться от контракта», и они бы просто расторгли контракт и предоставляли услуги столько, сколько было необходимо для обеспечения плавного перехода. Я не понимаю, как это можно назвать двуличием. Я определенно не понимаю, как это можно назвать давлением.
Anthropic — не единственная перспективная компания или система, которую министерство могло бы использовать, если бы был переходный период. И, честно говоря, стоит отметить, что в прессе сообщалось о контракте с Министерством обороны на 200 миллионов долларов. Ну, это… Опять же, я не читал контракт, но, насколько я понимаю, это потолок. Это не минимум. Совершенно неясно, будет ли Министерство обороны, или, извините, Министерство обороны и развития, близко к тому, чтобы потратить около 200 миллионов долларов. Мне крайне трудно поверить, что Anthropic получала прибыль от своей поддержки правительства США. Они только что провели что? Насколько велика была их последняя оценка? Вы помните, это было…
Джастин Хендрикс:
Я думаю, что это число составляет 350 миллиардов, но…
Кэт Даффи:
Думаю, может быть, 380, да, но это значительно больше 300 миллиардов, если судить по их недавней оценке. Эти контракты представляют собой ошибку для них с точки зрения выручки. Поэтому во многих отношениях я надеюсь, что другие крупные перспективные компании смотрят на это и говорят: «Если бы мы чувствовали, что наши контракты нарушаются, и мы бы подняли этот вопрос перед Министерством обороны или нам нужно было бы расторгнуть контракт, нас бы тоже объявили рискованными с точки зрения цепочки поставок? И вдруг мы окажемся в ситуации, когда Google, OpenAI и Anthropic будут объявлены рискованными с точки зрения цепочки поставок? И тогда правительство выйдет и скажет: «Также, мы собираемся обогнать Китай в гонке ИИ, но мы объявили все наши ведущие перспективные компании рискованными с точки зрения цепочки поставок»».
Эта цепная реакция просто сбивает с толку. Поэтому мне очень интересно посмотреть, как отреагируют другие компании, потому что я надеюсь, что они сейчас окажут значительную поддержку Anthropic и выступят против подобного вмешательства со стороны правительства США. Мне также очень интересно посмотреть, как отреагируют сотрудники, потому что прошло немало времени с тех пор, как мы наблюдали подобную организацию сотрудников и коллективный активизм по этой теме, которые были гораздо более распространены в технологической сфере и в Силиконовой долине, чем в последнее время. Поэтому интересно наблюдать этот всплеск активности. И я не думаю, что сотрудники и инженеры по искусственному интеллекту в различных компаниях отнесутся к этому благосклонно.
Амос Тох:
Да, и сейчас, как никогда, важно, чтобы Конгресс отреагировал, верно? Он может что-то сделать с этим обозначением риска в цепочке поставок, верно? Он может фактически сказать: «Извините, подождите, мы не позволим вам обозначать риск в цепочке поставок таким образом, когда это явно произвольно и когда это попытка, по сути, превратить спор по контракту об ограничениях использования в нечто, где Министерство обороны, по сути, злоупотребляет полномочиями в области национальной безопасности, чтобы внести компанию в черный список». Так что я думаю, это часть продолжающейся тенденции злоупотреблений чрезвычайными полномочиями, злоупотреблений исполнительной властью, и давление на Конгресс с целью принятия мер здесь усиливается.
Джастин Хендрикс:
Вы уже немного говорили о том, как это может быть воспринято за рубежом, но какой посыл вы хотите донести до мира? Я попрошу вас еще раз повторить это, учитывая решение Пита Хегсета, и отмечу, что его заявления окончательны: «Это решение является окончательным».
Кэт Даффи:
Я много лет проработал в дипломатии. Думаю, если вы представляете иностранное правительство и смотрите на это, вы просто поражены и не представляете, как взаимодействовать с Соединенными Штатами. Это уровень непоследовательности, иррациональности, отсутствия согласованности и стратегии, который поражает воображение в сфере национальной безопасности. Думаю, вы, вероятно, больше заинтересованы в сотрудничестве с Anthropic, чем могли бы быть, потому что Anthropic не показала, что собирается поддаться политическому давлению со стороны правительства США. И большинство стран ищут поставщиков и партнеров в своей технологической инфраструктуре, где они, как клиенты, знают, что у них есть компания, на которую они могут положиться, которая будет их обслуживать и не изменит свою позицию, не начнет предоставлять их информацию или что-либо еще из-за прихотей или требований правительства США.
Я думаю, это плохо для американцев. Я думаю, это плохо для американских военных. Я думаю, это делает нас менее защищенными. Я думаю, что для Anthropic это, вероятно, может оказаться выгодным с точки зрения собственного авторитета и увеличения доходов. И опять же, отчасти это зависит от того, как они на самом деле истолкуют это заявление относительно рисков в цепочке поставок. Я полностью согласен с Амосом. Мне непонятно, что из этого является риторикой, а что — юридически обоснованным. Я не знаю, как быстро Anthropic сможет получить судебный запрет, но я думаю, что если вы Lockheed или Boeing, вас, вероятно, тоже сильно раздражает это заявление, потому что вы, вероятно, в той или иной форме полагаетесь на Клода или на кодекс Клода.
Это не помогает, это сбивает с толку и будет мешать вашей работе, пока вы не получите ясности. Поэтому я не думаю, что кто-либо за рубежом посмотрит на это и скажет: «Слава богу, правительство США вмешалось, чтобы защитить свою национальную безопасность». Что, на мой взгляд, примечательно, так это то, что, когда мы возвращаемся к тому, что Huawei была признана угрозой для цепочки поставок, и к тому, что мы называем заменой Huawei, которая произошла при администрации Трампа, это решение, как я всегда заявлял, было, на мой взгляд, мудрым в интересах национальной безопасности и дало очень сильный сигнал остальному миру о том, что им также следует пересмотреть свою зависимость от этого же оборудования.
Таким образом, мы оказались в совершенно перевернутом положении с точки зрения нашего понимания технологий, их происхождения, угроз, которые они могут представлять, и того, как правительство США или федеральное правительство должно осуществлять свою власть. Поэтому вызывает разочарование и большую обеспокоенность то, как при первой администрации эти полномочия использовались, как мне кажется, разумно и действительно для достижения сложных целей национальной безопасности, которые было бы очень трудно достичь иным способом. Сейчас же это похоже на проявление эгоизма, ненужной путаницы и чрезмерной помпезности, а не на логику или истинную заботу о наших военных, о наших солдатах или об американцах.
Джастин Хендрикс:
Амос, я бы предоставил вам последнее слово. Вы рассматривали взаимосвязь между искусственным интеллектом, обороной и разведывательными службами с разных сторон. Не знаю, как этот момент связан с тем, куда мы движемся? Указывает ли он вам путь? Как мои слушатели должны осмысливать это?
Амос Тох:
Я думаю, что часть того, что мы наблюдаем, и что действительно теряется в этой эскалации, — это предположение, которое продвигает не только Министерство обороны, но и эта администрация, и, я бы сказал, многие игроки в промышленности, что нам нужно внедрять ИИ с головокружительной скоростью, наплевав на все ограничения, верно? И я думаю, вы видите логическое завершение этого нарратива: ограничения и внедрение ИИ принципиально несовместимы, и что первые неизбежно рухнут, а вторые — это «прогрессивные» и все такое прочее, верно?
И, как ни парадоксально, причина, по которой Министерство обороны так упорно борется за сохранение системы Claude, заключается именно в том, что Claude, возможно, является одной из лучших, если не самой эффективной моделью на рынке. И Claude является одной из самых эффективных моделей не потому, что она пошла на уступки в отношении ограничений использования. При разработке Claude эти ограничения использования были первостепенными, эти принципы и «красные линии» были на первом плане, и это, похоже, не повлияло на производительность модели. На самом деле, кажется, это сделало модель ведущей и первоклассной в мире.
Поэтому я не уверен, насколько это будет соответствовать ожиданиям военных лидеров в данный момент, но я, безусловно, надеюсь, что законодатели внимательно прислушаются к этому и извлекут уроки из этого спора.
Кэт Даффи:
Итак, позвольте мне сказать? Это странный мир. Я всегда смотрю на подобные вещи с точки зрения: «Закрывается ли это пространство для переговоров?» Существует мир, в котором ситуация обостряется настолько резко, что администрация оказывается в тупике, и нарастает эскалация в попытке создать пространство для переговоров. Anthropic не сдалась. Даже после заявления президента Трампа Anthropic не пошла на уступки до последней минуты, и тогда мы получаем очень сильный сигнал от министра Хегсета. Существует мир возможностей, в котором способность Anthropic оспорить оценку риска для цепочки поставок будет настолько простой и очевидной, что это фактически даст время, так что вы не потеряете лицо из-за громких заявлений, но при этом сохраните функциональность, и это будет выглядеть не очень хорошо.
Таким образом, существует мир, в котором это потенциально может иметь место. Также существует мир, который никогда не следует недооценивать, где Илон Маск может действовать за кулисами, особенно пытаясь продвинуть Грока в системы. Существует множество различных способов, которыми это может происходить за кулисами, и наши военные заслуживают лучшего. Они заслуживают самых добросовестных усилий, чтобы предоставить им лучшие доступные технологии, и американцы тоже заслуживают этого от Министерства обороны и от своих избранных должностных лиц. И это просто не тот тип балансирования на грани, который следует применять к американским гражданам в таком серьезном вопросе в данный момент. Это действительно ужасное оправдание для лидерства.
Джастин Хендрикс:
На этом можно остановиться. Думаю, в ближайшие дни возникнет ещё много вопросов, на которые нужно будет ответить. Я благодарна вам двоим за то, что вы были со мной в пятницу после обеда, технически после «счастливого часа», и за то, что вы реагировали на новости по мере их поступления, даже во время этого разговора. Так что спасибо вам обоим, Кэт и Амос. Огромное спасибо.
Кэт Даффи:
Спасибо. Посмотрим, что из этого выйдет.
Амос Тох:
Спасибо.
Источник:
https://www.techpolicy.press/how-to-think-about-the-anthropic-pentagon-dispute/





