Пентагон против Claude и особенности национального регулирования

Сама ситуация выглядит анекдотично, ведь Пентагон, который привык, что все перед ним склоняют головы, вдруг столкнулся с загадочными «этическими принципами». Мало того, что Anthropic соглашается сотрудничать лишь с оговорками, так еще и указывает на смешные «красные линии». Оказывается в Anthropic не желают, чтобы нейросеть следила за американцами и управляла дронами-убийцами без участия человека.
Разговор по душам
Встреча во вторник напоминала диалог из хорошего детектива. Уверяют, что вся беседа велась «корректно», но от этого никому не стало спокойнее. Военные объясняют свой интерес к даже сделал комплимент детищу компании, признав, что Claude очень хорош, и именно поэтому военные желают использовать его по полной.
В любом случае в Пентагоне прямо заявили, что никакая частная компания не будет указывать военным, как им работать. CEO Anthropic Дарио Амодеи в ответ заметил, что их красные линии вообще никогда не мешали военным делать свою работу, и все претензии надуманы.
Чтобы никто не сомневался в серьезности намерений, военные пришли на встречу целой делегацией. Там были и замминистра, и главные юристы, и ответственные за разработки, и пресс-секретарь. Anthropic старались тоже «держать марку» и после встречи вежливо намекнули, что разговор был конструктивным, а также поблагодарили министра за службу, и выразили надежду, что они продолжат искать пути взаимодействия в рамках ответственного подхода к ИИ.
Что грозит компании, если она не выполнит требования?
Первый вариант - Закон об оборонном производстве. Используя этот закон, во время пандемии COVID-19 фармацевтов заставляли производить вакцины как проклятых. Правда, обычно его используют для ускорения производства, а не для того, чтобы перекраивать софт под военные нужды. Но военные, видимо, решили, что закон - что дышло. Юристы Anthropic уже, наверное, потирают руки в предвкушении суда, ведь можно попробовать доказать, что Claude не серийный товар со склада, а штучный продукт для чувствительных госзадач.
Anthropic могут объявить «риском для цепочки поставок». Звучит как канцелярщина, но последствия страшные. После такого любой бизнес, который хотя бы случайно использует разработки Anthropic в своих рабочих процессах, должен будет доказывать свою благонадежность. Для бизнеса это верная смерть.
Например, метод «ковбоя с повесткой» отлично работает в США
Как мы видим на примере Пентагона и Anthropic, стиль США - это сочетание рыночной наглости и административного ресурса. С одной стороны, Пентагон признает, что компания «чертовски хороша» и без нее никуда. С другой - сразу достает дубину Закона об оборонном производстве.
Американский подход - это сделка, от которой невозможно отказаться. Или ты даешь то, что просят (пусть даже это противоречит твоим уставным принципам), или тебя объявят «угрозой цепочки поставок», и твой бизнес просто скукожится, потому что все корпоративные клиенты одновременно откажутся с тобой работать. Это грубо, цинично, но вполне в рамках американской рыночной логики.
Для Китая хорош метод «товарища с планом»
В Поднебесной таких проблем не возникает. Если государство говорит «надо», бизнес отвечает «есть». Там диалог еще короче.
- Ребята, мы хотим, чтобы ваш ИИ следил за социальным рейтингом и помогал армии. Ваши красные линии?
- Какие красные линии, товарищ? Мы их еще не получили из министерства. Как получим, сразу внедрим.
То есть, у нас имеется партия, есть план, и есть «социальный кредит» для самой компании, если она вдруг задумается об этических нормах.
Европейский союз действует иначе. Они не будут напрямую угрожать компании, ведь гораздо проще принять какой-либо «Общий регламент по защите данных версии 12.0» или «Акт об искусственном интеллекте с особой пометкой».
Поэтому в Европе диалог власти и бизнеса выглядел бы так:
- Уважаемые бизнесмены, мы заметили, что ваш алгоритм может теоретически нарушить статью 34, параграф Б. Если вы не предоставите отчет о соответствии через полгода, мы выпишем штраф в 4% от глобального оборота.
Европейцы душат не ультиматумами, а процедурами и штрафами. Это медленнее, но для бизнеса иногда больнее.
В России лучше всего работает метод «серьезного разговора»
У нас, как правило, до публичных ультиматумов с датой и временем дело доходит реже. Обычно работает «режим ручного управления». Представители профильных ведомств приезжают в офис и доходчиво объясняют, что такое хорошо и что такое плохо с их точки зрения.
При этом российские компании (например, в сфере IT) зачастую и сами не против работать с государством, потому что государство - главный заказчик и инвестор. Если возникает недопонимание, его вначале пытаются решить не через суды и законы о производстве, а через административный ресурс и личные связи. Но если разговор не помогает, могут найтись и другие аргументы.
Так что же делать Пентагону?
Дело в том, что Claude настолько хорош, что без него военным придется тяжеловато. Это единственная модель, которую в США допускают до самых секретных данных. Именно через Клода и Palantir шла разработка операции по похищению президента Венесуэлы.
Не так давно, Илон Маск подписал контракт на использование военными AI Grok. С OpenAI и Google также ведутся активные переговоры. Однако, смогут ли они заменить Claude прямо сейчас?
Впрочем, если Google получит возможность продать Gemini, то корпорации предложат ровно те же условия - работа на все «законные цели». То есть те же самые условия, от которых Anthropic пытается отказаться.
Так что к вечер пятницы определенно будет не скучным, ведь американское военное ведомство будет лихорадочно решать, наказать ли строптивую компанию, без которой трудно работать, или проглотить обиду и дальше терпеть их «красные линии». Anthropic, судя по всему, в этой игре чувствует себя довольно уверенно. И правильно, хороший специалист всегда найдет, где предложить свои услуги. Даже если клиент требует всего и сразу.
Источник: AXIOS
Опубликовано 25.02.2026
