Anthropic не продается, ведь убеждения дороже денег

Логотип компании
02.03.2026
Anthropic не продается, ведь убеждения дороже денег
Изображение: Shutterstock / Samuel Boivin
В американском военно-промышленном комплексе разворачивается интереснейшая история, достойная пера хорошего сатирика. Компания Anthropic, продвигающая идеи этичного искусственного интеллекта, умудрилась поссориться с Пентагоном. И нет, речь не о срыве поставок или некачественных деталях для самолетов. Речь идет о принципах.

Военные, очарованные возможностями языковой модели Claude, выложили за контракт 200 миллионов долларов, видимо, полагая, что за такие деньги можно купить не только технологию, но и самого разработчика. Однако в Anthropic, судя по всему, забыли ознакомить отдел продаж с этикой использования искусственного интеллекта. Когда до Пентагона дошло, что купленный инструмент пытается ставить условия, начался скандал.

Красные линии и черный список

Суть претензий Anthropic проста и для Пентагона звучит почти как оскорбление. Разработчики заявили, что их детище нельзя использовать для слежки за американскими гражданами. Кроме того, они наложили вето на применение Claude в полностью автоматизированных системах вооружений, где последнее слово остается за машиной, а не за человеком. То есть компания, по сути, заявила: «Мы, конечно, за оборону, но давайте без превращения страны в «Большого брата» и «Терминатора» в одном флаконе».

Пентагон сменил подрядчиков

Пентагон, привыкший к тому, что его бюджет открывает любые двери, мягко говоря, удивился такой наглости. Железобетонная логика военных подсказывает им, что если они заплатили, то программное обеспечение является их собственностью, и использовать его будут так, как считают нужным, в рамках закона, разумеется. А закон в вопросах национальной безопасности, как известно, штука гибкая.

Переговоры, на которых министр обороны Пит Хегсет лично убеждал главу Anthropic Дарио Амодеи пересмотреть взгляды, ничем не увенчались. Этичный ИИ оказался крепче, чем «стальные» нервы военных.

В итоге терпение лопнуло, и Пентагон поступил по законам жанра - поместил строптивую Anthropic в черный список. Мало того, военные объявили, что в течение ближайших шести месяцев они полностью перейдут с Claude на альтернативные решения. Видимо, в ведомстве всерьез решили, что разбираться в моральных дилеммах по поводу слежки и автономных пушек им сейчас некогда, проще найти того, кто будет делать, что скажут, и не задавать лишних вопросов.

Конечно, просто так выкинуть 200 миллионов долларов и перспективную технологию Пентагон не мог. Как тут же выяснилось, на замену непокорным уже заходит OpenAI, чей руководитель Сэм Альтман, полируя нимб, заявил, что их принципы безопасности тоже на высоте. Видимо, эти принципы оказались значительно более совместимыми с требованиями военных и хорошим бюджетом.

Чем грозит попадание в «черный список» Пентагона?

Самое очевидное и болезненное - это дыра в бюджете. 200 миллионов долларов за один контракт - это очень серьезная сумма даже для звездной AI-компании. Это не просто упущенная выгода, это деньги, на которые, возможно, уже были построены планы по развитию, найму новых инженеров или аренде дополнительных мощностей у облачных провайдеров. Придется перекраивать финансовую модель и искать, кто закроет этот гештальт деньгами.

Репутация строптивого подрядчика

Это, пожалуй, самая коварная угроза. Пентагон в США - это не просто один из клиентов. Это законодатель мод в сфере госзаказа и оборонки. Если Министерство обороны внесло тебя в черный список и публично объявило о переходе на альтернативы, об этом узнают все крупные производители и мелкие оборонные стартапы. Они теперь трижды подумают, прежде чем интегрировать Claude в свои продукты. Никто не хочет связываться с технологией, которая может стать «персоной нон грата» или вокруг которой в любой момент может вспыхнуть политический скандал. Для Anthropic это означает закрытие огромного рынка государственных и окологосударственных подрядов если не навсегда, то на очень долгий срок.

Потеря инвесторов

История с этикой и принципами, безусловно, подкупает. Это красивая история для прессы и для привлечения талантливых сотрудников-идеалистов. Но инвесторы, особенно на поздних стадиях, смотрят на цифры и горизонты планирования. Потеря такого контракта и блокировка доступа к госзаказу в США - это материальный риск для бизнеса. В следующем раунде инвестиций придется объяснять, почему выгоднее иметь принципы, чем 200 миллионов долларов, и доступ к самому важному заказчику в США. Некоторые фонды могут дрогнуть.

Утечка мозгов и технологий 

Пентагон не просто хлопнул дверью, он уже нашел замену в лице OpenAI. Это значит, что военные инженеры и аналитики, которые уже начали работать с Claude и привыкать к его интерфейсам, теперь будут переучиваться на работу с конкурентами. Все наработки, интеграции и данные, которые были завязаны на Anthropic, будут постепенно мигрировать к другим вендорам. А вместе с ними могут мигрировать и кадры - специалисты, которые любят решать сложные задачи, пойдут туда, где есть большие задачи и госфинансирование.

Окошко в Европу

Но не все так мрачно. Есть в этой истории и светлая сторона. Решение Anthropic - это мощнейший заявочный сигнал для европейского рынка. Евросоюз сейчас лихорадочно принимает свой AI Act, который как раз нацелен на ограничение рисков, связанных с наблюдением и автономным оружием. Anthropic с ее «чистой репутацией» становится идеальным партнером для европейских правительств и корпораций, которые хотят внедрять ИИ, но боятся попасть под санкции за неэтичное использование. Компания может стать «зеленым» поставщиком ИИ для Старого Света.

«Skynet» желает вам доброго утра!

В итоге, Anthropic неожиданно выбрала путь принципиального меньшинства. Она потеряла огромный рынок США, но приобрела уникальный бренд «самой этичной AI-компании», который может стать золотым ключиком к Европе и корпорациям, заботящимся об ESG-рейтингах*. Выйдет ли она в плюс от такой принципиальности, покажет время. Но шум сейчас стоит невероятный.

*ESG-рейтинг – это оценка ESG-профиля конкретной организации. Критерии оценки, как правило, включают экологические, социальные и управленческие вопросы.