"Менее склонен к отказам": как Anthropic сломала этику ИИ для военных
NewsMakerClaude теперь работает на разведку США.
Компания Anthropic анонсировала запуск новой линейки ИИ-моделей, созданных специально для нужд национальной безопасности США. По заявлению разработчиков, речь идёт о модифицированной версии Claude под названием Claude Gov — это отдельный набор моделей, который формировался при участии государственных заказчиков и с учётом их специфических требований.
По сравнению с коммерческими и корпоративными версиями, Claude Gov ориентирован на использование в задачах стратегического планирования, аналитики разведданных и оперативной поддержки. Anthropic подчёркивает, что эти модели уже применяются в ряде ведомств, работающих на самом высоком уровне в сфере национальной безопасности, а доступ к ним ограничен только для тех, кто имеет допуск к засекреченным данным.
Компания утверждает, что Claude Gov прошёл такие же строгие проверки безопасности, как и все остальные версии Claude, однако ключевое отличие заключается в том, что он адаптирован для работы с конфиденциальной информацией и менее склонен к отказам. Кроме того, улучшена способность распознавания и анализа документов, связанных с разведкой и обороной.
Кроме того, у Claude Gov есть расширенное владение языками и диалектами, которые представляют интерес для операций в сфере нацбезопасности. Также отмечено, что Claude Gov демонстрирует более точную интерпретацию сложных данных в области кибербезопасности.
Выход Claude Gov подтверждает растущее стремление Anthropic расширять своё влияние за пределами частного сектора и закрепиться в сфере госконтрактов. Ещё в ноябре компания объединилась с Palantir и облачным подразделением Amazon (AWS), чтобы продвигать свои ИИ-решения среди военных структур и оборонных подрядчиков.
Anthropic далеко не единственная компания, стремящаяся закрепиться на этом рынке. OpenAI активно развивает контакты с Пентагоном, а Meta* объявила о доступности моделей Llama для партнёров из оборонного сектора. Google, в свою очередь, работает над версией Gemini, которая сможет функционировать в условиях ограниченного доступа.
Такой интерес к оборонному сектору со стороны ведущих ИИ-компаний объясняется не только стабильностью финансирования, но и возможностью протестировать ИИ в критически важных и высокорискованных условиях. Именно эти сценарии позволяют быстрее выявлять пределы возможностей моделей и формировать долгосрочную устойчивость ИИ-решений перед лицом реальных угроз.
* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.

Компания Anthropic анонсировала запуск новой линейки ИИ-моделей, созданных специально для нужд национальной безопасности США. По заявлению разработчиков, речь идёт о модифицированной версии Claude под названием Claude Gov — это отдельный набор моделей, который формировался при участии государственных заказчиков и с учётом их специфических требований.
По сравнению с коммерческими и корпоративными версиями, Claude Gov ориентирован на использование в задачах стратегического планирования, аналитики разведданных и оперативной поддержки. Anthropic подчёркивает, что эти модели уже применяются в ряде ведомств, работающих на самом высоком уровне в сфере национальной безопасности, а доступ к ним ограничен только для тех, кто имеет допуск к засекреченным данным.
Компания утверждает, что Claude Gov прошёл такие же строгие проверки безопасности, как и все остальные версии Claude, однако ключевое отличие заключается в том, что он адаптирован для работы с конфиденциальной информацией и менее склонен к отказам. Кроме того, улучшена способность распознавания и анализа документов, связанных с разведкой и обороной.
Кроме того, у Claude Gov есть расширенное владение языками и диалектами, которые представляют интерес для операций в сфере нацбезопасности. Также отмечено, что Claude Gov демонстрирует более точную интерпретацию сложных данных в области кибербезопасности.
Выход Claude Gov подтверждает растущее стремление Anthropic расширять своё влияние за пределами частного сектора и закрепиться в сфере госконтрактов. Ещё в ноябре компания объединилась с Palantir и облачным подразделением Amazon (AWS), чтобы продвигать свои ИИ-решения среди военных структур и оборонных подрядчиков.
Anthropic далеко не единственная компания, стремящаяся закрепиться на этом рынке. OpenAI активно развивает контакты с Пентагоном, а Meta* объявила о доступности моделей Llama для партнёров из оборонного сектора. Google, в свою очередь, работает над версией Gemini, которая сможет функционировать в условиях ограниченного доступа.
Такой интерес к оборонному сектору со стороны ведущих ИИ-компаний объясняется не только стабильностью финансирования, но и возможностью протестировать ИИ в критически важных и высокорискованных условиях. Именно эти сценарии позволяют быстрее выявлять пределы возможностей моделей и формировать долгосрочную устойчивость ИИ-решений перед лицом реальных угроз.
* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.