Генералы, ИИ и секретная комната: OpenAI готовится к войне без оружия

OpenAI придумала, как молчать даже на работе.


cj148oscc6scghpkv4j7j3ui2wm9rc1m.jpg


OpenAI значительно усилила защиту своих разработок от кибер шпионажа , особенно в контексте возможных утечек в сторону Китая. Согласно информации , предоставленной источниками, близкими к компании, OpenAI ввела строгие меры контроля, включая биометрическую аутентификацию по отпечаткам пальцев, полную изоляцию критических систем и найм бывших сотрудников армии США и специалистов по кибербезопасности для координации новых стратегий.

Повышение уровня безопасности стало приоритетом после того, как китайская компания DeepSeek была обвинена в использовании техники «дистилляции» для копирования моделей OpenAI с целью создания собственного продукта. Хотя DeepSeek не прокомментировала обвинения, внутри OpenAI началась срочная ревизия политики доступа и защиты интеллектуальной собственности.

Внутри компании введена политика «тентирования информации», которая ограничивает доступ к конфиденциальным проектам до минимума. В рамках этой политики, действующей с лета 2024 года, разработчики должны были удостоверяться, что их собеседник имеет соответствующий уровень допуска, прежде чем обсуждать детали проекта, даже находясь в одном офисе. Такая изоляция особенно проявилась во время работы над новой моделью « o1 », известной внутри как «Strawberry», где сотрудники или получали полный набор данных, или не имели доступа вообще. Со временем компания перешла к более гибкому распределению информации, ограничивая доступ строго необходимыми фрагментами.

Один из самых жёстких шагов — перенос ключевых алгоритмов в оффлайн-среду без выхода в интернет. Дополнительно введена политика, при которой любые соединения с внешней сетью по умолчанию блокируются и могут быть разрешены только вручную. Также модернизированы физические меры: например, биометрические сканеры отпечатков пальцев теперь используются для доступа в закрытые зоны.

Команду по безопасности пополнили видные фигуры. Среди них — бывший глава безопасности в Palantir Дейн Стаки и отставной генерал армии США Пол Накасоне, который вошёл в совет директоров OpenAI в 2024 году, чтобы курировать киберзащиту. Вице-президент по безопасности Мэтт Найт использует возможности собственных моделей ИИ компании для мониторинга и отражения потенциальных угроз.

Такие меры отражают общую тревожность технологического сектора США в условиях усиливающейся международной конкуренции в сфере искусственного интеллекта. Американские власти уже предупреждали о росте активности иностранных государств, в том числе Китая , в попытках получить доступ к передовым технологиям. Это стало причиной ужесточения проверок сотрудников и пересмотра процедур безопасности по всей отрасли.

При этом OpenAI подчёркивает, что действия носят упреждающий характер. Компания заявляет, что активно инвестирует в программы конфиденциальности и защиты, стремясь стать лидером в индустрии. Однако усиление контроля и ограничение доступа вызывают обеспокоенность по поводу возможных проявлений ксенофобии в отношении специалистов азиатского происхождения, работающих в американских технологических компаниях.