Цифровой разведчик, знающий 80 языков: ИИ стал глазами и ушами американского флота

Нейросеть выпустили на охоту за секретами других стран. И вот что получилось…


lw5v8wi1xutw2y8pc579tsv22w7pvgt6.jpg


Экипажи трех военных кораблей США стали участниками необычного эксперимента в Тихом океане. На протяжении большей части прошлого года около 2500 военнослужащих из 15-го экспедиционного подразделения морской пехоты проводили тактические маневры у берегов Южной Кореи, Филиппин, Индии и Индонезии. Одновременно с этим подразделение опробовало принципиально новый подход к обработке разведывательной информации — впервые в истории американских вооруженных сил для анализа данных применили генеративный искусственный интеллект.

Группа специалистов, отвечающая за мониторинг иностранных источников и своевременное оповещение командования о возможных угрозах, получила доступ к передовой системе, разработанной при поддержке Пентагона. Капитан Кристин Энценауэр рассказала, что нейросети помогали оперативно обрабатывать тысячи единиц информации из открытых ресурсов — публикаций, докладов, фотоснимков и видеозаписей. Ее коллега, капитан Уилл Лоудон, задействовал технологию при подготовке ежедневных и еженедельных аналитических сводок для руководства.

Несмотря на активное внедрение автоматизации, военные подчеркивают необходимость тщательной проверки результатов. "Мы по-прежнему обязаны перепроверять источники", — отмечает Лоудон. При этом командование поощряет использование языковых моделей, поскольку они существенно повышают эффективность работы в динамичной обстановке.

За разработку этих инновационных инструментов отвечает компания Vannevar Labs, созданная в 2019 году выходцами из ЦРУ и разведывательного сообщества США. В ноябре Управление оборонных инноваций заключило с ней контракт стоимостью до 99 миллионов долларов для расширения доступа к технологии. Фирма пополнила ряды таких влиятельных игроков как Palantir, Anduril и Scale AI, которые помогают военным осваивать не только физические технологии вроде дронов и автономных машин, но и программные решения для сбора, управления и интерпретации данных в целях ведения боевых действий и наблюдения.

С 2017 года американские военные уже применяли системы компьютерного зрения и другие алгоритмы, например, в рамках проекта Maven. Однако использование генеративного ИИ, способного вести диалог подобно человеку, знаменует начало новой эры.

Технологический потенциал Vannevar Labs поражает масштабами. Ежедневно системы компании анализируют терабайты информации на 80 языках из 180 стран мира. Специалисты научились преодолевать защитные барьеры китайского интернета, исследовать профили пользователей в социальных сетях и добывать труднодоступные сведения. В работе также используются неклассифицированные данные от агентов на местах и показания специальных сенсоров, которые скрытно фиксируют радиосигналы для обнаружения нелегального судоходства.

Собранная информация обрабатывается с помощью нескольких типов языковых моделей: часть из них создана на основе разработок OpenAI и Microsoft, другие спроектированы непосредственно в Vannevar Labs. Аналитики взаимодействуют с системой через интерфейс, похожий на ChatGPT. Платформа позволяет отслеживать международные маршруты поставок фентанила, действия КНР по получению контроля над месторождениями редкоземельных металлов на Филиппинах и множество других процессов, важных для национальной безопасности.

"Наша ключевая миссия как компании — собирать данные, превращать их в осмысленную картину и помогать США принимать обоснованные решения", — поясняет технический директор Скотт Филипс. Такой подход особенно ценен для разведывательного сообщества, которое уже много лет сталкивается с проблемой переизбытка информации — человеческих ресурсов категорически не хватает для своевременного анализа всех поступающих сведений.

Именно эта проблема в 2003 году послужила стимулом к созданию Palantir — организации, чья рыночная капитализация сегодня превышает 200 миллиардов долларов. Компания получила известность благодаря мощным, хотя и неоднозначным разработкам. Среди них — специализированная база данных, которая помогает Иммиграционной и таможенной службе США выявлять и отслеживать нелегальных мигрантов.

В 2019 году специалисты Vannevar Labs увидели потенциал в только появившихся тогда больших языковых моделях. Технология позволила не просто накапливать сведения, но и вести интерактивный диалог с аналитиком, помогая ему разбираться в потоках данных.

Во время тихоокеанской миссии капитан Энценауэр регулярно использовала цифрового помощника для поиска упоминаний о действиях подразделения в зарубежных СМИ. Система также проводила эмоциональный анализ публикаций, определяя отношение авторов к американским военным. Прежде такую оценку приходилось выполнять вручную — изучать материалы, делать переводы, систематизировать и анализировать информацию, что требовало колоссальных временных затрат.

Тестирование выявило и определенные сложности технического характера. Неустойчивое интернет-соединение на кораблях существенно замедляло функционирование платформы, особенно при обработке визуальных материалов. Тем не менее, командующий подразделением, полковник Шон Дайнан, в феврале заверил журналистов: нынешний эксперимент — лишь "верхушка айсберга", и в дальнейшем роль генеративного ИИ будет только возрастать.

Действительно, Министерство обороны США стремительно движется в этом направлении. В декабре ведомство анонсировало выделение 100 миллионов долларов на пилотные проекты в сфере генеративного ИИ в ближайшие два года. Помимо Vannevar Labs, к работе привлечены Microsoft и Palantir — они совместно создают модели для обработки засекреченной информации. Важно отметить, что США не единственные развивают это направление: например, Израиль уже задействует ИИ для анализа данных и даже формирования списков целей в ходе конфликта в секторе Газа, что вызывает широкую критику международного сообщества.

Растущие темпы внедрения ИИ в военную сферу вызывают серьезную обеспокоенность у специалистов. Хейди Клааф, ведущий научный сотрудник исследовательского института AI Now, предостерегает от поспешного внедрения языковых моделей в критически важные системы. "Мы прекрасно знаем, насколько неточными могут быть такие алгоритмы, особенно в областях, требующих высокой точности", — подчеркивает эксперт.

По мнению Клааф, даже постоянный контроль со стороны человека не гарантирует выявление всех ошибок. Когда модель опирается на тысячи источников данных, оператор физически не способен проверить корректность каждого вывода системы. Особую тревогу вызывает анализ эмоциональной окраски текстов — задача настолько субъективная, что даже опытные специалисты не всегда приходят к единому мнению при оценке медиаматериалов.

Ошибочная интерпретация может иметь серьезные последствия. Если искусственный интеллект увидит враждебность там, где человек-аналитик ее не заметил бы, или наоборот — пропустит реальную угрозу, это способно привести к принятию неверных решений или необоснованной эскалации напряженности.

Крис Мутон, старший инженер исследовательской корпорации RAND, недавно проверял способности генеративного ИИ распознавать пропаганду в иностранных источниках. Он протестировал ведущие модели, включая GPT-4 от OpenAI и специально настроенную версию GPT для разведывательной работы. Результаты показали, что технология пока плохо справляется с выявлением тонких форм пропагандистского воздействия, хотя остается полезной для других задач анализа.

Эксперты также указывают на ограниченную надежность данных из открытых источников. В отличие от секретных сведений, получаемых через агентурную сеть или прослушивание, общедоступная информация подвержена влиянию дезинформации, ботов и целенаправленных манипуляций — об этих рисках предупреждает и армия США.

Главная дискуссия сейчас разворачивается вокруг роли генеративного ИИ в принятии решений. Останется ли он одним из многих инструментов анализа или превратится в основной источник оценок, на которые будут опираться военные? Простота взаимодействия с системой — возможность задать вопрос и получить ответ на понятном языке — несомненно привлекательна. Однако готово ли общество принять определенный уровень неточности таких систем ради повышения эффективности разведки? Этот вопрос пока остается открытым.