Google Big Sleep сорвал 0‑day в SQLite (CVE‑2025‑6965) до атаки

Преступники готовили взлом, даже не подозревая, что их планы уже раскрыл искусственный интеллект.


3ysfz9kou0klpya4mfyx184uawznr563.jpg


Google объявила об успешном обнаружении серьёзной уязвимости в широко используемом движке баз данных SQLite до того, как она могла быть использована в реальных атаках. Проблему выявила интеллектуальная система Big Sleep — автономный агент, разработанный совместно DeepMind и Project Zero. Обнаружение произошло в рамках инициативы по использованию языковых моделей для поиска уязвимостей.

Ошибка получила идентификатор CVE-2025-6965 и оценку по шкале CVSS в 7.2 балла. Уязвимость представляет собой повреждение памяти, связанное с целочисленным переполнением. Она затрагивает все версии SQLite до 3.50.2. Разработчики SQLite пояснили, что злоумышленник, способный внедрить произвольные SQL-запросы, может вызвать выход за границы массива при чтении данных, что открывает путь к эксплуатации.

По словам Google, данная проблема была известна только потенциальным атакующим. Благодаря сочетанию аналитики угроз и возможностям Big Sleep, компании удалось предсказать попытку её применения и заблокировать атаку до её начала. По утверждению президента по глобальным вопросам Google и Alphabet Кента Уокера, это первый зафиксированный случай, когда ИИ предотвратил эксплуатацию уязвимости в реальных условиях.

Дополнительные данные поступили от команды GTIG, которая заметила косвенные признаки подготовки атаки, но не смогла сразу определить саму уязвимость . Эти сведения были переданы другим специалистам Google, которые при помощи Big Sleep сумели локализовать проблему до начала вредоносных действий.

Примечательно, что это уже не первое вмешательство Big Sleep: в октябре 2024 года тот же агент обнаружил в SQLite другую критическую ошибку — переполнение буфера стека, которое могло привести к сбоям или выполнению произвольного кода.

На фоне этих событий Google также опубликовала технический документ, посвящённый созданию защищённых ИИ-агентов. В нём подчёркивается необходимость наличия чётких рамок и прозрачности для ИИ-систем, чтобы минимизировать риск утечки конфиденциальной информации и непредсказуемых действий. Компания критикует как классические подходы к защите, которые оказываются слишком жёсткими для гибких ИИ, так и чисто логические системы безопасности, не способные защитить от атак вроде внедрения команд (prompt injection).

В качестве решения предлагается гибридная многоуровневая модель защиты, сочетающая традиционные методы и адаптивные механизмы, основанные на выводах ИИ. Такая стратегия позволяет создавать надёжные рамки вокруг операционной среды агента и предотвращать нежелательные действия даже в случае искажения его логики или внешних манипуляций.

Google подчёркивает, что надёжная защита требует не противопоставления алгоритмических правил и ИИ, а их объединения, чтобы избежать потенциальных катастрофических сценариев, включая использование ИИ в целях кибератак.