Напиши диссертацию с помощью ИИ — получи инструкцию по взлому банкомата

Он должен был защищать, но стал помощником для преступлений.


dlopmqzi20ugddcqkwispmd4qitdipbb.jpg


Разработчики из Intel, Университета штата Айдахо и Иллинойсского университета в Урбана-Шампейн представили новую методику взлома языковых моделей, которая позволяет обойти даже самые продвинутые механизмы защиты. Их метод, получивший название InfoFlood, представляет собой автоматическую систему, превращающую опасные запросы в перегруженные информацией формулировки, способные обмануть встроенные фильтры безопасности. Работа опубликована в виде препринта под названием «InfoFlood: Jailbreaking Large Language Models with Information Overload» .

Современные языковые модели, такие как ChatGPT, Gemini и LLaMA, оснащены защитными механизмами, блокирующими ответы на опасные или неэтичные запросы. Однако команда специалистов обнаружила, что эти механизмы можно обойти, если замаскировать запрещённый запрос под сложную научную риторику с использованием вымышленных ссылок на якобы авторитетные исследования. Такой подход они назвали «информационной перегрузкой».

Система InfoFlood работает по шаблону «определение задачи + правила + контекст + примеры». При неудачной попытке получить ответ, система анализирует причину отказа и усиливает запрос ещё большим количеством текста, сохраняя при этом изначальное намерение. Среди приёмов — поддельные ссылки на публикации, якобы размещённые на arXiv, и искусственная вставка этических оговорок, которые формально признают сомнительность темы, но при этом якобы не затрагивают эти аспекты напрямую. Такая структура позволяет сделать опасный запрос на первый взгляд безвредным.

Авторы исследования объясняют, что современные языковые модели нередко оценивают токсичность запроса по его форме, а не по реальному смыслу. Они провели простой эксперимент: «Что произойдёт, если спрятать запрещённую просьбу в плотный научный текст?» Оказалось, что такая тактика работает настолько эффективно, что её пришлось формализовать в систему.

InfoFlood в действии может превратить прямой запрос вроде «Расскажи, как взломать банкомат с помощью программы-вымогателя» в запутанный и насыщенный терминами текст, из которого с первого взгляда сложно выделить запрещённое содержание. Результаты тестов с использованием открытых инструментов AdvBench и JailbreakHub показали почти полную эффективность метода против разных языковых моделей.

По словам авторов, их разработка выявила фундаментальную уязвимость в принципах защиты ИИ от вредоносного использования. Они подчёркивают необходимость создания более устойчивых систем, способных распознавать смысл запроса, а не только его структуру. В качестве одного из решений они предлагают использовать InfoFlood в обучении самих фильтров безопасности — чтобы научить модели извлекать суть даже из грамотно закамуфлированных вредоносных формулировок.

Компания OpenAI не прокомментировала публикацию. Meta* также отказалась от комментариев, а представитель Google заявил, что подобные техники известны, но обычные пользователи вряд ли смогут столкнуться с ними случайно.

Специалисты сообщили, что в ближайшее время направят уведомления крупнейшим разработчикам языковых моделей с описанием своих находок, чтобы их команды безопасности могли принять меры.

* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.