Не словом, а кодом. Как организовать защиту LLM без потерь производительности?

Вебинар пройдёт 31 июля в 11:00.


fadynijnomottjlvk08rct87onlkbcyl.jpg


Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология - тем больше она интересна злоумышленникам.

На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:

  • Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
  • Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API.
  • Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
  • Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
  • Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.
Обязательно рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам:

  • Продвинутая валидация запросов/ответов
  • Интерпретируемость (Interpretability) и прозрачность LLM
  • Детекция аномалий и др.
Необходимость защищать LLM уже реальность — регистрируйтесь .