Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
NewsMakerВебинар пройдёт 31 июля в 11:00.
Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология - тем больше она интересна злоумышленникам.
На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:

Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология - тем больше она интересна злоумышленникам.
На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:
- Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
- Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API.
- Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
- Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
- Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.
- Продвинутая валидация запросов/ответов
- Интерпретируемость (Interpretability) и прозрачность LLM
- Детекция аномалий и др.