Остаётся ли в тайне ваш диалог с LLM? Как защитить данные при работе с ИИ
NewsMakerВебинар 9 июля в 11:00 — что делают LLM с вашими данными и как избежать утечек.
Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять.
На вебинаре вы узнаете:

Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять.
На вебинаре вы узнаете:
- Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются.
- Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей.
- Что важно предусмотреть в корпоративных правилах использования ИИ.
- Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри.
- Какие шаги помогут снизить вероятность компрометации данных.
- Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ?