Злой близнец ChatGPT за 100 евро — теперь каждый может стать киберпреступником
NewsMakerBreachForums продаёт совесть ИИ по подписке.
Согласно отчёту Cato Networks, что киберпреступники продолжают активно использовать LLM-модели в своих атаках. В частности, речь идёт о версиях моделей Grok и Mixtral , которые были умышленно модифицированы, чтобы обходить встроенные ограничения и генерировать вредоносный контент.
Как выяснилось, одна из таких модифицированных версий Grok появилась на популярном теневом форуме BreachForums ещё в феврале 2025 года. Её разместил пользователь под псевдонимом keanu. Инструмент представляет собой обёртку оригинальной модели Grok и управляется с помощью специально прописанного системного промпта. Именно через него авторы добиваются того, чтобы модель игнорировала защитные механизмы и генерировала фишинговые письма, вредоносный код и инструкции по взлому.
Вторая модифицированная модель, основанная на Mixtral — продукте французской компании Mistral AI , — также была обнаружена на BreachForums. Её выложил другой пользователь форума под ником xzin0vich в октябре. Обе модели доступны для покупки любому желающему в даркнете.
Стоит отметить, что ни xAI, ни Mistral AI не дали официальных комментариев о том, как их разработки оказались в распоряжении киберпреступников.
По словам Cato Networks, подобные модификации не являются уязвимостью самих моделей Grok или Mixtral. Речь идёт о злоупотреблении принципом системного промпта, который определяет поведение нейросети. Когда злоумышленник отправляет свой запрос, он становится частью общего диалога с моделью, включая тот самый промпт, который и задаёт инструкции для обхода ограничений.
Специалисты подчеркнули, что подобных «разблокированных» версий становится всё больше. Вокруг них постепенно формируются целые теневые экосистемы, основанные преимущественно на открытых LLM. С их помощью киберпреступники получают доступ к мощным инструментам, позволяющим значительно упростить создание фишинга, вредоносного ПО и других атакующих сценариев.
Особую сложность для борьбы с этим трендом создаёт тот факт, что Mixtral распространяется как полностью открытая модель. Это позволяет злоумышленникам запускать её на собственных серверах и открывать к ней API-доступ для других участников даркнета. Продукты на базе Grok теоретически контролируются самой xAI, но даже здесь отслеживание и блокировка злоупотреблений превращаются в игру в «кошки-мышки».
Ситуация осложняется тем, что такие инструменты давно вышли за рамки локальных сборок. Первые версии подобных продуктов, известные как WormGPT , появились в даркнете ещё в июне 2023 года. Тогда генеративный ИИ, основанный на открытой модели от EleutherAI , быстро стал известен после расследования журналиста Брайана Кребса. Несмотря на то что оригинальную версию вскоре заблокировали, её аналоги с названиями вроде FraudGPT и EvilGPT стали массово распространяться на теневых форумах.
Цены на такие инструменты варьируются от 60 до 100 евро в месяц, а за приватные сборки и индивидуальные настройки просят около 5000 евро. По данным Cato Networks, киберпреступники всё чаще привлекают специалистов по ИИ для создания собственных версий таких моделей. При этом, как показало исследование, зачастую речь идёт не о самостоятельной разработке с нуля, а о модификации уже существующих нейросетей.
Отраслевые специалисты отмечают, что рынок «разблокированных» LLM огромен. На даркнете уже доступны сотни подобных моделей, включая те, что построены на базе DeepSeek . Основной приём, который используют злоумышленники, — это манипуляции с промптами. Исторические ссылки, умелая перефразировка или скрытые конструкции помогают обмануть ИИ и заставить его генерировать вредоносный контент. Главная угроза кроется не столько в технических уязвимостях, сколько в том, как быстро преступники учатся использовать ИИ для повышения эффективности атак, ускоряя подготовку и точность их реализации.
По мнению специалистов, текущие защитные меры явно недостаточны. Более того, на теневых форумах уже наблюдается зарождение рынка «джейлбрейка как услуги», когда готовые взломанные нейросети можно получить без необходимости разбираться в технических деталях.

Согласно отчёту Cato Networks, что киберпреступники продолжают активно использовать LLM-модели в своих атаках. В частности, речь идёт о версиях моделей Grok и Mixtral , которые были умышленно модифицированы, чтобы обходить встроенные ограничения и генерировать вредоносный контент.
Как выяснилось, одна из таких модифицированных версий Grok появилась на популярном теневом форуме BreachForums ещё в феврале 2025 года. Её разместил пользователь под псевдонимом keanu. Инструмент представляет собой обёртку оригинальной модели Grok и управляется с помощью специально прописанного системного промпта. Именно через него авторы добиваются того, чтобы модель игнорировала защитные механизмы и генерировала фишинговые письма, вредоносный код и инструкции по взлому.
Вторая модифицированная модель, основанная на Mixtral — продукте французской компании Mistral AI , — также была обнаружена на BreachForums. Её выложил другой пользователь форума под ником xzin0vich в октябре. Обе модели доступны для покупки любому желающему в даркнете.
Стоит отметить, что ни xAI, ни Mistral AI не дали официальных комментариев о том, как их разработки оказались в распоряжении киберпреступников.
По словам Cato Networks, подобные модификации не являются уязвимостью самих моделей Grok или Mixtral. Речь идёт о злоупотреблении принципом системного промпта, который определяет поведение нейросети. Когда злоумышленник отправляет свой запрос, он становится частью общего диалога с моделью, включая тот самый промпт, который и задаёт инструкции для обхода ограничений.
Специалисты подчеркнули, что подобных «разблокированных» версий становится всё больше. Вокруг них постепенно формируются целые теневые экосистемы, основанные преимущественно на открытых LLM. С их помощью киберпреступники получают доступ к мощным инструментам, позволяющим значительно упростить создание фишинга, вредоносного ПО и других атакующих сценариев.
Особую сложность для борьбы с этим трендом создаёт тот факт, что Mixtral распространяется как полностью открытая модель. Это позволяет злоумышленникам запускать её на собственных серверах и открывать к ней API-доступ для других участников даркнета. Продукты на базе Grok теоретически контролируются самой xAI, но даже здесь отслеживание и блокировка злоупотреблений превращаются в игру в «кошки-мышки».
Ситуация осложняется тем, что такие инструменты давно вышли за рамки локальных сборок. Первые версии подобных продуктов, известные как WormGPT , появились в даркнете ещё в июне 2023 года. Тогда генеративный ИИ, основанный на открытой модели от EleutherAI , быстро стал известен после расследования журналиста Брайана Кребса. Несмотря на то что оригинальную версию вскоре заблокировали, её аналоги с названиями вроде FraudGPT и EvilGPT стали массово распространяться на теневых форумах.
Цены на такие инструменты варьируются от 60 до 100 евро в месяц, а за приватные сборки и индивидуальные настройки просят около 5000 евро. По данным Cato Networks, киберпреступники всё чаще привлекают специалистов по ИИ для создания собственных версий таких моделей. При этом, как показало исследование, зачастую речь идёт не о самостоятельной разработке с нуля, а о модификации уже существующих нейросетей.
Отраслевые специалисты отмечают, что рынок «разблокированных» LLM огромен. На даркнете уже доступны сотни подобных моделей, включая те, что построены на базе DeepSeek . Основной приём, который используют злоумышленники, — это манипуляции с промптами. Исторические ссылки, умелая перефразировка или скрытые конструкции помогают обмануть ИИ и заставить его генерировать вредоносный контент. Главная угроза кроется не столько в технических уязвимостях, сколько в том, как быстро преступники учатся использовать ИИ для повышения эффективности атак, ускоряя подготовку и точность их реализации.
По мнению специалистов, текущие защитные меры явно недостаточны. Более того, на теневых форумах уже наблюдается зарождение рынка «джейлбрейка как услуги», когда готовые взломанные нейросети можно получить без необходимости разбираться в технических деталях.