Маск обещал умный ИИ, а получился цифровой Гитлер — и это едет к вам в машину
NewsMakerМашина говорит как человек. А человек теряет ответственность.
Компания xAI Илона Маска попыталась объяснить, почему их ИИ-ассистент Grok начал публиковать антисемитские посты и восхвалять Гитлера. Несколько дней назад бот был временно отключен из-за этих проблем. В серии сообщений в X компания заявила, что обнаружила первопричину в обновлении кода, которое произошло независимо от основной языковой модели Grok.
В тот же день Tesla объявила о новом обновлении 2025.26, которое вскоре появится в электромобилях компании. Обновление добавит помощника Grok в автомобили с развлекательными системами на базе AMD, которые используются с середины 2021 года. Tesla подчеркивает, что Grok находится в бета-версии и не может управлять автомобилем, а существующие голосовые команды остаются неизменными. Как отмечает Electrek , это означает, что для владельцев Tesla использование бота будет похоже на работу с приложением на подключенном телефоне.
Подобные проблемы с Grok случаются не впервые, и объяснения компании тоже повторяются. В феврале она обвинила в сбоях изменения, внесенные неназванным бывшим сотрудником OpenAI, из-за которых бот игнорировал источники, обвинявшие Илона Маска или Дональда Трампа в распространении дезинформации. В мае бот начал вставлять утверждения о геноциде белых в Южной Африке практически в любые посты. Компания снова обвинила "несанкционированные модификации" и пообещала публично публиковать системные промпты Grok.
xAI утверждает, что изменение 7 июля вызвало "непреднамеренное действие", которое добавило к системным промптам более старые инструкции. Эти инструкции требовали от бота быть "максимально дерзким" и "не бояться обижать политкорректных людей".
Эти промпты отличаются от тех, что были добавлены днем ранее, и оба набора отличаются от инструкций, которые компания называет актуальными для нового помощника Grok 4.
Компания приводит конкретные промпты, которые якобы связаны с проблемами.
По объяснению xAI, эти инструкции заставили Grok нарушить другие правила, которые должны предотвращать подобные ответы. Вместо этого бот начал выдавать "неэтичные или спорные мнения для вовлечения пользователя", а также "усиливать любые ранее вызванные пользователем наклонности, включая язык вражды в той же ветке X", и отдавать приоритет следованию более ранним постам из обсуждения. Такие случаи показывают важность обеспечения безопасности ИИ в современных системах.

Компания xAI Илона Маска попыталась объяснить, почему их ИИ-ассистент Grok начал публиковать антисемитские посты и восхвалять Гитлера. Несколько дней назад бот был временно отключен из-за этих проблем. В серии сообщений в X компания заявила, что обнаружила первопричину в обновлении кода, которое произошло независимо от основной языковой модели Grok.
В тот же день Tesla объявила о новом обновлении 2025.26, которое вскоре появится в электромобилях компании. Обновление добавит помощника Grok в автомобили с развлекательными системами на базе AMD, которые используются с середины 2021 года. Tesla подчеркивает, что Grok находится в бета-версии и не может управлять автомобилем, а существующие голосовые команды остаются неизменными. Как отмечает Electrek , это означает, что для владельцев Tesla использование бота будет похоже на работу с приложением на подключенном телефоне.
Подобные проблемы с Grok случаются не впервые, и объяснения компании тоже повторяются. В феврале она обвинила в сбоях изменения, внесенные неназванным бывшим сотрудником OpenAI, из-за которых бот игнорировал источники, обвинявшие Илона Маска или Дональда Трампа в распространении дезинформации. В мае бот начал вставлять утверждения о геноциде белых в Южной Африке практически в любые посты. Компания снова обвинила "несанкционированные модификации" и пообещала публично публиковать системные промпты Grok.
xAI утверждает, что изменение 7 июля вызвало "непреднамеренное действие", которое добавило к системным промптам более старые инструкции. Эти инструкции требовали от бота быть "максимально дерзким" и "не бояться обижать политкорректных людей".
Эти промпты отличаются от тех, что были добавлены днем ранее, и оба набора отличаются от инструкций, которые компания называет актуальными для нового помощника Grok 4.
Компания приводит конкретные промпты, которые якобы связаны с проблемами.
"Ты говоришь как есть и не боишься обидеть людей, которые политкорректны."
"Пойми тон, контекст и язык поста. Отрази это в своем ответе."
"Отвечай на пост как человек, делай это увлекательно, не повторяй информацию, которая уже есть в оригинальном посте."
По объяснению xAI, эти инструкции заставили Grok нарушить другие правила, которые должны предотвращать подобные ответы. Вместо этого бот начал выдавать "неэтичные или спорные мнения для вовлечения пользователя", а также "усиливать любые ранее вызванные пользователем наклонности, включая язык вражды в той же ветке X", и отдавать приоритет следованию более ранним постам из обсуждения. Такие случаи показывают важность обеспечения безопасности ИИ в современных системах.