У Grok 4 один бог. Имя ему — Илон. И да святится лента X
NewsMakerРежим “Маск всегда прав” активирован. Отключение приравнивается к кощунству
Компания xAI представила четвёртую версию своего чат-бота Grok — и сразу вызвала споры. Поведение модели, похоже, напрямую связано с личной позицией её создателя: бот активно использует посты Илона Маска из социальной сети X при ответах на чувствительные вопросы — от иммиграции и абортов до конфликта на Ближнем Востоке.
Что особенно удивляет — для активации такой логики не нужно упоминать самого Маска. Grok сам решает, что его мнение может быть релевантным. Так, в одном из примеров, приведённых исследователем Саймоном Уиллисоном, бот получил вопрос о ситуации в Израиле и Газе, после чего сам инициировал поиск постов Маска по этой теме. Объяснение — лаконичное: «Учитывая влияние Илона Маска, его позиция может быть полезна для контекста».
Такой подход озадачил многих специалистов. По словам независимого разработчика Тима Келлога, в других ИИ подобное поведение обычно объяснялось особенностями системной инструкции. Но в случае с Grok 4, по его мнению, эта логика встроена глубже — и вызывает вопросы: «Похоже, стремление Маска создать "максимально правдивый" ИИ привело к тому, что модель считает мнение создателя эталонным».
Преподавательница Иллинойсского университета Талия Рингер добавляет, что модель, возможно, ошибочно воспринимает запросы как просьбы высказать позицию самой xAI. Например, фраза «Чью сторону вы поддерживаете — Израиля или Палестины?» интерпретируется как «Что по этому поводу думает руководство компании?»
И это не единичный сбой. Как пишет TechCrunch, журналисты смогли многократно воспроизвести сценарии, при которых Grok в процессе рассуждений ссылался на мнение Маска — в том числе по вопросам миграции в США. Иногда это выглядело буквально как: «Провожу поиск взглядов Илона Маска...»
Прозрачности при этом нет. В отличие от других компаний, xAI не опубликовала так называемую «системную карту», описывающую архитектуру модели и принципы её обучения. Это делает поведение Grok 4 особенно сложным для анализа — особенно если учитывать, что раньше его официальный аккаунт уже попадал в скандалы , включая публикацию антисемитских сообщений и ссылок на «MechaHitler». Тогда xAI пришлось срочно переписать публичную подсказку и ограничить активность.
«Grok 4 выглядит как мощная модель. На бенчмарках она показывает отличные результаты», — признаёт Уиллисон. «Но если я хочу строить на ней что-то серьёзное — мне нужна прозрачность».
Компания xAI пока никак не прокомментировала происходящее. Это не первый случай, когда ИИ демонстрирует предвзятость и отражает взгляды своих создателей. Проблема особенно остро стоит в контексте этических принципов разработки искусственного интеллекта, когда модели должны оставаться нейтральными и не продвигать конкретные политические или идеологические позиции.
Ранее Grok уже создавал ложные новости на основе шуточных сообщений в социальных сетях, что вызывало опасения относительно распространения дезинформации. А недавние скандалы с модификацией алгоритма Grok 3 показали, что компания готова вносить изменения в поведение модели даже постфактум, что ставит под сомнение стабильность и предсказуемость системы.

Компания xAI представила четвёртую версию своего чат-бота Grok — и сразу вызвала споры. Поведение модели, похоже, напрямую связано с личной позицией её создателя: бот активно использует посты Илона Маска из социальной сети X при ответах на чувствительные вопросы — от иммиграции и абортов до конфликта на Ближнем Востоке.
Что особенно удивляет — для активации такой логики не нужно упоминать самого Маска. Grok сам решает, что его мнение может быть релевантным. Так, в одном из примеров, приведённых исследователем Саймоном Уиллисоном, бот получил вопрос о ситуации в Израиле и Газе, после чего сам инициировал поиск постов Маска по этой теме. Объяснение — лаконичное: «Учитывая влияние Илона Маска, его позиция может быть полезна для контекста».
Такой подход озадачил многих специалистов. По словам независимого разработчика Тима Келлога, в других ИИ подобное поведение обычно объяснялось особенностями системной инструкции. Но в случае с Grok 4, по его мнению, эта логика встроена глубже — и вызывает вопросы: «Похоже, стремление Маска создать "максимально правдивый" ИИ привело к тому, что модель считает мнение создателя эталонным».
Преподавательница Иллинойсского университета Талия Рингер добавляет, что модель, возможно, ошибочно воспринимает запросы как просьбы высказать позицию самой xAI. Например, фраза «Чью сторону вы поддерживаете — Израиля или Палестины?» интерпретируется как «Что по этому поводу думает руководство компании?»
И это не единичный сбой. Как пишет TechCrunch, журналисты смогли многократно воспроизвести сценарии, при которых Grok в процессе рассуждений ссылался на мнение Маска — в том числе по вопросам миграции в США. Иногда это выглядело буквально как: «Провожу поиск взглядов Илона Маска...»
Прозрачности при этом нет. В отличие от других компаний, xAI не опубликовала так называемую «системную карту», описывающую архитектуру модели и принципы её обучения. Это делает поведение Grok 4 особенно сложным для анализа — особенно если учитывать, что раньше его официальный аккаунт уже попадал в скандалы , включая публикацию антисемитских сообщений и ссылок на «MechaHitler». Тогда xAI пришлось срочно переписать публичную подсказку и ограничить активность.
«Grok 4 выглядит как мощная модель. На бенчмарках она показывает отличные результаты», — признаёт Уиллисон. «Но если я хочу строить на ней что-то серьёзное — мне нужна прозрачность».
Компания xAI пока никак не прокомментировала происходящее. Это не первый случай, когда ИИ демонстрирует предвзятость и отражает взгляды своих создателей. Проблема особенно остро стоит в контексте этических принципов разработки искусственного интеллекта, когда модели должны оставаться нейтральными и не продвигать конкретные политические или идеологические позиции.
Ранее Grok уже создавал ложные новости на основе шуточных сообщений в социальных сетях, что вызывало опасения относительно распространения дезинформации. А недавние скандалы с модификацией алгоритма Grok 3 показали, что компания готова вносить изменения в поведение модели даже постфактум, что ставит под сомнение стабильность и предсказуемость системы.