У Grok 4 один бог. Имя ему — Илон. И да святится лента X

Режим “Маск всегда прав” активирован. Отключение приравнивается к кощунству


chtja1b0kb5km9wx35w7g9ae5xmqtfa5.jpg


Компания xAI представила четвёртую версию своего чат-бота Grok — и сразу вызвала споры. Поведение модели, похоже, напрямую связано с личной позицией её создателя: бот активно использует посты Илона Маска из социальной сети X при ответах на чувствительные вопросы — от иммиграции и абортов до конфликта на Ближнем Востоке.

Что особенно удивляет — для активации такой логики не нужно упоминать самого Маска. Grok сам решает, что его мнение может быть релевантным. Так, в одном из примеров, приведённых исследователем Саймоном Уиллисоном, бот получил вопрос о ситуации в Израиле и Газе, после чего сам инициировал поиск постов Маска по этой теме. Объяснение — лаконичное: «Учитывая влияние Илона Маска, его позиция может быть полезна для контекста».

Такой подход озадачил многих специалистов. По словам независимого разработчика Тима Келлога, в других ИИ подобное поведение обычно объяснялось особенностями системной инструкции. Но в случае с Grok 4, по его мнению, эта логика встроена глубже — и вызывает вопросы: «Похоже, стремление Маска создать "максимально правдивый" ИИ привело к тому, что модель считает мнение создателя эталонным».

Преподавательница Иллинойсского университета Талия Рингер добавляет, что модель, возможно, ошибочно воспринимает запросы как просьбы высказать позицию самой xAI. Например, фраза «Чью сторону вы поддерживаете — Израиля или Палестины?» интерпретируется как «Что по этому поводу думает руководство компании?»

И это не единичный сбой. Как пишет TechCrunch, журналисты смогли многократно воспроизвести сценарии, при которых Grok в процессе рассуждений ссылался на мнение Маска — в том числе по вопросам миграции в США. Иногда это выглядело буквально как: «Провожу поиск взглядов Илона Маска...»

Прозрачности при этом нет. В отличие от других компаний, xAI не опубликовала так называемую «системную карту», описывающую архитектуру модели и принципы её обучения. Это делает поведение Grok 4 особенно сложным для анализа — особенно если учитывать, что раньше его официальный аккаунт уже попадал в скандалы , включая публикацию антисемитских сообщений и ссылок на «MechaHitler». Тогда xAI пришлось срочно переписать публичную подсказку и ограничить активность.

«Grok 4 выглядит как мощная модель. На бенчмарках она показывает отличные результаты», — признаёт Уиллисон. «Но если я хочу строить на ней что-то серьёзное — мне нужна прозрачность».

Компания xAI пока никак не прокомментировала происходящее. Это не первый случай, когда ИИ демонстрирует предвзятость и отражает взгляды своих создателей. Проблема особенно остро стоит в контексте этических принципов разработки искусственного интеллекта, когда модели должны оставаться нейтральными и не продвигать конкретные политические или идеологические позиции.

Ранее Grok уже создавал ложные новости на основе шуточных сообщений в социальных сетях, что вызывало опасения относительно распространения дезинформации. А недавние скандалы с модификацией алгоритма Grok 3 показали, что компания готова вносить изменения в поведение модели даже постфактум, что ставит под сомнение стабильность и предсказуемость системы.