7,5 трлн токенов, 256К контекста и CLI: Qwen3-Coder справляется с задачами, где другие сходят с ума
NewsMakerКоманда Qwen представила новую модель для генерации и сопровождения кода.
Команда Qwen представила Qwen3-Coder — новую модель для генерации и сопровождения кода, ориентированную на агентные сценарии использования. Это самая мощная кодовая модель Qwen на сегодняшний день, поддерживающая взаимодействие с инструментами, браузером и длительные рабочие сессии. Главная модификация — Qwen3-Coder-480B-A35B-Instruct — представляет собой Mixture-of-Experts модель с 480 миллиардами параметров, из которых активно задействуются 35 миллиардов.
Модель нативно обрабатывает до 256 тысяч токенов в контексте, а при помощи методов экстраполяции — до миллиона. Это делает её особенно пригодной для анализа репозиториев , pull request'ов и других сценариев, где требуется масштабируемая память и долговременный контекст. По результатам тестов, Qwen3-Coder достигает новых рекордов среди открытых моделей в задачах Agentic Coding, включая автоматизированное использование браузера и инструментов. По уровню способностей она сопоставима с Claude Sonnet 4 .
Одновременно команда представила Qwen Code — командную оболочку для выполнения агентных задач программирования. Инструмент создан на основе Gemini Code, но адаптирован под специфику Qwen3-Coder: с поддержкой собственных подсказок, протоколов вызова функций и SDK OpenAI. Установка доступна через npm или из исходников на GitHub.
Qwen3-Coder опирается на масштабную предобучающую выборку — 7,5 трлн токенов, 70% из которых приходится на код. Качество данных было дополнительно повышено за счёт очистки и переписывания с помощью предыдущей версии модели — Qwen2.5-Coder.
В ходе дообучения команда сделала акцент на reinforcement learning (обучение с подкреплением). Ставка сделана не на задачи соревновательного кодирования, а на «трудные, но легко проверяемые» практические задачи, где результат можно подтвердить автотестами. Эта методика позволила повысить точность исполнения кода и улучшила обобщающие способности модели.
Особое внимание уделено обучению с длинным горизонтом (long-horizon RL) — ключевому для симуляции инженерной деятельности, например, в бенчмарке SWE-Bench. Для этого была создана система, способная параллельно обрабатывать до 20 тысяч окружений, развёрнутая на Alibaba Cloud. Такой масштаб позволил успешно обучать Qwen3-Coder в агентных сценариях взаимодействия с инструментами и планирования действий.
Модель также совместима с альтернативной CLI-оболочкой Claude Code, в том числе через собственный proxy API или через конфигуратор claude-code-router. Наконец, интеграция поддерживается и в Cline — окружении с OpenAI-совместимым API и пользовательским базовым URL от Dashscope.
Полный текст оригинального анонса доступен на официальной странице Qwen и в репозитории модели.

Команда Qwen представила Qwen3-Coder — новую модель для генерации и сопровождения кода, ориентированную на агентные сценарии использования. Это самая мощная кодовая модель Qwen на сегодняшний день, поддерживающая взаимодействие с инструментами, браузером и длительные рабочие сессии. Главная модификация — Qwen3-Coder-480B-A35B-Instruct — представляет собой Mixture-of-Experts модель с 480 миллиардами параметров, из которых активно задействуются 35 миллиардов.
Модель нативно обрабатывает до 256 тысяч токенов в контексте, а при помощи методов экстраполяции — до миллиона. Это делает её особенно пригодной для анализа репозиториев , pull request'ов и других сценариев, где требуется масштабируемая память и долговременный контекст. По результатам тестов, Qwen3-Coder достигает новых рекордов среди открытых моделей в задачах Agentic Coding, включая автоматизированное использование браузера и инструментов. По уровню способностей она сопоставима с Claude Sonnet 4 .
Одновременно команда представила Qwen Code — командную оболочку для выполнения агентных задач программирования. Инструмент создан на основе Gemini Code, но адаптирован под специфику Qwen3-Coder: с поддержкой собственных подсказок, протоколов вызова функций и SDK OpenAI. Установка доступна через npm или из исходников на GitHub.
Qwen3-Coder опирается на масштабную предобучающую выборку — 7,5 трлн токенов, 70% из которых приходится на код. Качество данных было дополнительно повышено за счёт очистки и переписывания с помощью предыдущей версии модели — Qwen2.5-Coder.
В ходе дообучения команда сделала акцент на reinforcement learning (обучение с подкреплением). Ставка сделана не на задачи соревновательного кодирования, а на «трудные, но легко проверяемые» практические задачи, где результат можно подтвердить автотестами. Эта методика позволила повысить точность исполнения кода и улучшила обобщающие способности модели.
Особое внимание уделено обучению с длинным горизонтом (long-horizon RL) — ключевому для симуляции инженерной деятельности, например, в бенчмарке SWE-Bench. Для этого была создана система, способная параллельно обрабатывать до 20 тысяч окружений, развёрнутая на Alibaba Cloud. Такой масштаб позволил успешно обучать Qwen3-Coder в агентных сценариях взаимодействия с инструментами и планирования действий.
Модель также совместима с альтернативной CLI-оболочкой Claude Code, в том числе через собственный proxy API или через конфигуратор claude-code-router. Наконец, интеграция поддерживается и в Cline — окружении с OpenAI-совместимым API и пользовательским базовым URL от Dashscope.
Полный текст оригинального анонса доступен на официальной странице Qwen и в репозитории модели.