Введение: Китайский флагман открытого ИИ, который нельзя игнорировать
В динамичном мире больших языковых моделей (LLM) имя Qwen от китайского гиганта Alibaba звучит все громче. Если изначально эта нейросеть находилась в тени таких монстров, как GPT от OpenAI, то сегодня она не просто догоняет, но и по ряду направлений серьезно опережает конкурентов. Qwen — это не одна модель, а целое семейство, отличающееся невероятной универсальностью, мощной поддержкой множества языков, включая русский, и, что критически важно, открытостью своих архитектур.
Команда NeuroManual провела глубокий анализ Qwen, чтобы дать вам не поверхностный обзор, а экспертный взгляд на технологию, способную изменить ваш подход к работе с текстом и кодом. В этой первой статье мы сосредоточимся на истории становления Qwen и его текстовых возможностях, которые уже сегодня составляют реальную конкуренцию лучшим мировым аналогам.
История и разработчик: От Tongyi Qianwen до глобального Qwen
Путь Qwen к его текущему статусу одного из лидеров открытого ИИ был стремительным и полным стратегических решений.
Разработчик: Alibaba Cloud
Создателем Qwen является Alibaba Group, известная большинству по площадке AliExpress. Однако именно ее технологическое подразделение Alibaba Cloud стоит за разработкой нейросети. Изначально представленная в апреле 2023 года под названием Tongyi Qianwen, что можно перевести как «Искренний вопрос от общего разума», модель была быстро переименована в Qwen для глобального рынка. Изначально Qwen, как и многие другие ранние модели, была основана на архитектуре LLaMA от Meta.
Эволюция моделей: От Qwen к Qwen 3
Alibaba придерживается агрессивной стратегии обновлений, постоянно выпуская новые, более мощные версии своих моделей. К сентябрю 2025 года история выглядит следующим образом:
- Qwen (апрель 2023): Первая бета-версия, заложившая основу.
- Qwen 2 (июнь 2024): Значительный шаг вперед, в котором стала активно использоваться архитектура Mixture of Experts (MoE), позволяющая модели «привлекать» разных внутренних «экспертов» для решения разных задач, что повышает эффективность.
- Qwen 2.5 (2024): Промежуточное крупное обновление, которое привлекло внимание западных пользователей, особенно после выхода версии Qwen 2.5-Max в январе 2025 года, которая уже тогда на равных конкурировала с GPT-4o и DeepSeek-V3.
- Qwen 3 (апрель 2025): Текущее флагманское поколение, представляющее собой «полноценный технологический скачок». Оно включает в себя целую линейку моделей с параметрами от 0,6 до 235 миллиардов, поддерживает 119 языков и обладает гибридной системой рассуждений.
Философия открытости
Ключевым фактором успеха Qwen стала стратегия открытости исходного кода. Alibaba выложила в открытый доступ более 100 различных моделей семейства, которые были загружены более 40 миллионов раз. Это создало огромную экосистему разработчиков и исследователей, которые дообучают и адаптируют модели под свои нужды.
Основные текстовые и кодовые возможности
Qwen — это комбайн для работы с информацией. Его возможности выходят далеко за рамки простого чата.
Генерация и обработка текста
- Многоязычие: Модель поддерживает 119 языков, включая русский, что обеспечивает высокое качество генерации и понимания контекста.
- Креативное и деловое письмо: Создание статей, сценариев, бизнес-планов, отчетов и маркетинговых материалов.
- Резюмирование и анализ: Модель способна обрабатывать контекст до 1 миллиона токенов в своих продвинутых версиях, что позволяет ей работать с целыми книгами, объемными техническими заданиями или крупными кодобазами.
Продвинутая генерация кода
Это одна из сильнейших сторон Qwen. Для этих целей существует специальная линейка моделей Qwen Coder.
- Написание и оптимизация кода: Генерация кода на десятках языков программирования по текстовому описанию.
- Отладка и объяснение: Поиск ошибок, их исправление и детальное объяснение логики работы участков кода.
- Агентное кодирование: Флагманская модель Qwen3-Coder-480B-A35B-Instruct способна действовать как автономный агент: она может самостоятельно взаимодействовать с инструментами разработчика и решать сложные задачи в масштабе всего репозитория благодаря контекстному окну до 256K токенов (расширяемому до 1M).
Режимы рассуждений (Thinking Modes)
Одна из ключевых инноваций Qwen 3 — это гибридная система рассуждений:
- Режим мышления (Thinking Mode): Модель показывает цепочку своих размышлений, что идеально подходит для решения сложных математических, логических задач и отладки кода. Пользователь может наблюдать, как ИИ приходит к ответу.
- Режим без мышления (Non-Thinking Mode): Модель выдает только конечный ответ, что максимально быстро и эффективно для рутинных задач, таких как перевод или простые запросы.
Пример промпта для режима мышления:
«Реши следующую математическую задачу, подробно расписывая каждый шаг своих рассуждений в режиме мышления: ‘У Васи есть 30 яблок. Он отдал 1/3 другу, а затем 25% от оставшихся съел. Сколько яблок у него осталось?'»


Вывод Qwen: Модель начнет с высказываний типа «Хорошо, давай решим эту задачу шаг за шагом. У Васи изначально 30 яблок. Сначала он отдает 1/3 другу. Нужно посчитать, сколько это яблок… «, и так далее, пока не придет к финальному ответу.
Преимущества и недостатки
Преимущества
- Мощь и универсальность: Флагманские модели Qwen стабильно входят в топ-3 по таким дисциплинам, как логика (reasoning) и генерация кода, опережая DeepSeek-R1 и GPT-4o.
- Открытая архитектура: Возможность локального развертывания и тонкой настройки, что критично для корпораций, concerned about конфиденциальности.
- Бесплатность: На момент написания статьи основная функциональность в веб-интерфейсе остается бесплатной, что является огромным преимуществом для частных пользователей и стартапов.
- Длинный контекст: Способность обрабатывать до 128K (в Qwen 3) и даже до 1 млн токенов (в Qwen-3 Max) выводит анализ данных на новый уровень.
Недостатки и ограничения
- «Галлюцинации»: Как и любая LLM, Qwen может генерировать правдоподобную, но ложную информацию, хотя в новых версиях эта проблема становится менее выраженной.
- Непостоянство результатов генерации: Особенно в меньших моделях (например, с 3B параметрами) качество генерации кода может быть низким, а ответы — нестабильными.
- Ограниченность актуальных знаний: База знаний модели может иметь временную границу, и она не всегда знает о самых свежих событиях, если не используется функция веб-поиска.
Практическое применение и примеры
Пример 1: Генерация кода на Python
Промпт:
«Напиши на Python функцию, которая принимает на вход список чисел и возвращает словарь с ключами ‘mean’ (среднее значение), ‘median’ (медиана) и ‘mode’ (мода). Не используй встроенные библиотеки для статистики.»

Описание вывода Qwen:
Модель генерирует хорошо структурированную функцию. Она корректно обрабатывает логику нахождения медианы (сортировка списка и выбор среднего элемента) и моды (используя словарь для подсчета частот). Код сопровождается краткими комментариями, объясняющими ключевые шаги.
Пример 2: Сравнительный анализ для программиста
В одном из экспериментов, описанных на Habr, пользователь протестировал способность Qwen и ChatGPT перевести код проверки СНИЛС с VB на C#, учитывая смещение нумерации индексов. И ChatGPT, и Qwen изначально допустили ошибку в формуле, но после уточняющего промпта оба нашли и исправили ее. При этом автор отметил, что для локального запуска 32B-версии Qwen требуются значительные вычислительные ресурсы (например, RTX 3080 Ti не справляется эффективно), в то время как меньшие 14B-версии показали менее стабильные результаты.
Стоимость и API
Для разработчиков и бизнеса Alibaba предоставляет доступ к моделям через API.
- Общая модель Qwen2.5-72B-Instruct: Цена составляет $1 за миллион входящих токенов и $5 за миллион исходящих токенов при контексте до 32K.
- Специализированные модели: Стоимость может варьироваться. Например, для флагманской модели Qwen3-235B-A22B через платформу SiliconFlow цена составляет $1.42 за миллион исходящих и $0.35 за миллион входящих токенов.
- Бесплатный доступ: Через официальный веб-интерфейс chat.qwenlm.ai можно бесплатно пользоваться такими моделями, как Qwen2.5-Plus и Qwen2.5-Max. Для регистрации достаточно почты или аккаунта Google/GitHub.
Перспективы развития
Будущее Qwen видится в нескольких ключевых направлениях:
- Углубление агентных возможностей: Модели будут все больше походить на автономных ассистентов, способных выполнять сложные многошаговые задачи в реальном мире.
- Специализация: Создание еще более узкоспециализированных моделей для конкретных отраслей: юриспруденции, медицины, финансов.
- Оптимизация эффективности: Развитие архитектур MoE для дальнейшего снижения стоимости и увеличения скорости inference без потери качества.
Заключение
Текстовая и кодовая составляющие Qwen представляют собой зрелую, мощную и конкурентоспособную экосистему. Сочетание высокой производительности, открытости, бесплатного доступа и агрессивной стратегии развития делает Qwen не просто «еще одной нейросетью», а серьезным игроком, с которым приходится считаться лидерам рынка. Для разработчиков, исследователей и компаний, ищущих альтернативу закрытым моделям вроде GPT, Qwen на сегодняшний день является одним из самых предпочтительных вариантов.
Перед тем как перейти к мультимодальным возможностям Qwen во второй статье, команда NeuroManual рекомендует вам лично опробовать его на специализированных задачах, особенно в области программирования. Высока вероятность, что вы приятно удивитесь результату.
Ключевых отличий несколько: Qwen изначально разрабатывалась как более открытая модель с возможностью локального развертывания; она предлагает уникальные режимы мышления; многие ее мощные версии остаются бесплатными для общего пользования, а по некоторым тестам на генерацию кода и логику она показывает результаты, превосходящие последние модели OpenAI.
Да, на момент осени 2025 года основная функциональность в веб-интерфейсе Qwen Chat, включая доступ к продвинутым текстовым моделям, является бесплатной. Ограничения либо отсутствуют, либо весьма либеральны.
Русский язык является одним из ключевых среди 119 поддерживаемых. Модель демонстрирует глубокое понимание нюансов, грамматики и контекста, что позволяет ей уверенно генерировать и обрабатывать тексты на русском.
Для задач кодирования созданы специальные модели серии Coder. Для простых задач хватит qwen2.5-coder-7b, для более сложных — qwen2.5-coder-32b. Флагманом же является Qwen3-Coder-480B-A35B-Instruct, предназначенная для агентной работы с целыми репозиториями.
Полностью — нет, как и все современные LLM. Однако в новых версиях, таких как Qwen-3 Max, разработчики заявляют о существенно сниженной частоте «галлюцинаций» и повышенной точности фактов. Критическое восприятие ответов и их перепроверка остаются необходимыми.