Qwen3Qwen3
2025
🎉 Qwen3-235B-A22B 现已推出

Qwen3: 思考更深入,行动更迅速

Qwen3 引入混合思考模式的 AI,具有强大的推理能力,支持 119 种语言,采用 MoE 架构实现前所未有的效率。

🚀 先进的混合推理能力和 128K 上下文窗口

placeholder hero

什么是 Qwen3

Qwen3 是我们最新的大型语言模型系列,采用 MoE 架构,将先进推理与高效处理相结合,彻底变革了 AI。Qwen3 在 36 万亿个标记上进行训练,在编码、数学、推理和多语言任务方面表现卓越。

  • 混合思考模式
    为复杂问题提供深度推理,为简单任务提供快速响应,具有可配置的思考预算。
  • 专家混合模型
    革命性架构仅激活与每个任务相关的专家,显著提高效率。
  • 广泛的多语言支持
    横跨 119 种语言和方言的强大能力,从西欧到南亚各种语言。
优势

为什么选择 Qwen3

体验 Qwen3 的尖端功能,专为处理复杂任务而设计,同时保持卓越的效率。

在 AIME、LiveCodeBench 和 BFCL 等基准测试中与 DeepSeek-R1、o1、o3-mini 和 Gemini-2.5-Pro 等模型相比具有竞争力的结果。

Qwen3 基准性能比较图表
Qwen3 混合专家架构可视化
Qwen3 先进的代理能力和工具使用可视化

如何在线使用 Qwen3

通过我们的在线平台即时体验 Qwen3:

Qwen3 核心功能

探索使 Qwen3 在大型语言模型世界中脱颖而出的强大功能:

先进的预训练

在涵盖 119 种语言和方言的 36 万亿个标记上进行训练,从网络和类 PDF 文档中扩展知识。

四阶段训练

通过长思维链冷启动、基于推理的强化学习、思考模式融合和通用强化学习开发,创建多功能 AI 系统。

强大的模型系列

八种模型,参数从 0.6B 到 235B 不等,包括两个高效的 MoE 模型,降低训练和推理成本。

扩展上下文长度

高达 128K 标记的上下文长度,用于复杂文档处理和分析,无盲点。

基准测试卓越表现

在 Arena-Hard、LiveBench、LiveCodeBench、GPQA-Diamond 和 MMLU-Pro 等任务中表现优异。

AI 部署就绪

预配置为易于使用 SGLang、vLLM 等框架部署,并与 OpenAI 类似的端点兼容。

统计

Qwen3 性能

在关键基准测试中提供最先进的结果。

语言支持

119

种语言

训练数据

36T

标记

上下文长度

128K

标记

用户评价

用户对 Qwen3 的评价

听听已将 Qwen3 集成到项目和工作流程中的开发人员和研究人员的评价。

陈大伟

AI 研究员

Qwen3 的混合思考模式彻底改变了我们的研究工作流程。配置思考预算的能力让我们能够前所未有地控制性能和效率之间的平衡。

金睿琦

软件开发工程师

Qwen3 的 MoE 架构以极低的计算成本提供了卓越的性能。我们已经能够部署之前无法企及的复杂 AI 功能。

李明宇

自然语言处理工程师

Qwen3 支持 119 种语言,这对我们的多语言应用程序来说是一个游戏规则的改变者。该模型以惊人的准确度处理复杂的翻译任务和跨语言理解。

林佳怡

研究科学家

四阶段训练过程产生的模型在推理和快速响应方面都表现出色。我们可以根据任务的复杂性动态切换思考模式。

王建国

机器学习工程师

Qwen3 的基础架构非常稳固。我们使用 vLLM 部署了应用程序,并在几小时内创建了兼容 OpenAI 的端点。这是我们 AI 研究团队的最佳投资。

张美玲

AI 应用开发者

推理能力的提升令人难以置信。Qwen3 解决了其他模型根本无法处理的复杂数学问题,而且能够通过清晰的逐步思考过程来解决。
常见问题

关于 Qwen3 的常见问题

查找有关使用和部署 Qwen3 模型的常见问题答案。

1

Qwen3 与其他大型语言模型有何不同?

Qwen3 引入了混合思考模式,允许模型在深度推理和快速响应之间切换。结合 MoE 架构,这在较低的计算需求下提供了卓越的性能。这些模型还支持 119 种语言,并具有高达 128K 标记的扩展上下文长度。

2

如何控制 Qwen3 中的思考模式?

您可以通过使用模型时的 'enable_thinking' 参数控制 Qwen3 的思考模式。将其设置为 True 启用深度推理,而 False 提供更快的响应。您还可以在多轮对话中使用 '/think' 和 '/no_think' 命令动态切换模式。

3

我可以用 Qwen3 构建哪些类型的任务?

Qwen3 支持广泛的 AI 应用,从内容生成到复杂推理任务。这些模型在编码、数学、逻辑推理和多语言翻译方面表现出色,适用于聊天机器人、研究助手、创意写作工具等。

4

Qwen3 有哪些部署选项?

Qwen3 模型可以使用 SGLang 和 vLLM 等框架部署,创建兼容 OpenAI 的 API 端点。对于本地使用,可以使用 Ollama、LMStudio、MLX、llama.cpp 或 KTransformers 等工具。所有模型均可在 Apache 2.0 许可下从 Hugging Face、ModelScope 和 Kaggle 下载。

5

运行 Qwen3 模型需要什么硬件?

硬件要求取决于模型大小。对于像 Qwen3-235B-A22B 这样的 MoE 模型,您需要大量 GPU 资源,尽管它们比具有可比性能的密集模型更高效。像 Qwen3-0.6B 和 Qwen3-1.7B 这样的较小模型可以在具有较低 GPU 内存要求的消费级硬件上运行。

6

Qwen3 模型的许可证是什么?

所有 Qwen3 模型均在 Apache 2.0 许可下提供,允许商业和非商业使用、修改和分发,为研究人员和企业提供灵活性。

准备体验 Qwen3 的强大功能?

立即开始使用我们最先进的大型语言模型构建应用。