DoNews9月24日消息,繼 Qwen3-2507 系列發(fā)布之后,阿里云今天宣布推出 Qwen3-Max —— 通義團(tuán)隊(duì)迄今為止規(guī)模最大、能力最強(qiáng)的語(yǔ)言模型。
Qwen3-Max-Instruct 正式版在代碼能力和智能體能力方面進(jìn)一步提升,在涵蓋知識(shí)、推理、編程、指令遵循、人類(lèi)偏好對(duì)齊、智能體任務(wù)和多語(yǔ)言理解的全面基準(zhǔn)測(cè)試中均達(dá)到業(yè)界領(lǐng)先水平。
通義團(tuán)隊(duì)表示,仍在訓(xùn)練中的 Qwen3-Max-Thinking 已展現(xiàn)出非凡潛力,預(yù)計(jì)在不久的將來(lái)向公眾正式發(fā)布這一版本。據(jù)介紹,在結(jié)合工具使用并增加測(cè)試時(shí)計(jì)算資源的情況下,該“思考”版本已在 AIME 25、HMMT 等高難度推理基準(zhǔn)測(cè)試中取得 100% 的準(zhǔn)確率。
據(jù)阿里介紹,Qwen3-Max 模型總參數(shù)超過(guò) 1T,預(yù)訓(xùn)練使用了 36T tokens。模型結(jié)構(gòu)沿用了 Qwen3 系列的模型結(jié)構(gòu)設(shè)計(jì)范式,使用了 global-batch load balancing loss。
訓(xùn)練穩(wěn)定性:得益于 Qwen3 的 MoE 模型結(jié)構(gòu)設(shè)計(jì),Qwen3-Max 的預(yù)訓(xùn)練 loss 穩(wěn)定平滑。訓(xùn)練過(guò)程一氣呵成,沒(méi)有任何 loss 尖刺,也沒(méi)有使用訓(xùn)練回退、改變數(shù)據(jù)分布等調(diào)整策略。
訓(xùn)練高效性:在 PAI-FlashMoE 的高效多級(jí)流水并行策略?xún)?yōu)化下,Qwen3-Max-Base 訓(xùn)練效率顯著提升,其 MFU 相比 Qwen2.5-Max-Base 相對(duì)提升 30%。
在長(zhǎng)序列訓(xùn)練場(chǎng)景中,進(jìn)一步使用 ChunkFlow 策略獲得了相比序列并行方案提升 3 倍的吞吐收益,支持 Qwen3-Max 1M 長(zhǎng)上下文的訓(xùn)練。同時(shí),通過(guò) SanityCheck、EasyCheckpoint、調(diào)度鏈路優(yōu)化等多種手段,Qwen3-Max 在超大規(guī)模集群上因硬件故障造成的時(shí)間損失下降為 Qwen2.5-Max 的五分之一。
據(jù)介紹,Qwen3-Max-Instruct 的預(yù)覽版已在 LMArena 文本排行榜上穩(wěn)居全球前三(超越 GPT-5-Chat)。正式發(fā)布版本進(jìn)一步提升了其能力,尤其在代碼生成與智能體表現(xiàn)方面表現(xiàn)卓越。
在專(zhuān)注于解決現(xiàn)實(shí)編程挑戰(zhàn)的基準(zhǔn)測(cè)試 SWE-Bench Verified 上,Qwen3-Max-Instruct 取得了高達(dá) 69.6 分的優(yōu)異成績(jī),穩(wěn)居全球頂尖模型之列。
此外,在評(píng)估智能體工具調(diào)用能力的嚴(yán)苛基準(zhǔn) Tau2-Bench 上,Qwen3-Max-Instruct 更是實(shí)現(xiàn)了突破性表現(xiàn),以 74.8 分超越 Claude Opus 4 與 DeepSeek-V3.1。
Qwen3-Max 的推理增強(qiáng)版本 —— Qwen3-Max-Thinking,通過(guò)集成代碼解釋器并運(yùn)用并行測(cè)試時(shí)計(jì)算技術(shù),展現(xiàn)了前所未有的推理能力,尤其在極具挑戰(zhàn)性的數(shù)學(xué)推理基準(zhǔn)測(cè)試 AIME 25 和 HMMT 上,均取得了滿(mǎn)分。