經(jīng)過(guò)后訓(xùn)練的模型,例如 Qwen3-30B-A3B,以及它們的預(yù)訓(xùn)練基座模型(如 Qwen3-30B-A3B-Base),現(xiàn)已在 Hugging Face、ModelScope 和 Kaggle 等平臺(tái)上開(kāi)放使用。對(duì)于部署,我們推薦使用 SGLang 和 vLLM 等框架;而對(duì)于本地使用,像 Ollama、LMStudio、MLX、llama.cpp 和 KTransformers 這樣的工具也非常值得推薦。這些選項(xiàng)確保用戶可以輕松將 Qwen3 集成到他們的工作流程中,無(wú)論是用于研究、開(kāi)發(fā)還是生產(chǎn)環(huán)境。

Qwen3 的發(fā)布和開(kāi)源將極大地推動(dòng)大型基礎(chǔ)模型的研究與開(kāi)發(fā)。其目標(biāo)是為全球的研究人員、開(kāi)發(fā)者和組織賦能,幫助他們利用這些前沿模型構(gòu)建創(chuàng)新解決方案。

目前,全球開(kāi)發(fā)者、研究機(jī)構(gòu)和企業(yè)均可免費(fèi)在魔搭社區(qū)、HuggingFace等平臺(tái)下載模型并商用,也可以通過(guò)阿里云百煉調(diào)用Qwen3的API服務(wù)。個(gè)人用戶可立即通過(guò)通義APP直接體驗(yàn)Qwen3,夸克也即將全線接入Qwen3。

核心亮點(diǎn)

多種思考模式

Qwen3 模型支持兩種思考模式:

1. 思考模式:在這種模式下,模型會(huì)逐步推理,經(jīng)過(guò)深思熟慮后給出最終答案。這種方法非常適合需要深入思考的復(fù)雜問(wèn)題。

2. 非思考模式:在此模式中,模型提供快速、近乎即時(shí)的響應(yīng),適用于那些對(duì)速度要求高于深度的簡(jiǎn)單問(wèn)題。

這種靈活性使用戶能夠根據(jù)具體任務(wù)控制模型進(jìn)行“思考”的程度。例如,復(fù)雜的問(wèn)題可以通過(guò)擴(kuò)展推理步驟來(lái)解決,而簡(jiǎn)單的問(wèn)題則可以直接快速作答,無(wú)需延遲。至關(guān)重要的是,這兩種模式的結(jié)合大大增強(qiáng)了模型實(shí)現(xiàn)穩(wěn)定且高效的“思考預(yù)算”控制能力。如上文所述,Qwen3 展現(xiàn)出可擴(kuò)展且平滑的性能提升,這與分配的計(jì)算推理預(yù)算直接相關(guān)。這樣的設(shè)計(jì)讓用戶能夠更輕松地為不同任務(wù)配置特定的預(yù)算,在成本效益和推理質(zhì)量之間實(shí)現(xiàn)更優(yōu)的平衡。

多語(yǔ)言

Qwen3 模型支持 119 種語(yǔ)言和方言。這一廣泛的多語(yǔ)言能力為國(guó)際應(yīng)用開(kāi)辟了新的可能性,讓全球用戶都能受益于這些模型的強(qiáng)大功能。

增強(qiáng)的 Agent 能力

Qwen3 模型優(yōu)化了Agent 和代碼能力,同時(shí)也加強(qiáng)了對(duì) MCP 的支持。下面我們將提供一些示例,展示 Qwen3 是如何思考并與環(huán)境進(jìn)行交互的。

分享到

崔歡歡

相關(guān)推薦