在线免费av网址|国产第一浮力久久|日本有码中文字幕|国产观看视频免费|亚洲熟女一二三区|久草视频免费网站|丰满熟女在线综合|久久久久久久久肛|草草影院浮力视频|亚洲色图激情国产

DeepSeek-R1 更新,思考更深,推理更強(qiáng)

DoNews5月29日消息,據(jù)DeepSeek官方公眾號透露,DeepSeek R1 模型已完成小版本升級,當(dāng)前版本為 DeepSeek-R1-0528。用戶通過官方網(wǎng)站、APP 或小程序進(jìn)入對話界面后,開啟“深度思考”功能即可體驗最新版本。API 也已同步更新,調(diào)用方式不變。

深度思考能力強(qiáng)化

DeepSeek-R1-0528 仍然使用 2024 年 12 月所發(fā)布的 DeepSeek V3 Base 模型作為基座,但在后訓(xùn)練過程中投入了更多算力,顯著提升了模型的思維深度與推理能力。

更新后的 R1 模型在數(shù)學(xué)、編程與通用邏輯等多個基準(zhǔn)測評中取得了當(dāng)前國內(nèi)所有模型中首屈一指的優(yōu)異成績,并且在整體表現(xiàn)上已接近其他國際頂尖模型,如 o3 與 Gemini-2.5-Pro。

相較于舊版 R1,新版模型在復(fù)雜推理任務(wù)中的表現(xiàn)有了顯著提升。例如在 AIME 2025 測試中,新版模型準(zhǔn)確率由舊版的 70% 提升至 87.5%。這一進(jìn)步得益于模型在推理過程中的思維深度增強(qiáng):在 AIME 2025 測試集上,舊版模型平均每題使用 12K tokens,而新版模型平均每題使用 23K tokens,表明其在解題過程中進(jìn)行了更為詳盡和深入的思考。

同時,蒸餾 DeepSeek-R1-0528 的思維鏈后訓(xùn)練 Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。該 8B 模型在數(shù)學(xué)測試 AIME 2024 中僅次于 DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),與 Qwen3-235B 相當(dāng)。

其他能力更新

幻覺改善:新版 DeepSeek R1 針對“幻覺”問題進(jìn)行了優(yōu)化。與舊版相比,更新后的模型在改寫潤色、總結(jié)摘要、閱讀理解等場景中,幻覺率降低了 45~50% 左右,能夠有效地提供更為準(zhǔn)確、可靠的結(jié)果。

創(chuàng)意寫作:在舊版 R1 的基礎(chǔ)上,更新后的 R1 模型針對議論文、小說、散文等文體進(jìn)行了進(jìn)一步優(yōu)化,能夠輸出篇幅更長、結(jié)構(gòu)內(nèi)容更完整的長篇作品,同時呈現(xiàn)出更加貼近人類偏好的寫作風(fēng)格。

工具調(diào)用:DeepSeek-R1-0528 支持工具調(diào)用(不支持在 thinking 中進(jìn)行工具調(diào)用)。當(dāng)前模型 Tau-Bench 測評成績?yōu)?airline 53.5% / retail 63.9%,與 OpenAI o1-high 相當(dāng),但與 o3-High 以及 Claude 4 Sonnet 仍有差距。?

此外,DeepSeek-R1-0528 在前端代碼生成、角色扮演等領(lǐng)域的能力均有更新和提升。

API 更新

API 已同步更新,接口與調(diào)用方式保持不變。新版 R1 API 仍支持查看模型思考過程,同時還增加了 Function Calling 和 JsonOutput 的支持。

對新版 R1 API 中 max_tokens 參數(shù)的含義做了調(diào)整:現(xiàn)在 max_tokens用于限制模型單次輸出的總長度(包括思考過程),默認(rèn)為 32K,最大為 64K。請 API 用戶及時調(diào)整 max_tokens 參數(shù)以防輸出被提前截斷。

本次 R1 更新后,官方網(wǎng)站、小程序、App 端和 API 中的模型上下文長度仍為 64K。如果用戶對更長的上下文長度有需求,可以通過其他第三方平臺調(diào)用上下文長度為 128K 的開源版本 R1-0528 模型。

模型開源

DeepSeek-R1-0528 與之前的 DeepSeek-R1 使用同樣的 base 模型,僅改進(jìn)了后訓(xùn)練方法。私有化部署時只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相關(guān)變動)。模型參數(shù)為 685B(其中 14B 為 MTP 層),開源版本上下文長度為 128K(網(wǎng)頁端、App 和 API 提供 64K 上下文)。

與舊版本的 DeepSeek-R1 保持一致,此次開源倉庫(包括模型權(quán)重)仍然統(tǒng)一采用 MIT License,并允許用戶利用模型輸出、通過模型蒸餾等方式訓(xùn)練其他模型。

DeepSeek-R1 更新,思考更深,推理更強(qiáng)
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2025 All Rights Reserved
蜀ICP備2024059877號-1