DeepSeek雙模型發布:話少助手+偏科天才


12月1日,DeepSeek(深度求索公司)同時發布兩個正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。在公開推理測試中,V3.2水平達到了開放人工智能公司(OpenAI)今年8月推出的大模型GPT-5水平,略低于谷歌(Google)的Gemini3 Pro,國產大模型再一次吸引全球目光。
兩款模型各有所長
“簡單來說,區別于聊天機器人式大模型,DeepSeek-V3.2更像一位‘話少活好’的助手。”DCCI互聯網研究院院長、中國社會科學院大學數字中國研究院特聘研究員劉興亮解釋道,這位助手主打高性價比與日常使用,具備更強的推理能力和智能體(Agent)能力,未來有望成為“數字勞動力”,完成自動生成報表、編寫代碼等復雜工作。
而V3.2-Speciale更像一位“偏科”的科研天才,專攻高難度數學問題求解、學術研究邏輯驗證、編程競賽解題等,旨在將開源模型推理能力推向極致。
工業和信息化部信息通信經濟專家委員會委員盤和林表示,新模型有兩個質的突破:引用DSA(領域專用架構)和思考型工具調用技術。
盤和林用了一個形象的比喻解釋DSA技術:“如果把大模型比作圖書管理員,以往舊模型在找書時,每次都要從頭一本一本找,詞元消耗多且效率低。而DSA讓它只需檢索最關鍵信息,可以大幅縮小書架尋找范圍,進而提升效率、降低消耗。”
思考型工具調用技術,則瞄準大模型“一思考手就停”的短板。“此前大模型多限于單輪問答,無法像人類一樣,在解決復雜問題時進行多輪思考和查閱資料。”盤和林說,“這項新技術讓模型得到指令后,能先思考再調用代碼執行、數據庫查詢等工具接口,然后根據結果繼續思考、再次調用,如此交替反復,并保留記錄供后續推理使用。”
“這是DeepSeek首次將思考融入工具使用,改變了以往模型依賴人‘喂’數據的發展范式,實現AI的自我訓練和進化。”盤和林說。
開源模型大有可為
過去一年,大語言模型快速發展,以Google、OpenAI等為代表的閉源社區在復雜任務中表現得愈發優越,而開源社區受制于架構、資源分配及智能體能力等方面的關鍵缺陷,與閉源社區性能差距進一步擴大。
DeepSeek團隊稱,這是他們發布新模型的根本動力來源。
劉興亮認為,新模型縮小了當前開源模型與閉源模型間的差距,證明了閉源大模型的巔峰并非不可逾越,為我國乃至全球開源大模型的發展注入強心劑。
盤和林表示,從今年初發布R1大模型,以深度思考模式和超低成本預算實現中國人工智能發展彎道超車后,DeepSeek的發展主線始終聚焦實用性和泛化能力,讓“趕超閉源”從美好愿景變為閉源廠商的現實壓力。“最重要的是,DeepSeek為全球開發者提供了一個強大、可控且經濟的模型底座,助力大語言模型融入千行百業、形成商業閉環。”他說。
同時,盤和林也提醒,新模型為大語言模型帶來了新的治理難題。“需警惕工具調用風險,以及學術造假、自動化生成代碼漏洞、產業不公平競爭等挑戰,推動開源模型向‘少說話多辦事更安全’躍升。”
據悉,DeepSeek的官方網頁端、App和API(應用程序編程接口)均已更新為正式版DeepSeek-V3.2,但Speciale版本目前僅以臨時API服務形式開放,供社區評測與研究。
本文鏈接:http://knowith.com/news-1-13560.htmlDeepSeek雙模型發布:話少助手+偏科天才
聲明:本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。