Deepseek的“一小步”——一文為你全面介紹Deepseek V3.1新版本的更新、使用情況及意義

0 評論 969 瀏覽 1 收藏 13 分鐘

Deepseek V3.1 看似只是一次版本迭代,實(shí)則是邁向“通用智能”的關(guān)鍵一步。本文全面解析新版本的能力提升、使用場景與背后意義,幫助你理解這款國產(chǎn)大模型如何在技術(shù)演進(jìn)中穩(wěn)扎穩(wěn)打,走出自己的節(jié)奏。

Deepseek V3.1的發(fā)布

8月19日,Deepseek團(tuán)隊(duì)官方宣布名為Deepseek V3.1的版本更新,并于2天后正式官方發(fā)文。作為國產(chǎn)AI的“杠把子”,向來低調(diào)的Deepseek團(tuán)隊(duì)任何的動作都注定會引來各方關(guān)注。在下不才,經(jīng)過這些天的集中式搜集,希望能夠在本文為各位朋友全面介紹本次Deepseek V3.1,包括都有哪些更新,分別意味著什么,坊間對于本次更新又有哪些夸贊與吐槽。甚至你會看到,本次Deepseek更新是如何僅憑一句話,就推動了8月22日國產(chǎn)芯片股的集體暴漲。

Deepseek V3.1 更新了什么

在最開始的8月19日,Deepseek在其官方群里宣布了線上模型版本已升級至V3.1。從下面的截圖我們可以看到,關(guān)于Deepseek V3.1 的更新內(nèi)容,最開始Deepseek的宣傳點(diǎn)是“上下文長度拓展至128k”。但一直關(guān)注Deepseek的各種人士都知道,此前的Deepseek的開源版本早已支持128K上下文,只是官方僅開放至64K,現(xiàn)在算是對齊了。

應(yīng)該說,上下文長度提升對于日常使用的體驗(yàn)肯定是有所提升的。不過,以Deepseek“不鳴則已,一鳴驚人”的性格,斷然是不會因?yàn)檫@么一點(diǎn)更新就刷一個(gè)新的版本號(要知道,之前像V3-0324,R1-0528這么大的更新,也就刷了個(gè)日期號)。于是,各方人馬紛紛開始了各種體驗(yàn)。

果然,兩天后的Deepseek官方發(fā)文,口徑就發(fā)生了變化,稱之為“邁向 Agent 時(shí)代的第一步”(確實(shí),只有這么個(gè)級別的更新,才配得上一次版本號更新)。我們具體來看看,這回Deepseek V3.1版本除了前面的“上下文長度拓展至128k”,都有哪些更新。

官方文章在開篇就給出了三點(diǎn)。第一點(diǎn),混合推理架構(gòu)。我們知道,此前Deepseek的模型,按照推理和非推理,是分為R1和V3兩個(gè)模型的。這次版本,Deepseek團(tuán)隊(duì)就將這兩個(gè)模型進(jìn)行了合并,也就是一個(gè)模型同時(shí)支持思考模式與非思考模式。不過它和GPT-5的自動路由機(jī)制不同。GPT-5是模型自己根據(jù)用戶的提問來判斷是否要調(diào)用推理模型,而DeepseekV3.1依然是用戶控制。

盡管我們都不是AI方面的技術(shù)專家。但也不難猜測,要將兩個(gè)獨(dú)立的AI模型合并應(yīng)該不是一件簡易的事。那為什么Deepseek團(tuán)隊(duì)要費(fèi)勁合并兩個(gè)模型呢?那肯定是因?yàn)椤笆找娲笥诟冻觥甭?,這就得提到后續(xù)的第二點(diǎn)、第三點(diǎn)了。

首先是更高的思考效率。按照官方的說法,“經(jīng)過思維鏈壓縮訓(xùn)練后,V3.1-Think 在輸出 token 數(shù)減少 20%-50% 的情況下,各項(xiàng)任務(wù)的平均表現(xiàn)與 R1-0528 持平”,“同時(shí),V3.1 在非思考模式下的輸出長度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能夠在輸出長度明顯減少的情況下保持相同的模型性能”。

思考效率的提升直接帶來的收益就是API價(jià)格的下降,這對于各大開發(fā)者就是實(shí)打?qū)嵉摹皫图胰藗儼褍r(jià)格打下來”了。我們來對比一下,Deepseek的API價(jià)格變化。

國外也有用戶匯總整理了各個(gè)主流模型的性價(jià)比,從下表中可以看到,Deepseek V3.1的性價(jià)比同樣名列前茅。

然后是更重要的,更強(qiáng)的Agent能力。AI Agent這個(gè)名詞已多次出現(xiàn)在我們過往的討論當(dāng)中,它的本質(zhì)之一就是AI大模型能夠自行根據(jù)需要,合理地調(diào)用各類工具來解決復(fù)雜問題。在官方析出的材料中,包含了涉及編程、工具調(diào)用、網(wǎng)頁瀏覽、終端操作等多個(gè)衡量智能體能力的基準(zhǔn)測評結(jié)果。從結(jié)果來看,本次DeepseekV3.1在這些測評中的表現(xiàn)對比之前的版本都有顯著提升,這些都為構(gòu)建更強(qiáng)大的AI智能體應(yīng)用提供了更多的可能性。

編程智能體:

搜索智能體:

介紹完官方宣傳中最主要的三項(xiàng)更新,還有一處信息我需要特別指出的,那就是藏在文章中的這一句話“需要注意的是,DeepSeek-V3.1 使用了 UE8M0 FP8 Scale 的參數(shù)精度”。這里的“UE8M0 FP8 Scale”是AI模型部署到算力硬件時(shí)的一種壓縮技術(shù),能夠有效地降低模型大小和計(jì)算成本,同時(shí)保持模型的性能和精度。Deepseek官方專門在評論區(qū)留言補(bǔ)充道“UE8M0 FP8是針對即將發(fā)布的下一代國產(chǎn)芯片設(shè)計(jì)”,也就是說,這是下一代國產(chǎn)芯片專用的技術(shù)。就是這一句話直接推動22號大A國產(chǎn)芯片股的集體上漲,“寒王”寒武紀(jì)更是在此前的高股價(jià)下直接20%漲停。之前坊間一直就有流轉(zhuǎn)Deepseek的下一代R2模型會全面適配采用國產(chǎn)算力芯片,這下算是實(shí)錘了二者的深度綁定。

對于Deepseek V3.1的夸贊與吐槽

在距離此次V3.1發(fā)布的一周多后,我利用Deepseek總結(jié)了目前網(wǎng)絡(luò)上用戶對于這次新版本的使用感受,并按“夸贊”和“吐槽”進(jìn)行分類。

我們先來看看“夸贊”的內(nèi)容,其實(shí)基本上與這次版本的更新內(nèi)容是重疊的,因此我們也不作展開論述。

  • 模型推理速度更快,這一點(diǎn)我個(gè)人也有體會,體感上有大約10%-20%的提速。
  • Agent(智能體)能力增強(qiáng),編程能力提升顯著。
  • 上下文長度從64K擴(kuò)展到128K,能更好地處理長文本和復(fù)雜邏輯任務(wù)。
  • 成本效益高,輸入/輸出token價(jià)格有所降低。
  • 接下來我們重點(diǎn)來看看關(guān)于這次更新的一些吐槽。
  • 使用問題:網(wǎng)上就有部分用戶反饋使用新模型時(shí)“感覺”更容易出現(xiàn)幻覺,這可以說是Deepseek的一個(gè)恒久問題了。個(gè)別用戶也反饋遇到過翻譯時(shí)偶爾會漏詞的表現(xiàn)。
  • 生成預(yù)期以外的內(nèi)容:部分用戶反映生成內(nèi)容中不必要的中英文混雜現(xiàn)象有所增多。代碼生成中曾出現(xiàn)隨機(jī)插入“極/極/extreme”等token的離譜Bug,影響編譯(關(guān)于這個(gè)問題,騰訊的CodeBuddy稱已經(jīng)和DeepSeek團(tuán)隊(duì)取得聯(lián)系,確認(rèn)將在最近的一個(gè)版本中進(jìn)行修復(fù))。
  • API更替策略激進(jìn):DeepSeek選擇用V3.1直接覆蓋舊版API,且不提供舊版本訪問途徑,這直接就引起了部分B端用戶的投訴。對于這一點(diǎn)我十分能夠理解,因?yàn)檎{(diào)試適配一個(gè)AI模型本來就要花費(fèi)不少工夫,而且有不少調(diào)試可能就是針對模型的某個(gè)版本定制的。直接覆蓋舊版API,可能會讓原本穩(wěn)定的AI應(yīng)用受到穩(wěn)定性和兼容性的影響。而B端客戶最怕的就是“服務(wù)的不穩(wěn)定不可靠”。

說實(shí)在的,外網(wǎng)對DeepSeek V3.1的整體評價(jià)仍然是積極占主導(dǎo),吐槽方面不算多。如果硬要再補(bǔ)一條,那就是“期待落空”。即傳說中的R2推理模型還是沒見著,用戶提到像多模態(tài)能力仍然缺失,在功能全面性有所不足。這方面基本上跟我之前一次關(guān)于R2的可能更新方向是重疊的。

總結(jié):Deepseek的“一小步”

DeepSeek-V3.1的混合推理架構(gòu)被視為大模型發(fā)展的一個(gè)重要方向。它標(biāo)志著行業(yè)競賽的重點(diǎn)正從一味追求參數(shù)規(guī)模,轉(zhuǎn)向如何更精巧地整合多種能力于一體,并在性能、速度、成本之間找到最佳平衡點(diǎn)。

此外,模型的Agent能力也將會是后續(xù)重點(diǎn)發(fā)展的方向。Agent能力指向的是AI模型解決復(fù)雜問題的能力,這一點(diǎn)從這次Deepseek官方的宣傳點(diǎn)“邁向Agent時(shí)代的第一步”便可得知,畢竟,得先有“Agent時(shí)代”存在,才有“邁向第一步”這么一說嘛。

還有就是對于國產(chǎn)芯片的支持。在AI三要素——模型、數(shù)據(jù)、算力——當(dāng)中,算力是目前我們依然被卡脖子的、亟待突破的領(lǐng)域。而Deepseek推動“軟硬結(jié)合”的做法,有助于打破卡脖子,推動我國AI產(chǎn)業(yè)建立從底層芯片、算法框架到上層應(yīng)用的閉環(huán)體系。

我將V3.1的更新稱為Deepseek的“一小步”,無論是混合推理模型、Agent能力、國產(chǎn)芯片軟硬結(jié)合,都是面向未來卻又充滿未知的領(lǐng)域。這些探索,可能成功,亦可能失敗,但我們不能也不甘于永遠(yuǎn)都在AI行業(yè)充當(dāng)一個(gè)“追趕者”的角色,總需要有人去到這些領(lǐng)域嘗試開拓。

愿Deepseek的“一小步”,能成為國產(chǎn)AI的“一大步”。

作者:產(chǎn)品經(jīng)理崇生,公眾號:崇生的黑板報(bào)

本文由作者原創(chuàng)投稿/授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自 unsplash,基于CC0協(xié)議

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!