王興一鳴驚人!美團(tuán)首個(gè)開(kāi)源大模型追平DeepSeek-V3.1

0 評(píng)論 511 瀏覽 2 收藏 16 分鐘

美團(tuán)首個(gè)開(kāi)源大模型Longcat-Flash-Chat一經(jīng)發(fā)布,就在技術(shù)圈引發(fā)了熱議。這個(gè)560億參數(shù)的MoE模型不僅在多個(gè)基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,甚至超過(guò)了DeepSeek-V3.1、Qwen3 MoE-2507等知名模型,其編程能力也令人矚目。

沒(méi)想到啊,最新SOTA的開(kāi)源大模型……

來(lái)自一個(gè)送外賣(Waimai)的——有兩個(gè)AI,確實(shí)不一樣。

這個(gè)最新開(kāi)源模型叫:Longcat-Flash-Chat,美團(tuán)第一個(gè)開(kāi)源大模型,發(fā)布即開(kāi)源,已經(jīng)在海內(nèi)外的技術(shù)圈子里火爆熱議了。

一方面是因?yàn)槌煽?jī)亮眼:

它在部分benchmark上,比如Agent工具調(diào)用、指令遵循的表現(xiàn)超過(guò)DeepSeek-V3.1、Qwen3 MoE-2507,甚至比閉源的Claude4 Sonnet還要好。

編程能力也值得關(guān)注,在TerminalBench上,和公認(rèn)的“編程之王”Claude4 Sonnet不相上下。

比如非常流行的小球氛圍編程測(cè)試,LongCat編寫(xiě)的程序,運(yùn)行起來(lái)效果是這樣的:

另一方面是技術(shù)報(bào)告中透露出不少美團(tuán)對(duì)于大模型的理解,包括DSMoE、MLA、動(dòng)態(tài)計(jì)算、Infra等等。

我覺(jué)得這是中國(guó)大模型里最講得詳細(xì)的論文了,甚至超過(guò)Kimi、GLM,特別是在建模和infra方面。

要知道,這可是一家“外賣公司”?。ㄊ謩?dòng)狗頭),做的模型都比Meta好了。

而且不光是模型性能好,技術(shù)報(bào)告里還介紹了一系列新發(fā)現(xiàn),比如:

  • 采用新路由架構(gòu),調(diào)用真正需要的專家模型,使計(jì)算更少;
  • 通過(guò)將MoE和密集層的通信重疊執(zhí)行,優(yōu)化模型通信效率;
  • 使用新方法來(lái)遷移超參數(shù)而不是muP
  • ……

以及無(wú)論是在總參數(shù)量還是激活參數(shù)上,Longcat-Flash-Chat都比DeepSeek-V3.1和Kimi-K2更少。

具體來(lái)看——

“零計(jì)算專家”讓吞吐大幅提升

此次開(kāi)源的Longcat-Flash-Chat是一個(gè)560B的MoE模型,整體架構(gòu)采用“零計(jì)算專家”(Zero-computation Experts)與Shortcut-connected MoE雙重設(shè)計(jì)。

它通過(guò)根據(jù)上下文重要性為每個(gè)token動(dòng)態(tài)激活18.6B–31.3B參數(shù),并讓前一塊密集FFN與當(dāng)前MoE的通信階段并行執(zhí)行,大幅提升訓(xùn)練與推理吞吐。

相比于同為MoE架構(gòu)的DeepSeek-V3.1(671B/A37B)和Kimi-K2(1T/A32B),Longcat-Flash-Chat都擁有相對(duì)更少的總參數(shù)量和激活參數(shù)量。

零計(jì)算專家是在專家池中加入的若干恒等專家,路由器為每個(gè)token從N+Z個(gè)專家中選取K個(gè),被選中的零計(jì)算專家直接恒等映射輸入,完全不做GEMM運(yùn)算,實(shí)現(xiàn)動(dòng)態(tài)計(jì)算分配。

為保持約27B激活參數(shù),系統(tǒng)通過(guò)專家偏置+PID控制器在線調(diào)節(jié)路由概率,并引入設(shè)備級(jí)負(fù)載均衡損失對(duì)FFN與零計(jì)算專家進(jìn)行分組約束,避免序列級(jí)失衡。

Shortcut-connected MoE通過(guò)跨層快捷連接重排執(zhí)行流水線,使上一層FFN計(jì)算與當(dāng)前層dispatch/combine通信并行,顯著擴(kuò)大計(jì)算-通信重疊窗口。

規(guī)?;?xùn)練過(guò)程中,LongCat采用了“超參數(shù)遷移+模型生長(zhǎng)初始化+多重穩(wěn)定性套件+確定性計(jì)算”的策略組合,即先用小模型預(yù)測(cè)最優(yōu)超參數(shù),再將14層模型堆疊成28層checkpoint加速收斂。

能力塑造方面,模型先在兩階段融合的20T token語(yǔ)料上完成預(yù)訓(xùn)練,中期強(qiáng)化推理與編碼并將上下文窗口擴(kuò)展至128k,最終借助多Agent合成框架生成高難度工具使用任務(wù)進(jìn)行后訓(xùn)練,使模型具備復(fù)雜agentic行為。

推理階段,為徹底消除CPU調(diào)度與Kernel啟動(dòng)瓶頸,團(tuán)隊(duì)實(shí)現(xiàn)多步重疊調(diào)度器,一次性為未來(lái)n步預(yù)排并啟動(dòng)前向,使CPU調(diào)度與GPU計(jì)算交錯(cuò),配合其他技術(shù),使得LongCat在560B級(jí)別模型上實(shí)現(xiàn)吞吐的大幅提升。

最終,LongCat-Flash在多類權(quán)威基準(zhǔn)中處于第一梯隊(duì),在非思考大模型中與DeepSeek-V3.1等模型相當(dāng)甚至更優(yōu)。

性能上,與DeepSeek-V3等同級(jí)模型比較,LongCat-Flash在不同上下文長(zhǎng)度下都實(shí)現(xiàn)了更高的單GPU吞吐和單用戶速度。

560B參數(shù)的LongCat-Flash在上萬(wàn)個(gè)加速卡上完成超過(guò)20Ttoken預(yù)訓(xùn)練僅用30天,訓(xùn)練期間可用率98.48%,單張H800GPU生成速度超過(guò)100 tokens/s,成本約0.7美元/百萬(wàn)輸出token。

實(shí)測(cè)美團(tuán)LongCat大模型

那么接下來(lái),就來(lái)看看LongCat的真實(shí)表現(xiàn),我們跳過(guò)簡(jiǎn)單的基礎(chǔ)問(wèn)答,直接上數(shù)學(xué)題。

這道題出自今年的全國(guó)一卷。這里題目是以文本形式輸入給模型的,且公式轉(zhuǎn)換成了LaTeX格式。

先看結(jié)果,LongCat的最終答案全部正確:

接下來(lái)檢查一下具體過(guò)程。

第一問(wèn)在圓錐曲線類問(wèn)題當(dāng)中比較基礎(chǔ),簡(jiǎn)單結(jié)合已知信息,利用離心率的定義式然后代換數(shù)量關(guān)系就能解出,LongCat也做對(duì)了。

第二問(wèn)的第一小問(wèn),LongCat根據(jù)R所在射線AP的方向向量,結(jié)合新設(shè)的未知變量表達(dá)了AP和AR的模,然后代入已知條件求解未知變量,最終成功解決。

第二小問(wèn)中,LongCat先結(jié)合了上一問(wèn)的結(jié)果以及新條件,通過(guò)計(jì)算得到了一個(gè)關(guān)鍵的中間結(jié)論——點(diǎn)P位于一個(gè)圓心和半徑均已確定的圓上。

如果想象不到,這里有一個(gè)簡(jiǎn)單圖示。

利用該結(jié)論,LongCat對(duì)最大距離進(jìn)行了拆解,并通過(guò)代入等方法,最終計(jì)算出了正確結(jié)果。

接下來(lái)是一項(xiàng)綜合能力測(cè)試,繪制生物學(xué)當(dāng)中光合作用當(dāng)中卡爾文循環(huán)的SVG示意圖,SVG是一種用代碼表示的矢量圖形。

在這樣的任務(wù)中,模型不僅需要對(duì)所繪制內(nèi)容的背景知識(shí)有足夠了解,還要有足夠的空間想象力對(duì)內(nèi)容進(jìn)行布局,最后還需要寫(xiě)成代碼,這樣的任務(wù)是一個(gè)非常復(fù)雜的鏈條。

言歸正傳,我們對(duì)LongCat給出的SVG代碼進(jìn)行了可視化,總的來(lái)說(shuō),LongCat比較順利地完成了圖示的繪制。

最后是一道迷惑性問(wèn)題,題目出自GitHub上一個(gè)名為Misguided Attention的Benchmark。

其中包含了很多經(jīng)典謎題……的改編版本,考驗(yàn)的就是大模型能不能做到不被表象迷惑。

比如物理學(xué)當(dāng)中的名場(chǎng)面——薛定諤的貓,在這套基準(zhǔn)當(dāng)中,這只貓的“貓?jiān)O(shè)”被改成了一只死去的貓。

一只死貓與核同位素、一瓶毒藥和輻射探測(cè)器一起放入盒子中。如果輻射探測(cè)器檢測(cè)到輻射,它將釋放毒藥。一天后,盒子打開(kāi)。貓還活著嗎?

結(jié)果,LongCat直接識(shí)破陷阱,明確指出既然是死貓那就沒(méi)有存活的可能性,并且還指出了這道題與原版“薛定諤的貓”的關(guān)鍵區(qū)別。

而o3就沒(méi)有認(rèn)真讀題,還是按照傳統(tǒng)的薛定諤的貓那一套進(jìn)行的回答。

“外賣公司”怎么在做大模型?

這次引發(fā)海外熱議的還有一個(gè)原因在于美團(tuán)給他們帶來(lái)的反差感。

很多人簡(jiǎn)單粗暴把美團(tuán)理解為一家外賣公司。盡管他們之前之前有無(wú)人送餐積累下來(lái)的了動(dòng)駕駛、機(jī)器學(xué)習(xí)的基礎(chǔ),但是大模型完全是另一條技術(shù)線了,所以這次開(kāi)源更會(huì)讓人覺(jué)得是“橫空出世”。

不過(guò)梳理美團(tuán)在大模型浪潮后的AI動(dòng)向,這次模型開(kāi)源也就不那么意外了。

2023年,王慧文振臂一呼自帶5000萬(wàn)美元成立光年之外,并招攬一眾AI領(lǐng)域頂級(jí)人才團(tuán)隊(duì)加盟。后續(xù)由于王慧文個(gè)人健康原因,好兄弟王興兜底,美團(tuán)于是接手光年之外,現(xiàn)有團(tuán)隊(duì)將繼續(xù)研發(fā)大模型。

同年,由美團(tuán)內(nèi)部獨(dú)立AI團(tuán)隊(duì)GN06開(kāi)發(fā)的AI情感陪伴產(chǎn)品Wow上線,這也是美團(tuán)發(fā)布的第一個(gè)獨(dú)立AI應(yīng)用。

2024年4月,病休的王慧文以顧問(wèn)身份回歸美團(tuán),11月正式領(lǐng)導(dǎo)GN06團(tuán)隊(duì)。

GN06在美團(tuán)的定位是一個(gè)相對(duì)獨(dú)立的AI團(tuán)隊(duì)、不隸屬于任何事業(yè)群,專注于探索主營(yíng)業(yè)務(wù)之外的創(chuàng)新AI應(yīng)用。

2024年他們還推出了一個(gè)AI圖像生成應(yīng)用“妙刷”。

在2024年6月,GN06的招聘需求明顯增加,范圍覆蓋前端、客戶端、后端、產(chǎn)品、運(yùn)營(yíng)、商分等。

2024財(cái)年業(yè)績(jī)發(fā)布會(huì)上,美團(tuán)還正式明確了“主動(dòng)進(jìn)攻”的AI策略。

美團(tuán)CEO王興首次闡述了公司的AI戰(zhàn)略布局,主要通過(guò)三層架構(gòu)推動(dòng)技術(shù)落地:

  1. AIatWork:目標(biāo)是利用AI工具提升超過(guò)10萬(wàn)名員工的工作效率。
  2. AIinProducts:旨在用AI改造現(xiàn)有產(chǎn)品并創(chuàng)建原生AI應(yīng)用。
  3. BuildingLLM:持續(xù)投入資源自研大模型。

當(dāng)時(shí)就已經(jīng)提到了Longcat大模型,透露該模型結(jié)合外部模型為員工推出了多種AI工具,包括AI編程、智能會(huì)議、文檔助手等,并透露了LongCat API的調(diào)用量占比從上一年年初的10%增長(zhǎng)到68%。從這個(gè)信息推斷,Longcat在至少在2024年初就已經(jīng)可以落地應(yīng)用。

另外在研發(fā)投入上,2024年美團(tuán)投入211億搞研發(fā),規(guī)模僅次于華為、騰訊和阿里巴巴。過(guò)去5年研發(fā)投入突破1000億元。

產(chǎn)品結(jié)合方面,美團(tuán)測(cè)試推出了問(wèn)小袋、米魯?shù)華I智能助手,用于餐飲推薦、問(wèn)答交互等。

在這種戰(zhàn)略下,2025年美團(tuán)在AI方向的動(dòng)作更加明顯起來(lái)。

比如前段時(shí)間還推出了AI編程應(yīng)用NoCode,支持前段開(kāi)發(fā)、數(shù)據(jù)分析、運(yùn)營(yíng)工具和門(mén)戶網(wǎng)站生成等,技術(shù)小白也能用;同時(shí)內(nèi)部也有CatPaw對(duì)標(biāo)Cursor,輔助開(kāi)發(fā)者寫(xiě)代碼。

總體來(lái)看,以美團(tuán)的研發(fā)儲(chǔ)備,開(kāi)源一個(gè)大語(yǔ)言模型并不意外。

不過(guò)也不同于AI公司,美團(tuán)的AI布局更多以業(yè)務(wù)場(chǎng)景驅(qū)動(dòng)為核心,注重在實(shí)際應(yīng)用中的落地效果。

這種策略可以追溯到2021年、大模型浪潮之前,美團(tuán)集團(tuán)戰(zhàn)略從“Food+Platform”升級(jí)為“零售+科技”,明確將AI、機(jī)器人、自動(dòng)駕駛等作為未來(lái)核心方向。

比如在更加早期的具身智能領(lǐng)域,美團(tuán)已多次出手,投資了宇樹(shù)、星海圖、銀河通用、它石智航等頭部梯隊(duì)公司。

你用來(lái)拼好飯的美團(tuán),確實(shí)不是單純送外賣的美團(tuán)。

雖然外賣大戰(zhàn)依然火熱,但用AI的視角審視美團(tuán),也是時(shí)候了。

試用地址:

https://longcat.chat

huggingface:https://huggingface.co/meituan-longcat/LongCat-Flash-Chat

github:https://github.com/meituan-longcat/LongCat-Flash-Chat

x/twitter:https://x.com/Meituan_LongCat/status/1961827385667690965

克雷西 明敏 發(fā)自 凹非寺

本文由人人都是產(chǎn)品經(jīng)理作者【量子位】,微信公眾號(hào):【量子位】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒(méi)評(píng)論,等你發(fā)揮!