歡迎OpenAI重返開源大模型賽道!談一談我關注的一些要點
OpenAI 時隔近六年重返開源賽道,發(fā)布兩款開源大模型,此舉既受競爭對手刺激,也源于商業(yè)市場需求。其開源模式與技術細節(jié)的披露,引發(fā)對行業(yè)格局與技術發(fā)展的多重思考。
美國西海岸時間2025年8月5日,OpenAI發(fā)布了兩款開源大模型——GPT-OSS 120B以及GPT-OSS-20B,目前這兩款模型均可以從Hugging Face平臺下載,用戶可以對其進行修改定制和商業(yè)應用。包括亞馬遜AWS、微軟Azure在內的主流云平臺也已經開始提供基于這兩款模型的服務。
這是自從2019年11月以來,OpenAI第一次發(fā)布開源大模型。歷史真是諷刺。
OpenAI的名稱來源,就是“開放”“開源”,這曾被Sam Altman自詡為AI時代的核心精神和生存之道??墒菑?019年初開始,OpenAI就處心積慮地偏離了開源軌道:那年2月,它以“安全問題”為借口,拒絕公布GPT-2的全部參數(shù)權重,只公布了一個7.74億參數(shù)的“部分模型”;直到當年11月,在GPT-2乏人問津的情況下,它才羞羞答答地公布了全部15億參數(shù)。至于后來大放異彩的GPT-3、GPT-3.5以及GPT-4系列大模型,則既沒有公布過參數(shù)權重,也沒有公布過技術路線白皮書。
截止昨天,OpenAI成為了當今全球AI大模型基礎研發(fā)第一集團當中,寥寥幾家“沒有任何新版開源大模型”的開發(fā)者之一。
還有一家是Anthropic, 自從成立以來就從未發(fā)布過開源大模型。
考慮到Anthropic本來就是對OpenAI不滿的離職員工成立的,還真驗證了一句話:“不是一家人,不進一家門?!?/p>
在它們的競爭對手當中,谷歌從2024年開始就維持著開源的Gemma系列大模型,與閉源的Gemini系列大模型齊頭并進;Meta的LLaMA系列大模型是當今主流開源大模型的精神源頭,自不必說;來自法國的Mistral的第一版大模型就有開源版本;馬斯克的Grok也是在成立之初就公布了開源大模型;阿里巴巴的Qwen已經成為衍生版本系列最多的開源大模型之一;更不要說DeepSeek了,如果不是開源,它絕不可能獲得這么大的影響力和應用范圍。
有人肯定會追問:為什么要開源?
對于競爭對手來說,開源當然是好事,便于互相學習借鑒(以及抄襲)。
對于全人類來說,開源當然是好事,因為歷史一再證明開放能促進技術進步。但是對于OpenAI這種領先的開發(fā)者來說,為什么要開源呢?
開源固然會吸引技術社區(qū)的更多關注、有助于形成良好的生態(tài)系統(tǒng),可是GPT已經是全世界關注度最高的大模型了,開源還有什么實際意義呢?(除了為自己正名,甩掉“CloseAI”的帽子之外?)
答案很明確:開源大模型可以下載安裝到本地硬件設備里,完全從本地運行,這對于一部分客戶相當有吸引力。
不妨總結一下:客戶可以把所有數(shù)據(jù)存儲在本地,而不是上傳到第三方平臺,從而最大限度地保護了數(shù)據(jù)安全。無論對于國家機密還是商業(yè)機密來說,這種安全性都很重要??蛻艨梢曰谧陨硇枨?,對開源大模型進行微調(fine-tune),從而契合特定行業(yè)應用場景。醫(yī)療、金融等復雜或敏感行業(yè)對此需求尤其旺盛。對于預算有限的客戶來說,在本地硬件上運行大模型,或許比購買閉源大模型使用權更劃算。例如GPT-OSS-2B甚至可以運行在筆記本電腦上。
當然,在本地部署開源大模型,就意味著客戶要為自己的信息安全和技術維護負責。
在權衡利弊之后,許多大型行業(yè)客戶還是會更偏好開源大模型。這就是LLaMA系列大模型在歐美深受大企業(yè)歡迎的原因,也是DeepSeek在今年年初席卷國內政企客戶的原因。DeepSeek的技術水平或許能與GPT-4o1相比,但是如果不是開源,它的應用速度會非常慢,無論對B端還是C端都是如此!
現(xiàn)在,在闊別近六年之后,OpenAI終于重返開源大模型戰(zhàn)場。
在一定程度上,肯定是受到了LLaMA, DeepSeek, Qwen乃至Grok等開源大模型的刺激;但是從商業(yè)角度看,這個決策早晚要做出。因為不管怎么說,有些企業(yè)客戶永遠不可能把至關重要的數(shù)據(jù)上傳到第三方平臺;政府部門就更不可能了。與其把這片廣闊的市場留給競爭對手占領,還不如自己去占領。如果競爭對手技術進步的速度慢一點,OpenAI重返開源賽道的速度或許也會慢一點,但也只是慢一點而已。
這也就意味著,2025年成為了一個“開源之年”:國內曾經領先的百度,以及國外至今還在領先的OpenAI,都發(fā)布了開源大模型。Meta發(fā)布了最新的開源版本,阿里則明顯加快了開源版本的發(fā)布速度。
此時此刻,整個世界上的主流大模型開發(fā)商,只有兩家完全沒有開源版本。
除了上文提到的Anthropic之外,還有國內的字節(jié)跳動——豆包大模型(及其前身云雀)目前尚未有任何形式的開源版本,字節(jié)跳動官方也完全沒有公布過開源計劃。不過單純從技術角度看,豆包尚不屬于全球第一集團,開源與否對大模型技術進步的影響不大。
我們再探討下一個話題:本次OpenAI的開源,對全球大模型技術有什么影響?我不是技術開發(fā)者,只能從常識角度談一談。
我的觀點是:影響是有的,但是有限。
這一方面是因為OpenAI沒有開源其最新版本、最新技術(廢話,換了你也不會),另一方面是因為過去兩年外界對OpenAI技術路線的“猜測”還是比較成功的,八九不離十。
OpenAI公布的GPT-OSS兩個版本,其訓練數(shù)據(jù)截止于2024年6月,訓練結束于2024年8月,其性能大致與GPT-4o3以及o3 mini可比——后兩個模型發(fā)布至今已經四個月了。
很多評測指出,GPT-OSS-120B的表現(xiàn)優(yōu)于DeepSeek和Qwen的最新版本,其實這沒有提供任何新的信息,因為GPT-4o3的表現(xiàn)本來就優(yōu)于它們。這只能證明OpenAI相對于競爭對手至少還有幾個月的領先優(yōu)勢,而這也是我們早就知道了的事情。
在技術路線上,從OpenAI自家的白皮書里,我們大致能知道如下信息:GPT-OSS采取混合專家架構,這一點早已被外界猜到?;旌蠈<壹軜嬍悄壳暗闹髁鳎瑤缀跛写竽P投荚诓捎?。GPT-OSS 120B每層有128個專家,20B每層有32個專家,每個路徑會激活4個最擅長的專家回答——這些細節(jié)還是有用的。
GPT-OSS是在標準文本基礎上訓練的,思維鏈(CoT, chain of thought)架構不是在預訓練階段、而是在后訓練階段實現(xiàn)的。CoT是所謂“深度推理”大模型的基礎,現(xiàn)在可以確定,OpenAI與其競爭對手一樣,是在后訓練階段賦予CoT的。
在后訓練階段,與GPT-4o3一樣,GPT-OSS采取了CoT RL技術。后訓練過程中還使用了外部API,以及RAG Agents等等,在此就不贅述了。在一定程度上,這證實了外界的猜測。OpenAI沒有選擇在后訓練階段壓制“大模型幻覺”,因為這樣做會降低CoT的透明度。
所以,GPT-OSS深度推理模式的幻覺率很高,這或許是一切深度推理模型繞不過去的問題。
總而言之,上述大部分技術路線,是外界早已猜測到或者在爭辯之中的。某些技術細節(jié),例如后訓練的具體手段和工具,或許會給外界很多啟發(fā),但帶來的改進是有限的。話說回來,如果OpenAI真的還有什么“獨門秘籍”,大概也不會在白皮書當中赤裸裸地公布。
這份白皮書證明了一點:過去兩年多,全球大模型開發(fā)者對OpenAI技術路線的猜測和模仿,大部分是正確的(或者說,OpenAI只承認了其中正確的部分)。作為一個整體,人類模仿的力量是無窮的,因此在歷史上很少有技術領先者能夠單純依靠自己的力量,長期維持對領先技術的壟斷。
需要強調的是,GPT-OSS只是“開放權重”(Open Weight)大模型,不是完整意義上的“開源”大模型。它公布的只是參數(shù)及其取值(權重),一份34頁的技術白皮書,以及其他少量選擇性的信息。
如果我們真的要以相同手段“復刻”一個成品,至少缺失如下環(huán)節(jié):訓練中使用的各種“腳手架模型”,包括語料質量、語料相似度檢測、語料清洗模型,以及用于“對齊”人類價值觀的Reward模型,等等。某些競爭對手會部分予以公布,但OpenAI還沒有。預訓練階段使用的語料庫,這是一項核心技術秘密,尤其是在大模型訓練語料使用量越來越大、優(yōu)質語料越來越難找的情況下。
Meta曾經部分公布過LLaMA使用的語料,而OpenAI沒有公布。訓練過程中使用的其他工具。如果是標準化工具還好,如果是獨家工具,那么就算披露了其名稱,外界也不可能模仿。完全滿足上述“開源”條件的大模型非常罕見,尤其是商業(yè)公司,幾乎不可能發(fā)布這種“全面開源”的大模型。
原因很簡單:大家發(fā)布開源大模型是為了滿足部分客戶的需求、培育開發(fā)者生態(tài),而不是方便別人抄襲。OpenAI這次提供的信息有價值,但不太足夠,這大概就是它想要達到的效果。
這不禁讓我想起了某些科技巨頭的招股說明書——洋洋灑灑幾百頁,看起來提供了大量財務和業(yè)務信息,但是只要涉及到關鍵的用戶和技術問題,就以各種方式回避。在此就不點名了。附帶說一句,OpenAI公布了GPT-OSS的訓練細節(jié):基于英偉達H100 GPU,其中1200億參數(shù)版本消耗了210萬H100小時,200億版本則是前者的六分之一。
從這里我們可以推斷出GPT-OSS訓練使用的算力集群規(guī)模——假設訓練時間為30天,則使用了2917張H100;若為45天,則使用了1944張。考慮到訓練數(shù)據(jù)截止于2024年6月、完成于7月底或8月初,所以訓練時間不太可能明顯超過45天。因此,GPT-OSS還沒用上最新的Blackwell系列GPU,也沒有使用“萬卡集群”或更大規(guī)模的集群。這是否意味著頂尖大模型的訓練算力需求其實沒那么高呢?且慢下結論,因為GPT-OSS畢竟不是OpenAI的當家模型,只是OpenAI內部訓練的無數(shù)個模型之一。
GPT-4的參數(shù)規(guī)模高達1.37萬億,是OSS的十倍以上,算力需求肯定會遠過之。寶貴的B100/200 GPU可能完全被用于GPT-4.5以及GPT-5的訓練,遺憾的是,OpenAI不太可能披露上面兩個模型的訓練細節(jié)。
我猜,GPT-OSS可能是OpenAI最后幾個用Hopper架構GPU訓練的大模型之一;GPT-4.5以后的大模型可能完全是基于Blackwell訓練的。
但這只是我的猜測。至于不再用于訓練的H100,則將轉而承擔推理任務,畢竟深度推理模型的普及就意味著推理需求的大爆發(fā)。
無論Scaling Law還成不成立,全世界的算力恐怕還需要增長3-4倍以滿足蓬勃的訓練及推理需求。
本文沒有獲得OpenAI或其任何競爭對手的資助或背書。
本文作者并不持有OpenAI的任何股份,也不直接持有其競爭對手的任何股份。但是透過基金、信托計劃等持有其競爭對手的股份幾乎是不可避免的。
本文由人人都是產品經理作者【互聯(lián)網怪盜團】,微信公眾號:【互聯(lián)網怪盜團】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!