副刊

封面

周日話題:DeepSeek迷思逐個解

【明報專訊】約兩星期前,中國AI 企業DeepSeek 推出了最新語言模型DeepSeek-R1。這家鮮為人知的公司憑藉極低的成本訓練出與OpenAI最先進模型o1相媲美的產品,引發了業界廣泛關注。不僅迅速登上各地應用商店的排行榜首位,甚至影響了股市,並引起了國際政治層面的討論。然而,關於DeepSeek-R1的討論中,仍存在許多誤解與錯誤資訊。本文希望以簡單易懂的方式,釐清部分技術概念,並回應一些常見的質疑。

DeepSeek成立於2023年,雖然是AI領域的新秀,但其技術表現卓越,尤其以高性價比模式聞名。其背後團隊來自中國量化交易公司「幻方量化」,這類企業與AI技術淵源甚深,因為量化交易與語言模型在本質上皆是預測未來的數據運算技術。因此,DeepSeek擁有強大的技術積累與運算資源,早期便開始囤積GPU以支撐AI 模型的研發。

抄襲OpenAI的爭議

有些人將DeepSeek視為ChatGPT的簡陋抄襲品,甚至認為DeepSeek完全盜用了ChatGPT的源代碼,這種說法並不正確。DeepSeek的技術實力毋庸置疑,且其研究成果完全開源,包括模型權重與代碼,允許任何研究者自行驗證其成果,相較於高度保密的OpenAI,反而更符合「開放AI」的理念。關於部分用戶發現DeepSeek會誤將自己識別為ChatGPT,這其實是數據清理不完善所導致的問題,而非直接抄襲OpenAI的模型。類似的現象在其他AI模型也曾發生。

同時,OpenAI指控DeepSeek使用「蒸餾」(distillation)技術,利用其模型輸出來訓練自家模型。這種技術讓開發者透過更強大的模型輸出,提升小型模型的效能。雖然OpenAI的服務條款明確禁止用戶「利用OpenAI的輸出訓練競爭模型」,但OpenAI也曾因訓練數據的採集方式備受爭議,部分人認為其指控DeepSeek的立場站不住腳。在AI訓練數據的倫理問題上,大多數AI公司都會使用其他AI模型的輸出來進行訓練,這在業界並不罕見。即使DeepSeek確實蒸餾了OpenAI模型,也只是讓這一行業內的潛規則變得公開透明。

言論審查的爭議

DeepSeek另一項常見的爭議是其言論審查機制,特別是在涉及中國政治敏感話題時,模型會以官方口吻回應或直接拒絕回答。這主要源於兩個層面:

應用層面:所有在中國運營的AI產品均需遵守當地法規,因此官方應用程式內建審查機制,這在中國市場幾乎無可避免。然而,由於R1會顯示思考過程,有時仍可見到未經篩選的回應。

模型層面:即使透過API或本地化部署DeepSeek-R1,仍可能遇到審查限制。這是因為當前主流AI訓練過程包含強化學習與人工標註,而AI公司通常會在最後一步設定特定的價值觀與行為準則,中國AI企業則會進一步納入政治敏感詞的過濾機制。不過,這類審查往往可以透過特定提示詞(prompt engineering)繞過,甚至已有開源社群提供無審查版本的R1供下載與使用。

這種審查機制就像是在AI模型前加裝了一道「自動門禁」,當使用者試圖進入某些領域時,這道門會根據預設規則決定是否開放通行。實際上,模型本身具備回答這些問題的能力,但這層「門禁」會過濾並修改回應,使其符合政策要求,就像一位嚴格的編輯對文章進行審核,以確保內容符合既定標準,而非模型技術上的限制。

成本的爭議

關於DeepSeek-R1的訓練成本,媒體經常引用「僅550萬美元」以及「比OpenAI便宜98%」這兩個數據。然而,實際情况較為複雜。550萬美元的數據來自DeepSeek-V3的訓練成本,而非R1,且DeepSeek並未正式宣稱自己以如此低的成本達到OpenAI o1的水準。

DeepSeek 的低成本主要來自以下因素﹕

•採用了Mixture-of-Experts(MoE)架構,提升計算效率

•使用Multi-Head Latent Attention(MLA)進行鍵值快取(KV Cache)壓縮,降低推理時的記憶體使用

•使用Multi-Token Prediction(MTP)一次預測多個輸出token,加速文本生成

•創新的Group Relative Policy Optimization(GRPO)強化學習算法,提高訓練效率

這些技術讓DeepSeek在降低計算成本的同時保持強大性能,提升了模型的推理與訓練效率。

雖然DeepSeek在訓練模型期間透過各種優化技術有效降低了成本,這確實令人印象深刻,但其整體研發投入(包括基礎設施、硬體採購、數據處理、人力成本等)並不會比其他AI實驗室少太多。此外,媒體常引用的「98%便宜」實際上指的是DeepSeek API的定價相較於OpenAI API的價格差異,而非模型的訓練成本。

違反出口管制的爭議

DeepSeek在資源有限的情况下成功開發出頂尖AI模型,這引發了部分業界人士的質疑。例如,Scale AI創辦人Alexandr Wang曾指控DeepSeek擁有50,000張美國禁運的H100 GPU。然而,這一說法近日得到澄清:該數字源自權威半導體分析機構SemiAnalysis的報告,指出DeepSeek很可能擁有50,000張NVIDIA Hopper系列GPU。然而,Hopper系列還包括未被列入禁運清單的H800和H20等產品。

即使50,000張GPU並非全部為H100,部分網友仍對DeepSeek是否真的擁有如此大規模的GPU表示懷疑。根據報道,幻方量化每年盈利約為數億美元,而購買50,000張Hopper系列GPU可能涉及數十億美元的投資,這使得外界認為DeepSeek難以負擔如此龐大的採購規模。

更直觀的說法是,DeepSeek如其所聲稱,僅依賴2048張H800 GPU完成訓練。H800與H100的主要區別在於,H100的頻寬比H800高出五倍。由於訓練模型需要大量GPU進行並行運算,因此GPU之間高速傳輸運算數據的能力是影響訓練效能的關鍵因素。DeepSeek透過接近硬體層級的指令碼優化,成功繞過H800的頻寬限制,使其性能接近H100。

根據DeepSeek發表的技術論文,這種做法在理論上可行,且可透過第三方驗證。既然DeepSeek透過技術優化提升成本效益,並且公開其方法,自然毋須冒險謊報GPU數量。

DeepSeek的影響與未來展望

DeepSeek-R1的成功標誌着中國AI企業在技術上已具備與國際巨頭競爭的能力,並對全球AI產業帶來深遠影響:

1. 對 AI 市場的影響

DeepSeek-R1以低成本高效能推動了AI模型開發的效率競爭,可能迫使OpenAI等企業調整策略。OpenAI執行長Sam Altman在Reddit回應網民提問時稱,過去採取閉源策略可能是「站在歷史錯誤的一邊」,並表示將積極考慮開源方案,同時承認OpenAI在行業中的領導地位已不如以往。此外,此事件也引發市場震盪,NVIDIA股價一度下跌16%,但長遠來看,GPU仍是AI產業的關鍵資源,需求不會因DeepSeek的技術突破而減少。

2. 強化學習的重要

過去,大型語言模型在處理涉及邏輯和數學的問題時表現較弱,這一度被認為是AI發展的瓶頸。然而,去年九月,OpenAI推出了o1-preview,一個真正具備邏輯推理能力的模型。自此,各競爭對手紛紛尋求創新方法,希望達到相同的效果。經過數月的研究,業界得出結論:推理能力的關鍵在於強化學習(Reinforcement Learning)方法。

DeepSeek-R1的成功進一步證實了這一點。這不僅對未來AI模型的發展具有啟發意義,也使解決推理能力問題後,通往通用人工智慧(AGI)的道路變得更加清晰,僅僅是時間問題。同時,這也促使業界開始關注AI遞歸式自我改進與自動化AI研究的議題。Google DeepMind、Anthropic等企業已表明,這將成為未來的重點研究方向。

然而,社會對高度發展的AI是否已做好充分準備?Sam Altman認為,遞歸式自我改進可能導致AI能力的「硬起飛」,即在極短時間內變得極為強大,並形容這是一個令人恐懼的過程。Google前首席執行官Eric Schmidt也曾表示,一旦AI開始展現自我學習能力,我們應當立刻關閉它。那麼,為何前沿AI實驗室的立場如此矛盾?

3. 中美AI競賽的加劇

美國開始意識到中國在AI領域的迅速崛起,這種趨勢將進一步加劇中美之間的AI軍備競賽。早前美國政府啟動「Stargate計劃」,投資5000億美元發展AI,中國政府則宣布投入數千億人民幣應對。AGI競賽正邁向白熱化階段,OpenAI前首席科學家Ilya Sutskever曾表示,當競爭態勢加劇,我們將有更少的時間來確保AGI關注人類利益。Anthropic首席執行官Dario Amodei早在2017年便指出,中美之間的AI軍備競賽可能會引發安全災難,形成「完美風暴」。諷刺的是,在最新的部落格文章中,Dario呼籲加速遞歸式自我改進AI技術的開發,確保美國在與中國的競爭中保持優勢。這情境類似於賽局理論中的囚徒困境——中美雙方都擔憂對方率先開發出具備遞歸式自我改進能力的AI,因此不得不選擇競爭,即使明知這樣做會帶來風險。既然競賽無法避免,美國只能選擇「比對手更快」,即使這與過去的AI安全觀點相矛盾。

4. AI 安全的挑戰

強大的AI若遭誤用或失控,可能對人類社會造成災難。Dario Amodei在訪談中表示,他估計AI有10%-25%的機率對人類社會帶來不可挽回的災難。Elon Musk亦曾表示,先進人工智慧有10%-20%的機率導致人類滅絕。Stability AI的聯合創辦人Emad Mostaque則認為風險甚至高達50%。

目前,多數AI研究員認為,我們可能會在2027年前開發出AGI。隨着強化學習技術的突破,這一時間線將進一步縮短。近年來,OpenAI解散了Ilya Sutskever領導的超級對齊(Superalignment)團隊,多名AI安全研究人員因對OpenAI在安全上的忽視感到失望與不安而離職。部分研究者擔憂,當前人工智慧技術的發展速度,可能已經超過了我們對其風險的理解與應對能力。

結論

DeepSeek-R1的發布彰顯了中國AI技術的迅速進步,並對OpenAI等業界領先企業的壟斷地位構成挑戰。即使在言論審查與訓練數據來源上面對爭議,但其技術創新、低成本策略與開源精神值得肯定。隨着AI競爭日益激烈,我們或許正處於技術變革的臨界點,未來數年的發展將深刻影響全球社會。我期待社會各界能就 AI 的社會影響、安全性以及負責任的研發展開更多深入討論。

文˙朱喬雋(軟件工程師)

編輯˙周淑樺

fb﹕http://www.facebook.com/SundayMingpao

上 / 下一篇新聞