技術

DeepSeek V4:GPT-5的1/5價格 不用輝達

Susan Hill

曾以R1讓輝達(Nvidia)股價重挫的中國實驗室再次出手,推出規模更大、價格更低、專為中國硬體最佳化的版本。V4-Pro是至今打造的最大開源AI模型,兩個版本皆已以MIT授權發布在Hugging Face上,定價遠低於OpenAI與Anthropic的收費水準。

DeepSeek發布了V4-Pro與V4-Flash的預覽版,兩款開源語言模型拋出一個明確主張:處理100萬token的上下文不再是容量問題,只是效率問題。V4-Pro總參數量1.6兆,每次查詢啟用490億,足以在單一提示中處理整個程式碼倉庫或一整本書。這是開源模型首次在數學、程式設計與代理任務上與頂級封閉模型正面競爭——而且成本只是OpenAI和Anthropic目前定價的一小部分。

YouTube video

兩款模型的配置

兩款模型皆以MIT授權發布,模型權重已公開上線Hugging Face。V4-Flash是精簡版:總參數量2,840億,啟用參數130億,量化後可在高階筆電上運行。V4-Pro則是旗艦版,佔用865GB硬碟空間,鎖定雲端部署與研究機構用戶。兩款模型共用同樣的100萬token上下文視窗——這個跨度追平Google Gemini,是多數競品開源模型的兩倍。

混合注意力的突破

架構層面的核心設計名為Hybrid Attention:DeepSeek結合兩種壓縮技術,將記憶體成本壓到極限。V4-Pro在相同上下文長度下,只用V3.2所需運算力的27%和快取的10%。V4-Flash又更進一步。

實際運作中,以V4-Pro處理100萬token提示的成本,已經低於用上一代處理10萬token的成本。這不是技術細枝末節——而是長上下文模型走出實驗室展示、進入真正商用階段的經濟條件。

價格重劃

價格衝擊是這次發表最銳利的一擊。V4-Flash輸入端每百萬token僅0.14美元,比OpenAI的GPT-5.4 Nano還低。V4-Pro輸入每百萬token 1.74美元,輸出3.48美元——Anthropic對Claude Opus 4.7收費的三分之一,OpenAI對GPT-5.5收費的五分之一。

在程式設計基準測試中,V4-Pro的Codeforces分數達到3,206分。DeepSeek指出,這個成績在全球人類競技程式設計師中約可排到第23名。

地緣政治的含意

地緣政治的閱讀分量,不亞於任何單項基準數據。DeepSeek將V4針對華為昇騰950晶片與中國寒武紀的矽晶進行最佳化,並未給輝達或AMD提供性能調校的前置權限——這是對業界慣例的反向操作。

此次發表本身,是一整條長年承受美國出口管制的中國技術供應鏈的商業壓力測試。對歐洲而言,問題變得更棘手:當北京一邊建起完整主權鏈——開源權重、本土晶片、自研推論軟體——華盛頓一邊以立法手段關閉自家那條鏈,歐洲的數位主權便結構性地依附在兩大陣營的基礎建設上。

值得留意的風險

可以提出的保留意見確實存在。V4目前是預覽版本而非正式產品,獨立第三方的基準測試也還沒完成。DeepSeek自己的技術報告坦承,這款模型在最前沿能力上,比GPT-5.4與Gemini 3.1 Pro落後三到六個月。

前一代R1上線後幾週內,就在美國多個州、澳洲、台灣、南韓、丹麥與義大利遭到禁用或限制,V4在這些市場原封不動繼承同樣的法規風險。五角大廈承包商另受美國2026年NDAA法案約束——在沒有明確例外授權下,不得使用任何DeepSeek模型。

走出上述受限地區,存取立即可行。DeepSeek的網頁版聊天機器人以Expert模式開放V4-Pro、以Instant模式開放V4-Flash,兩者皆免費;開發者若要呼叫API,只要把模型名稱改成deepseek-v4-pro或deepseek-v4-flash即可。

這次發表的時間點,剛好落在DeepSeek-R1於2025年1月20日撼動全球AI市場的一週年——行事曆是刻意挑選的。預覽階段之後的正式API定價目前仍未公布,而現有的deepseek-chat與deepseek-reasoner端點將於2026年7月24日停用,屆時所有流量會自動轉到V4。

真正被押上檯面的東西,不只是單一基準項目:這是首次出現公開證據,顯示一個競爭中的大國可以在不倚賴美國供應商的情況下,端出一整套完整、有競爭力又便宜的AI技術堆疊——光是這項證據,就足以重新劃定未來所有主權AI策略的座標軸。

討論

共有 0 則留言。