智能的新物理學:熱力學運算與數位決定論的終結

能量的事件視界:當代運算的危機

智能的新物理學:熱力學運算與數位決定論的終結
Susan Hill
Susan Hill
科技版編輯。科學、程式設計,並且和這本雜誌的所有人一...

科技文明正身處一個存在主義的悖論之中。雖然在大型語言模型(LLM)和生成式系統的推動下,對人工智慧(AI)的需求呈指數級增長,但支撐這些進步的物理基礎設施正迅速逼近無法逾越的熱力學極限。「摩爾定律」的主流敘事——電晶體數量和效率的持續倍增——已經開始破裂。這並非因為我們無法進一步微縮化,而是受制於散熱和能源消耗的根本性物理限制。在這個關鍵時刻,「熱力學運算」(Thermodynamic Computing)應運而生,這是一種典範轉移,承諾不僅能緩解能源危機,還將重新定義資訊處理的本質。

生成式 AI 時代的瓦特暴政

基於馮·諾伊曼模型和決定論布林邏輯的現有電腦架構,正撞上專家們所稱的「功耗高牆」(Power Wall)。先進 AI 模型的訓練和推論幾乎完全依賴圖形處理單元(GPU),例如無處不在的 NVIDIA H100。光是這一個單元的熱設計功耗(TDP)就高達 700 瓦,而在 HGX H100 系統叢集中,單一機櫃的功耗更是超過 2000 瓦。這種功率密度將現代資料中心變成了需要龐大冷卻基礎設施的「數位熔爐」,以工業規模消耗著水和電。

總體經濟數據證實了這場危機的急迫性。高盛預測,到本十年末,資料中心的全球電力需求將增長 165%。與此同時,國際能源署(IEA)估計,到 2026 年,資料中心的電力消耗可能會翻倍,達到 1000 TWh——這一數字相當於日本全年的總用電量。這種增長並非線性的,而是緊隨 AI 模型複雜度的指數曲線,造成了一種不可持續的局面,已有 92% 的資料中心高階主管將電網限制視為擴充規模的主要障礙。

決定論的內在低效性

根本問題不僅在於算力的數量,更在於其物理「品質」。當代的數位運算是在一種「雜訊抑制」的機制下運作的。為了保證一個位元毫無疑問是 0 或 1,電晶體必須在遠高於電子自然「熱雜訊」的電壓下工作。這場與熵的持續鬥爭——在混沌的物理介質中維持完美秩序的努力——帶來了高昂的能源代價。

數位處理器中的每一個邏輯運算都涉及電容器的充放電以及電子在電阻中的移動,這會產生對計算毫無貢獻的廢熱,代表了為強制執行決定論所必需的「摩擦」損耗。正如研究人員指出的那樣,傳統系統是在「支付能量」來抑制隨機性。此外,記憶體與處理單元之間的物理分離(馮·諾伊曼瓶頸)意味著大量的能量僅僅是被消耗在將資料從一處搬運到另一處,而非實際的處理過程。

熱力學替代方案

面對這一困境,熱力學運算提出了一種激進的逆向操作原則。與其消耗能量去對抗熱雜訊,不如將其作為一種運算資源加以利用。它基於這樣一個前提:自然界透過向熱平衡的弛豫過程(Relaxation Processes)進行高效計算。透過將電腦架構與資訊的底層物理學相對齊,我們可以以比數位電晶體高出數個數量級的效率來執行複雜任務——特別是生成式 AI 所需的機率取樣。

這種方法並非純粹的理論。Extropic 和 Normal Computing 等公司已經開始製造體現這些原理的硬體,承諾效率將比現有技術高出 10,000 倍。本報告將全面分析該技術的現狀、物理基礎、關鍵參與者,以及向基於物理的運算轉型所帶來的地緣政治和經濟影響。

物理基礎:從決定論位元到隨機 P-Bit

要理解熱力學運算所代表的創新規模,必須深入到電路運作的物理層面。傳統晶片與熱力學取樣單元(TSU)之間的區別,不是程度上的差異,而是本體論上的類別差異。

非平衡態熱力學與運算

支撐這些進展的一般理論是非平衡態統計物理學,通常被稱為隨機熱力學。該領域提供了分析遠離熱平衡系統(如電腦)的工具。經典運算遵循蘭道爾原理(Landauer’s Principle),該原理設定了擦除一位元資訊所需能量的理論下限,並將熱量耗散到環境中。然而,熱力學運算在不同的動力學下運作。

熱力學設備被設計為在朗之萬動力學(阻尼或過阻尼)下演化。這意味著物理系統會自然地「尋找」其最小能量狀態。如果將數學問題編碼到設備的能量景觀中,系統只需透過「弛豫」到其熱平衡狀態即可解決問題。在這個典範中,運算不是一系列強制的邏輯步驟,而是一個自然的物理過程,類似於水滴尋找下山的捷徑,或者蛋白質折疊成其最佳構型。

機率位元(p-bit)

這種新架構的基本單位是 p-bit(機率位元)。與直到被命令改變前都保持靜態的數位位元不同,p-bit 在環境熱雜訊的驅動下,在奈秒級的時間尺度上不斷地在 0 和 1 之間波動。然而,這種波動並非完全隨機;可以透過控制電壓對其進行偏置(Bias),使得 p-bit 例如有 80% 的時間處於狀態 1,20% 的時間處於狀態 0。

這種行為模仿了機率分佈。透過將多個 p-bit 連接在一起,可以創建一個代表複雜聯合機率分佈的電路。當在任何給定時刻「讀取」電路狀態時,就獲得了該分佈的一個有效樣本。這至關重要,因為現代生成式 AI 本質上就是關於機率的:預測最可能的下一個單詞,或生成圖像中最合理的像素。

原生取樣 vs. 數位模擬

Extropic 宣稱的「10,000 倍」效率優勢正是源於這種結構性差異。在數位(決定論)GPU 中,從複雜分佈中生成隨機樣本需要運行偽隨機數生成器(PRNG)演算法,這會消耗數千個時脈週期和數百萬次電晶體轉換。GPU 必須透過複雜的決定論算術來模擬偶然性。

相比之下,熱力學晶片是原生生成樣本的。它不模擬雜訊;雜訊就是運算的引擎。物理學承擔了生成隨機性的繁重工作,消除了為此特定任務使用複雜算術邏輯單元(ALU)的需求。本質上,這是雜訊輔助的類比運算,物理介質瞬間完成了數學運算。

表:運作特性對比

運作特性數位運算 (GPU/CPU)熱力學運算 (TSU)
基本單位CMOS 電晶體(決定論開關)p-bit(隨機振盪器)
與雜訊的關係抑制(雜訊 = 錯誤)利用(雜訊 = 資源/燃料)
運算機制順序布林算術向最小能量狀態的物理弛豫
能源消耗高(對抗熱力學)極低(順應熱力學)
理想應用精確計算、嚴密邏輯機率推論、最佳化、生成式 AI

Extropic:架構與不確定性策略

總部位於美國的 Extropic 已將自己定位為該技術的商業先鋒。該公司由 Guillaume Verdon(前 Google 物理學家,在數位領域被稱為「Beff Jezos」,有效加速主義或 e/acc 運動的領導者)和 Trevor McCourt 創立,已從理論走向了實體晶片製造。

X0 晶片:驗證機率矽

Extropic 的第一個有形里程碑是 X0 晶片。這是一個測試原型,旨在驗證機率電路可以使用標準半導體製程製造並在室溫下運作。與需要接近絕對零度溫度的量子電腦不同,X0 利用環境熱量作為熵源。

X0 包含一系列旨在從原始機率分佈中生成樣本的電路。其主要功能是確認 Extropic 雜訊模型的準確性:證明可以將電晶體設計成以可預測和可控的方式產生「雜訊」。這是一項重大成就,因為半導體產業花了 60 年時間最佳化製程以消除雜訊;以受控方式重新引入雜訊需要對材料物理學有深刻的掌握。

XTR-0 開發平台

為了讓研究人員和開發人員能夠與這種新物理學互動,Extropic 推出了 XTR-0 平台。該系統不是一台獨立的電腦,而是一種混合架構。在物理上,它由一塊梯形主機板組成,上面搭載傳統的 CPU 和 FPGA,並連接到兩塊包含熱力學 X0 晶片的子板。

XTR-0 的功能是充當橋樑。CPU 管理一般工作流和決定論邏輯,而 FPGA 充當高速轉換器,向 X0 晶片發送指令和參數,並接收生成的機率樣本。這種架構承認了一個務實的現實:熱力學電腦不會取代數位電腦來執行運行作業系統或處理試算表等任務。它們的角色是專用加速器,類似於 GPU 加速圖形處理,但它們專門用於 AI 的機率工作負載。

Z1 晶片與規模願景

Extropic 的最終目標不是 X0,而是未來的 Z1 晶片。預計該設備將容納數十萬或數百萬個互連的 p-bit,允許在熱力學基板上完全運行深層生成式 AI 模型。該公司進行的模擬表明,該晶片在執行圖像或文本生成任務時,能耗比同等 GPU 低 10,000 倍。

Z1 的架構基於大規模的本地連接。與資料在晶片上長距離傳輸(消耗能量)的 GPU 不同,在 Extropic 的設計中,記憶體和運算交織在一起。P-bit 僅與其直接鄰居互動,創建一個共同解決全域問題的局部互動網路。這消除了與資料移動相關的大部分能源成本。

原生演算法:去噪熱力學模型 (DTM)

革命性的硬體需要革命性的軟體。試圖在熱力學晶片上運行標準深度學習演算法(基於決定論矩陣乘法)將是低效的。因此,Extropic 開發了一類新的原生演算法。

基於能量的模型 (EBMs)

Extropic 軟體的理論基礎是基於能量的模型(Energy-Based Models,EBMs)。在機器學習中,EBM 學習將低「能量」與看起來真實的資料(如貓的圖像)相關聯,將高能量與雜訊或錯誤資料相關聯。使用 EBM 生成資料涉及尋找低能量配置。

EBM 在理論上已經存在了幾十年,但在深度神經網路面前失寵,因為在數位電腦上訓練和使用它們極其緩慢。它們需要一個稱為吉布斯取樣(Gibbs Sampling)的過程,這在 CPU 或 GPU 上計算成本極高。然而,Extropic 的晶片可以原生且幾乎瞬間執行吉布斯取樣。數位矽的弱點變成了熱力學矽的根本優勢。

去噪熱力學模型 (DTM)

Extropic 的旗艦演算法是去噪熱力學模型(DTM)。該模型的工作原理類似於現代擴散模型(如驅動 Midjourney 或 Stable Diffusion 的模型),即從純雜訊開始,逐步細化直到獲得清晰的圖像。

然而,GPU 上的擴散模型必須透過數學計算逐步去除雜訊,而 DTM 則利用晶片的物理特性來執行轉換。熱力學硬體允許「雜訊」狀態遵循熱力學定律物理地演變為「有序」狀態(最終圖像)。模擬表明,這種方法不僅速度更快,而且所需的能量減少了數個數量級,因為「去噪」過程是由系統趨向平衡的自然傾向執行的,而不是透過數萬億次浮點乘法。

競爭生態:物理運算領域的不同路徑

儘管 Extropic 以其大膽的主張和賽博龐克美學吸引了媒體的關注,但它並不是該領域的唯一參與者。熱力學和機率運算的競賽包括其他成熟的競爭對手,如 Normal Computing,每家公司都有獨特的技術和市場理念。

Normal Computing:透過隨機性實現可靠性

Normal Computing 總部位於紐約,由前 Google Brain 和 Alphabet X 的工程師創立,他們從略微不同的角度解決問題。Extropic 專注於生成的極致速度和原始效率(加速主義),而 Normal 則非常強調關鍵系統中的可靠性、安全性和不確定性量化

他們的技術基於隨機處理單元(SPU)。與 Extropic 一樣,他們也利用熱雜訊,但他們的數學框架側重於特定的隨機過程,如奧恩斯坦-烏倫貝克過程(OU Process)。OU 過程是一種均值回歸隨機過程,對於建模波動但傾向於回到穩定中心的系統非常有用。

Normal Computing 已經實現了重要的里程碑,例如其 CN101 晶片的「流片」(Tape-out,完成設計並交付製造)。該晶片旨在展示熱力學架構在真實矽晶圓上的可行性。他們的路線圖包括未來的 CN201 和 CN301 晶片,旨在到 2027-2028 年擴展高解析度擴散模型和影片生成。

關鍵區別: Extropic 似乎在以低能源成本最佳化最大熵和生成創造力(非常適合藝術、文本、創意構思)。Normal Computing 似乎在最佳化「可解釋的 AI」和可靠性,利用機率硬體讓 AI 「知其所不知」,並在商業或工業應用中管理風險。

神經形態 vs. 熱力學運算

區分熱力學運算與神經形態運算(以 IBM 的 TrueNorth 或英特爾的 Loihi 晶片為代表)至關重要。神經形態運算試圖經常使用決定論的數位或類比電路來模仿大腦的生物架構(神經元、突觸、電壓尖峰)。

另一方面,熱力學運算模仿的是大腦的物理學。生物大腦在 37°C 的潮濕、嘈雜環境中運作,利用熱雜訊來促進化學反應和信號傳輸。它不與雜訊作鬥爭,而是利用雜訊。Extropic 和 Normal Computing 認為,模仿物理學(熱力學)比僅僅模仿結構(神經形態)是通往效率的更直接途徑。

效率深度解析:解構「一萬倍」的承諾

效率提高 10,000 倍的主張是非同尋常的,需要嚴格的技術審查。這個數字究竟從何而來?在生產環境中是否現實?

節約的物理學

能源節約來自三個主要來源:

  1. 消除資料移動: 在 GPU 中,從 VRAM 顯示記憶體讀取模型權重所消耗的能量比運算本身還要多。在 Extropic 的 TSU 中,模型權重物理編碼在 p-bit 之間的連接中。運算發生在資料所在的地方
  2. 被動運算: 在數位電路中,時脈每秒強制進行數百萬次狀態轉換,每個週期都消耗有功電能。在熱力學電路中,系統被動地向解決方案演化。能量很大程度上由環境熱量(熱雜訊)提供,這實際上是「免費」的。
  3. 取樣效率: 如前所述,以數位方式生成統計樣本需要數千次操作。在熱力學中,這是單一操作。如果一項任務需要採集數百萬個樣本(如在影片生成中),優勢將線性累積,直到達到數個數量級。

真實能耗對比

為了更直觀地理解這一點,讓我們考慮 LLaMA 類模型的訓練和推論。Meta 使用 16,000 個 H100 GPU 訓練了 LLaMA 3。假設保守的平均功耗,能源成本高達數百吉瓦時(GWh)。在推論階段(日常使用),如果數百萬用戶查詢模型,累計消耗將超過訓練消耗。

如果熱力學晶片可以以毫瓦而不是數百瓦的功耗執行相同的推論,AI 的經濟可行性將發生根本性變化。這將允許在智慧型手機上運行 GPT-4 等級的模型而不會在幾分鐘內耗盡電池,或者在農業中部署使用小電池即可運行數年的智慧感測器。

局限性與警告

然而,10,000 倍這個數字源自針對該硬體最佳化的特定基準測試的模擬。在需要決定論邏輯、資料預處理和 CPU 通訊的混合工作負載中,整體系統效率(阿姆達爾定律)將會降低。此外,類比精確度本質上是有限的。對於需要精確 64 位元精度的金融計算,熱力學運算並不適用。它的利基市場是機率推論,而不是精確會計。

表:效率圖譜

效率指標數位 GPU (H100)熱力學 TSU (預計)理論提升倍數
每焦耳運算受蘭道爾極限和 CMOS 架構限制僅受背景熱雜訊限制~10^3 – 10^5
取樣延遲高(需順序 PRNG 迭代)極低(物理上瞬間)~100x – 1000x
電路複雜度高(數百萬電晶體用於控制邏輯)低(簡單的 p-bit 和耦合)高面積密度

製造與擴展性挑戰:硬體的「死亡之谷」

運算歷史充滿了在試圖擴展時失敗的有前途的技術(憶阻器、光運算、自旋電子學)。熱力學運算要走出實驗室面臨著巨大的障礙。

製程變異性與校準

Extropic 和 Normal Computing 面臨的最大挑戰是均一性。在現代晶片製造(5nm 或 3nm 節點)中,電晶體之間存在微觀差異。在數位領域,這透過安全裕度來管理。在「雜訊」即信號的類比/熱力學領域,電晶體尺寸的變異會改變其機率分佈特徵。

如果每個 p-bit 由於製造缺陷而具有略微不同的偏置,晶片將無法代表正確的機率分佈。為了補償這些變異而校準數百萬個單獨的 p-bit 可能需要龐大的數位控制電路,這將吞噬部分能源和空間節省。Extropic 聲稱已經透過穩健的電路設計解決了這個問題,但真正的考驗將隨著 Z1 晶片的大規模生產而到來。

軟體生態系整合

沒有生態系的硬體毫無用處。NVIDIA 統治 AI 不僅靠晶片,還靠 CUDA 這一軟體層。為了讓開發人員採用 TSU,必須抽象化物理複雜性。Extropic 發布了 Thrml,這是一個 Python 函式庫,允許開發人員定義能量模型並在後端運行(無論是 GPU 上的模擬還是 XTR-0 上的實機)。成功將取決於這種整合與 PyTorch 和 TensorFlow 的透明程度。如果機器學習工程師必須學習統計物理學才能為晶片編寫程式,採用率將為零。

摩爾定律的競爭

數位技術並未停滯不前。NVIDIA、AMD 和英特爾繼續針對 AI 最佳化其架構(例如 FP8 精度、Blackwell 架構)。熱力學運算正在追逐一個移動的目標。當 Z1 晶片進入商業市場時,傳統 GPU 的效率也將有所提高。「10,000 倍」的優勢是一個巨大的緩衝,但執行必須迅速,以免錯過機會之窗。

地緣政治與經濟影響

這項技術的出現所帶來的影響超越了伺服器機房,波及國家戰略和全球 AI 經濟。

AI 主權與去中心化

目前,先進 AI 是由能夠資助數十億美元資料中心並獲得受限 GPU 供應的實體控制的寡頭壟斷。熱力學運算透過大幅降低能源和硬體成本(利用更舊、更便宜的矽製造製程,因為它們不需要最新的 3nm 光刻機即可運作),可能會使「超級智能」的獲取民主化。

這將允許較小的國家或中型公司運作自己的基礎模型,而不必依賴美國超大規模雲端廠商(微軟、Google、亞馬遜)的雲端服務。這是通往更大技術主權的潛在載體。

電網影響與永續性

IEA 和各國政府對資料中心的能耗感到震驚。在愛爾蘭或北維吉尼亞等地,資料中心消耗了總電網兩位數的百分比。熱力學運算為這種壓力提供了一個「安全閥」。如果產業將部分推論負載遷移到熱力學硬體,就有可能將 AI 的增長與碳足跡的增長脫鉤,從而在不阻礙技術進步的情況下實現氣候目標。

加速主義哲學 (e/acc)

不可忽視意識形態成分。Extropic 執行長 Guillaume Verdon 是有效加速主義(e/acc)運動的核心人物,該運動主張將無限制且快速的技術進步視為宇宙的道德和熱力學指令。Extropic 不僅僅是一家公司;它是這種意識形態的物理體現。他們試圖最大化宇宙中熵和智能的產生。這與「減速主義」或「AI 安全主義」的願景形成鮮明對比。Extropic 的成功將是矽谷加速主義陣營在文化和技術上的勝利。

自然智能的黎明

熱力學運算代表了迄今為止彌合人工運算與自然運算之間鴻溝的最嚴肅嘗試。七十年來,我們建造的電腦像僵化的官僚機構一樣運作:遵循精確的規則,將資料歸檔在精確的位置,並消耗巨大的能量來確保沒有任何偏差。與此同時,人腦——以及自然界本身——像爵士樂藝術家一樣運作:即興創作,利用雜訊和混沌作為旋律的一部分,並以驚人的能源效率取得輝煌的成果。

Extropic 和 Normal Computing 透過 X0 和 CN101 等設備展示的技術表明,我們已經準備好採用這第二種方法。10,000 倍能源效率的承諾不僅僅是漸進式的改進;它是一個相位轉移,將使人工智慧無處不在。

然而,這條道路充滿了技術風險。從數位決定論到熱力學機率論的轉變,不僅需要新的晶片,還需要對我們思考演算法、精度和運算本質的方式進行徹底的再教育。如果 Extropic 能夠成功擴展其 p-bit,並且 Normal Computing 能夠證明其隨機過程的安全性,那麼十年後,當我們回望當前的 GPU——那些 700 瓦的矽製烤箱——時,可能會帶著我們今天看待 1940 年代真空管時同樣的懷舊和困惑。與熱力學對抗的時代已經結束;利用熱力學進行運算的時代已經開始。

後數位時代的運算版圖

面向經典數位方法熱力學方法 (Extropic/Normal)
哲學完全控制,錯誤抑制接納混沌,利用雜訊
物理極限熱散熱,摩爾定律根本性的熵極限
AI 模型深度神經網路 (DNN)基於能量的模型 (EBM),擴散模型
硬體GPU, TPU (高功耗)TSU, SPU (低功耗,被動式)
未來願景城市規模的資料中心無處不在、去中心化的環境智能
分享本文
尚無留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *