10月13日,OpenAI正式宣布將與芯片巨頭博通深度合作,啟動(dòng)自研定制芯片的戰(zhàn)略性系統(tǒng)工程。根據(jù)計(jì)劃,2026至2029年間,雙方將部署覆蓋10吉瓦規(guī)模的推理基礎(chǔ)設(shè)施,這一耗電量相當(dāng)于800多萬美國家庭的用電需求。
文字編輯|宋雨涵
1
“芯”火燎原:
揭秘OpenAI的“普羅米修斯計(jì)劃”
18個(gè)月,足以讓一個(gè)初創(chuàng)公司從零到一,也足以讓一個(gè)顛覆性技術(shù)從理論走向現(xiàn)實(shí)。OpenAI的芯片項(xiàng)目并非心血來潮,而是蓄謀已久。
這個(gè)時(shí)間跨度意味著,該項(xiàng)目很可能已經(jīng)完成了從架構(gòu)設(shè)計(jì)、邏輯驗(yàn)證到物理實(shí)現(xiàn)的關(guān)鍵階段,甚至可能已經(jīng)流片(Tape-out)或正在進(jìn)行中。明年部署的計(jì)劃,更是彰顯了其對(duì)項(xiàng)目成熟度的極高自信。
然而,比自研芯片本身更具革命性的是其設(shè)計(jì)方法——AI參與設(shè)計(jì)。這并非簡單的自動(dòng)化腳本或傳統(tǒng)EDA(電子設(shè)計(jì)自動(dòng)化)工具的應(yīng)用,而是指AI在芯片設(shè)計(jì)的核心環(huán)節(jié),如微架構(gòu)探索、邏輯綜合乃至物理布局布線(Place & Route)中扮演了關(guān)鍵角色。我們可以合理推測,OpenAI正在利用其強(qiáng)大的模型能力,探索人類工程師難以觸及的、更優(yōu)化的設(shè)計(jì)空間。
想象一下,一個(gè)AI系統(tǒng),它深刻理解GPT系列模型的運(yùn)算特性——哪些操作最頻繁、數(shù)據(jù)流如何傳遞最高效、內(nèi)存瓶頸在哪里——然后基于這些理解,反向設(shè)計(jì)出一款“天生為GPT而生”的芯片架構(gòu)。
這種“軟硬協(xié)同”的深度耦合,能夠?qū)崿F(xiàn)傳統(tǒng)通用芯片(如GPU)無法比擬的能效比和性能。這不僅是芯片設(shè)計(jì)方法的革新,更是AI能力的一次“自我賦能”。
2
OpenAI為何必須自研芯片?:
GPU不再是不夠用,而是根本性短缺
OpenAI的發(fā)展節(jié)奏有目共睹:ChatGPT、DallE、Sora……幾乎每隔幾個(gè)月就有新產(chǎn)品面世。但真正讓這家公司感到壓力的,不是競爭對(duì)手,而是支撐這些智能的算力已經(jīng)嚴(yán)重不夠用了。
Sam Altman在播客中透露了一組關(guān)鍵數(shù)據(jù):“我們最初的集群只有2兆瓦,今年是2吉瓦。但我們希望達(dá)到30吉瓦,甚至更多?!边@相當(dāng)于過去15倍以上的增長,背后反映的是一個(gè)殘酷現(xiàn)實(shí):AI越聰明,大家用得越多,需求膨脹得比基礎(chǔ)設(shè)施擴(kuò)容快得多。
OpenAI最初以為“只要優(yōu)化10倍,大家就夠用了”,結(jié)果發(fā)現(xiàn)“優(yōu)化10倍后,需求漲了20倍”。這種供需之間的巨大落差,使得GPU已不再是即買即用的普通資源,其長期短缺的特性,使其成為一種需要持續(xù)供應(yīng)的新型電力。
供應(yīng)鏈的“咽喉要道”——英偉達(dá)
近年來,全球?qū)Ω叨薃I芯片的需求呈爆炸式增長,英偉達(dá)的頂級(jí)GPU“一卡難求”已是常態(tài)。這種賣方市場讓OpenAI等AI公司在采購中毫無議價(jià)能力,且時(shí)刻面臨斷供風(fēng)險(xiǎn)。地緣政治的緊張局勢(shì)更是加劇了這種不確定性。將核心算力完全寄托于單一供應(yīng)商,對(duì)于一個(gè)以AGI為終極目標(biāo)的公司來說,是戰(zhàn)略上的巨大隱患。自研芯片,就是將這條“咽喉要道”掌握在自己手中,實(shí)現(xiàn)真正的“算力自由”。
3
為什么是博通:
不只為省錢,更為掌控產(chǎn)線
在已與AMD及英偉達(dá)建立合作之后,OpenAI此次與Broadcom的聯(lián)手,標(biāo)志了雙方第一次成為關(guān)鍵合作伙伴。這引出一個(gè)關(guān)鍵問題:為什么是博通?
OpenAI聯(lián)合創(chuàng)始人Greg Brockman在播客里解釋:“我們不是在市場上買一塊現(xiàn)成的芯片,而是從零開始,為自己的模型量身定做一塊?!?/p>
博通并非傳統(tǒng)意義上的芯片代工廠,而是能夠從晶體管層面參與定制的架構(gòu)協(xié)作方,是能從網(wǎng)絡(luò)層+軟件層共同打通的系統(tǒng)共建者。
這種合作模式最引人注目的地方在于,OpenAI正在使用自己的AI模型參與芯片設(shè)計(jì)。Greg分享了一個(gè)細(xì)節(jié):“模型給出的優(yōu)化建議,很多本來是我們芯片專家‘待辦清單里一個(gè)月以后要做的事’?!?/p>
這意味著,AI不只是使用芯片的機(jī)器,它已經(jīng)開始參與設(shè)計(jì)芯片了。
4
10GW的野望:
一個(gè)“算力核電站”意味著什么?
10GW的功率,相當(dāng)于5-6座大型核電站的輸出功率,足以供應(yīng)一個(gè)中等規(guī)模國家的用電需求。目前,一個(gè)超大型數(shù)據(jù)中心的功耗通常在100-200兆瓦(MW)級(jí)別。10GW意味著需要建設(shè)一個(gè)由50到100個(gè)此類超大規(guī)模數(shù)據(jù)中心組成的龐大集群。這已經(jīng)遠(yuǎn)遠(yuǎn)超出了傳統(tǒng)數(shù)據(jù)中心的概念,更像是一個(gè)“算力城市”或“算力聯(lián)邦”。
奧特曼此前就曾提及為未來的AI發(fā)展籌集7萬億美元的宏偉計(jì)劃,而10GW的算力目標(biāo),正是這個(gè)計(jì)劃在物理世界的具體投射。它清晰地揭示了OpenAI對(duì)未來AGI所需算力量級(jí)的判斷——那將是一個(gè)與今天完全不在一個(gè)數(shù)量級(jí)的、近乎無限的算力需求。
這10GW的背后,是數(shù)千萬乃至上億顆AI芯片的協(xié)同工作,是配套的、足以覆蓋一座小城的散熱系統(tǒng),是需要重新設(shè)計(jì)的電網(wǎng)基礎(chǔ)設(shè)施,以及高達(dá)每年數(shù)百億美元的電費(fèi)賬單。這不僅是對(duì)芯片設(shè)計(jì)能力的考驗(yàn),更是對(duì)資本運(yùn)作、能源獲取、全球供應(yīng)鏈管理、基礎(chǔ)設(shè)施建設(shè)能力的終極挑戰(zhàn)。
這個(gè)目標(biāo)也向我們提出了一個(gè)嚴(yán)肅的問題:AGI的實(shí)現(xiàn),是否必然伴隨著如此巨大的物理世界代價(jià)? 這將引發(fā)關(guān)于AI發(fā)展與能源消耗、環(huán)境保護(hù)之間關(guān)系的深刻討論。未來,獲取和調(diào)度廉價(jià)、清潔的能源,將和算法、芯片一樣,成為AI競賽的核心競爭力之一。
寫在最后:
與博通的合作只是OpenAI算力聯(lián)盟版圖的一部分。OpenAI近期已與多家芯片巨頭達(dá)成重磅合作,構(gòu)建了一個(gè)龐大的算力網(wǎng)絡(luò)。
上周,OpenAI宣布與AMD達(dá)成一項(xiàng)戰(zhàn)略合作,OpenAI將部署6吉瓦AMD GPU算力。更早之前,OpenAI和英偉達(dá)宣布簽署意向書,雙方計(jì)劃為OpenAI的下一代AI基礎(chǔ)設(shè)施部署至少10吉瓦的英偉達(dá)系統(tǒng)。
結(jié)合與博通的合作,這意味著OpenAI已鎖定了26吉瓦的數(shù)據(jù)中心,價(jià)值更是高達(dá)萬億美元。
這種“多方下注”的策略,既確保了算力供應(yīng)鏈的穩(wěn)定性,又使OpenAI能在技術(shù)路線上保持靈活性。