告別“幕后”時代:Arm首款自研芯片問世,直擊x86核心領(lǐng)地
關(guān)鍵詞: Arm AGI CPU 代理式AI 算力架構(gòu)
35年來,英國芯片巨頭Arm一直在半導體行業(yè)內(nèi)扮演著“只賣IP,不造芯片”的角色,是蘋果、Meta、亞馬遜身后的隱形巨人。然而,這家由軟銀(SoftBank)控股的科技巨頭,在日前正式宣布推出其首款量產(chǎn)通用處理器——Arm AGI CPU。
這一戰(zhàn)略轉(zhuǎn)型的背后,是人工智能(AI)計算需求發(fā)生的結(jié)構(gòu)性巨變。隨著“代理式AI(Agentic AI)”——能夠自主執(zhí)行復雜任務的軟件智能體——成為硅谷的新寵,傳統(tǒng)的算力架構(gòu)正面臨前所未有的壓力。
“AI從根本上重塑了計算的構(gòu)建與部署,代理式計算正進一步加速這一變革。”Arm首席執(zhí)行官Rene Haas表示,Arm AGI CPU芯片的推出,標志著Arm計算平臺邁入全新發(fā)展階段,也成為公司發(fā)展的重要里程碑。

代理式AI正在重塑AI基礎(chǔ)設(shè)施
之所以選擇將代理式AI基礎(chǔ)設(shè)施作為首款自研CPU的核心發(fā)力方向,Rene Haas的看法是,代理式AI不僅要求部署更多CPU、實現(xiàn)極大的規(guī)模化擴展與極致的性能,還讓數(shù)據(jù)中心面臨著巨大的功耗壓力。這三大需求疊加,讓市場出現(xiàn)了明顯的供給缺口,該領(lǐng)域的服務能力亟待補齊。
“其實在Arm與Meta展開合作之初,這一市場的需求遠未得到充分滿足。如今回頭看,用‘需求未被充分滿足’來形容,都算輕描淡寫。” Rene Haas認為這一市場蘊藏著極其巨大的機遇,足以容納眾多參與者,“我們不是在搶奪存量市場,而是在填補巨大的供給缺口。”
IDC等研究機構(gòu)數(shù)據(jù)顯示,全球服務器市場在AI基礎(chǔ)設(shè)施投資的強勁驅(qū)動下創(chuàng)下歷史新高。全年服務器市場規(guī)模達到4441億美元,同比大幅增長80.4%。其中,x86服務器仍占據(jù)市場主導地位,全年營收規(guī)模約為2839億美元,同比增長39.9%;非x86服務器(主要為Arm架構(gòu))增長更為迅猛,同比增幅達63.7%,營收規(guī)模約為820億美元。
其中,配備GPU的AI服務器成為市場增長的核心引擎,2025年同比增長46.7%,占據(jù)整體市場價值近一半份額。而超大規(guī)模數(shù)據(jù)中心和云服務提供商是這一輪投資需求的主要推動者。

當被問及CPU在通用人工智能(AGI)中扮演著怎樣的重要角色時,Rene Haas回應稱,無論是云計算,還是AI數(shù)據(jù)中心,CPU都承擔著大量的數(shù)據(jù)傳輸、協(xié)同調(diào)度和數(shù)據(jù)處理工作,而代理式AI的落地,更是讓這一工作的負荷大幅增加。
他進一步解釋說,由于AI智能體全年無休持續(xù)運行,且還能自主生成新的智能體,整個系統(tǒng)的運行壓力因此急劇增大。而代理式AI的絕大部分工作并非詞元(Token)生成,而是詞元的調(diào)度與分發(fā)、協(xié)同編排,以及服務管理,這些工作都只能由CPU來完成。
數(shù)據(jù)顯示,隨著企業(yè)不斷擴大由智能體驅(qū)動的應用規(guī)模,數(shù)據(jù)中心對每吉瓦(GW)功耗提供的CPU算力需求將增長至當前的四倍以上,這意味著必須在相同功耗限制下實現(xiàn)算力的大幅提升。
這一趨勢催生了面向AI規(guī)模化基礎(chǔ)設(shè)施的CPU,這一新類型的CPU既能支撐高吞吐量所需的性能,又能滿足實際功耗限制下的能效要求,同時采用簡化架構(gòu),擺脫x86處理器的額外開銷與復雜性。
實用主義的勝利
Arm AGI CPU采用了臺積電最先進的3納米工藝,通過“芯粒”(Chiplet)技術(shù)集成了136個Neoverse V3核心,并同時提供每核心6GB/s內(nèi)存帶寬,時延低于100 ns。對于需要頻繁處理小規(guī)模、多任務跳轉(zhuǎn)的代理式AI來說,低于100納秒的低延遲內(nèi)存響應遠比單純的高帶寬更重要。

在擴展性和能效方面,Arm AGI CPU采用300瓦TDP設(shè)計,每線程獨立核心,可在持續(xù)負載下提供確定性性能,避免降頻與線程閑置。支持高密度1U服務器機箱的風冷部署方案,單機架可支持多達8,160個計算核心;同時也支持液冷系統(tǒng),單機架可實現(xiàn)超過 45,000個核心的部署規(guī)模。
在內(nèi)存技術(shù)上的選擇上,Arm并沒有跟風采用昂貴且供應緊張的高帶寬內(nèi)存(HBM),而是采用了高度優(yōu)化的12通道DDR5方案,速率為8,800 MT/s。這種“去HBM化”的設(shè)計,不僅降低了芯片的量產(chǎn)成本,也繞開了當前半導體供應鏈最脆弱的環(huán)節(jié)。
Rene Haas在發(fā)布會上展示了一組令投資者振奮的數(shù)據(jù):在針對代理式AI的實際負載中,Arm AGI CPU的單機架性能達到了主流x86平臺的兩倍以上。在Arm看來,x86的問題不是性能不夠,而是架構(gòu)帶來的不可預測性與效率損耗。Arm想要建立的新標準是“性能可擴展,功耗可預測”。因為在代理式AI場景下,系統(tǒng)需要24×7持續(xù)高負載運行,x86因核心爭搶資源、降頻等問題,實際表現(xiàn)往往會打折扣。
更令云服務巨頭動心的是財務成本。Rene Haas指出,由于Arm芯片在能效上的代差優(yōu)勢,在構(gòu)建吉瓦(GW)級規(guī)模的AI數(shù)據(jù)中心時,采用Arm方案可比傳統(tǒng)x86方案節(jié)省約100億美元的資本支出。在全球電力資源日益緊張的背景下,這種“高能效比”已成為一種極具殺傷力的商業(yè)通貨。
根據(jù)國際能源署的統(tǒng)計,2024年全球數(shù)據(jù)中心電力消耗約415太瓦時(TWh),占全球電力消耗的1.5%左右。預計到2030年,數(shù)據(jù)中心電力需求將增長至約945太瓦時,占全球電力總量的近3%。
Arm云AI事業(yè)部執(zhí)行副總裁Mohamed Awad指出,如果要與專用AI加速器相比,專用AI加速器的核心職責是生成詞元,而Arm AGI CPU則負責詞元的分發(fā),并根據(jù)生成結(jié)果執(zhí)行相應操作,二者對應側(cè)重于不同的負載。未來,這兩類芯片會在數(shù)據(jù)中心內(nèi)實現(xiàn)更深度的協(xié)同部署。而隨著代理式AI的落地普及,承擔這類執(zhí)行類工作的CPU市場需求也會持續(xù)攀升。
說了很多硬件的話題。但其實,如果將時間撥回五年前,Arm在數(shù)據(jù)中心的最大障礙并非硬件,而是軟件生態(tài)。
Mohamed Awad也承認,當時Arm與x86在軟件成熟度上存在明顯差距。但過去幾年,隨著主流云廠商與開源社區(qū)的持續(xù)投入,這一差距正在縮小。
“事實上,放眼全球AI應用場景,絕大多數(shù)AI部署均以Arm CPU作為核心架構(gòu),諸多AI核心軟件更是率先基于Arm架構(gòu)開發(fā)。基于此,我們對Arm在數(shù)據(jù)中心領(lǐng)域承載各類現(xiàn)代工作負載的軟件生態(tài)布局充滿信心。” Mohamed Awad說道。
盟友還是對手?
Arm下場造芯,引發(fā)了市場對其與Amazon、Meta、Google等既有授權(quán)客戶發(fā)生競爭的擔憂。這些科技巨頭此前一直利用Arm的技術(shù)設(shè)計自研芯片(如Graviton和Axion)。
但Rene Haas認為,如今數(shù)據(jù)中心的架構(gòu)日趨復雜,涉及存儲卸載、網(wǎng)絡(luò)卸載等需求,還需要用于頭節(jié)點和數(shù)據(jù)分發(fā)的CPU等,即便是行業(yè)巨頭,也難以做到所有環(huán)節(jié)全部自研。他舉例說,“谷歌自研了TPU,但他們依然從NVIDIA采購大量GPU。可見,企業(yè)自研芯片,并不意味著其自研方案就能滿足全部需求。”因此,考慮到這樣的缺口,企業(yè)會根據(jù)應用場景、業(yè)務領(lǐng)域或解決方案的具體需求,選擇從外部采購。
為此,Arm確立了“三軌并行”的商業(yè)模式:IP授權(quán)—繼續(xù)向頂級客戶提供最底層的設(shè)計圖紙;計算子系統(tǒng)(CSS)—提供預集成的半成品,縮短客戶自研周期;量產(chǎn)芯片—為Meta和OpenAI等追求極速部署、不愿負擔芯片設(shè)計高昂成本的客戶提供成品,核心戰(zhàn)略是通過產(chǎn)品矩陣的拓展?jié)M足廣泛客戶的多元化需求。
這種分層遞進的商業(yè)模式,在半導體行業(yè)尚無先例。也再次應證,Arm正在從一家“IP 供應商”轉(zhuǎn)型為“計算平臺提供商”。通過提供從核心IP到參考設(shè)計、再到量產(chǎn)芯片的全棧能力,Arm為不同層級的客戶提供了按需選擇的靈活性——希望自研的可以用IP,想要加速的可以拿CSS,想要直接部署的可以選芯片。
Meta基礎(chǔ)設(shè)施部門對Arm表示了支持。作為該芯片的早期合作伙伴,Meta計劃將其與自研的MTIA加速器協(xié)同部署,以優(yōu)化其35億用戶的AI體驗。
除Meta外,Arm還確認與Cerebras、Cloudflare、F5科技、OpenAI、Positron、Rebellions、SAP、SK電訊等企業(yè)達成進一步的商務合作。這些客戶將在代理式CPU 核心應用場景中部署Arm AGI CPU,覆蓋加速器管理、控制平面處理、云與企業(yè)級API、任務與應用托管等領(lǐng)域。
超大規(guī)模云服務商、云計算、芯片、內(nèi)存、網(wǎng)絡(luò)、軟件、系統(tǒng)設(shè)計與制造等領(lǐng)域的50余家領(lǐng)軍企業(yè),也對Arm計算平臺向芯片領(lǐng)域拓展表示支持。其中包括亞馬遜云科技、博通、谷歌、Marvell、美光、微軟、NVIDIA、三星、SK海力士、臺積公司等行業(yè)標桿企業(yè)。
財務野心:2030藍圖
對于華爾街而言,最核心的數(shù)字在于Arm的營收預測。Rene Haas宣布,Arm計劃到2030 年實現(xiàn)250億美元的年營收,每股收益(EPS)9美元。相比目前約50億美元的營收規(guī)模,以及1.75美元的每股收益,這意味著Arm要在未來5年內(nèi)實現(xiàn)5倍增長。
也就是說,到2030年,Arm將擁有兩大獨立且實力強勁的業(yè)務板塊:一是IP業(yè)務,它將保持超60%的高運營利潤率,營收突破100億美元;二是芯片業(yè)務,運營利潤率將超過30%,營收將達到150億美元。分析人士認為,Arm正試圖模仿蘋果公司的路徑——通過軟硬件的垂直深度整合,在攫取更高市場份額的同時,提升單核心價值。
Mohamed在采訪中透露:目前已有超過一萬家客戶在云環(huán)境中使用基于Arm架構(gòu)的產(chǎn)品,但在此之前,這些客戶并沒有機會在本地部署類似的方案。Arm AGI CPU的出現(xiàn),讓他們能夠基于相同的IP基礎(chǔ),在本地獲得與云端非常相似的體驗。這為云服務商和客戶都創(chuàng)造了新的增長機會。
事實上,從邊緣控制器到高性能自主化系統(tǒng),在計算產(chǎn)業(yè)歷經(jīng)數(shù)十年迭代后,Arm技術(shù)已經(jīng)成為當前眾多智能基礎(chǔ)設(shè)施的基石。目前,全球100%聯(lián)網(wǎng)人群日常使用Arm技術(shù),基于Arm架構(gòu)的芯片累計出貨超3500億顆,全球有2200萬開發(fā)者基于Arm平臺進行全棧軟件開發(fā)。
Arm AGI CPU消息公布之后,Arm股價表現(xiàn)強勁。投資者顯然押注,在代理式AI引發(fā)的算力軍備競賽中,Arm這位曾經(jīng)的“幕后導師”已經(jīng)準備好接管戰(zhàn)場。