訂閱
糾錯(cuò)
加入自媒體

CPU,為何“偷偷轉(zhuǎn)型”?

圖片

Yole Group發(fā)布的《2025年處理器產(chǎn)業(yè)狀況》報(bào)告確認(rèn)了一個(gè)里程碑式的節(jié)點(diǎn):2024年GPU銷(xiāo)售額首次超越了CPU。這標(biāo)志著半導(dǎo)體產(chǎn)業(yè)正式邁入了一個(gè)由加速計(jì)算主導(dǎo)的新周期。在這樣一個(gè)宏觀背景下,一個(gè)核心議題浮出水面:當(dāng)GPU、NPU以及ASIC這些“加速器”逐漸接管大規(guī)模并行計(jì)算任務(wù)時(shí),傳統(tǒng)的中央處理器會(huì)不會(huì)被邊緣化?或者說(shuō),它能在新的計(jì)算范式中找到不可替代的位置嗎?

GenAI計(jì)算重心的轉(zhuǎn)移并未消除對(duì)主機(jī)處理器的需求,但卻徹底改變了對(duì)其性能指標(biāo)的定義。過(guò)去三十年間,CPU主要依靠提升通用計(jì)算頻率和推測(cè)執(zhí)行效率來(lái)推動(dòng)摩爾定律。然而,在面對(duì)萬(wàn)億參數(shù)模型訓(xùn)練與實(shí)時(shí)推理的高吞吐量需求時(shí),這種通用設(shè)計(jì)原則正遭遇能效比與I/O瓶頸的雙重挑戰(zhàn)。

行業(yè)正在重新審視CPU在AI集群里的位置。過(guò)去,它只是個(gè)簡(jiǎn)單的邏輯控制器;現(xiàn)在,它正在演變成異構(gòu)系統(tǒng)的調(diào)度中樞,不僅提供大容量?jī)?nèi)存,還直接負(fù)責(zé)特定的推理任務(wù)。這種轉(zhuǎn)變不僅重構(gòu)了底層技術(shù)架構(gòu),也在深刻影響著市場(chǎng)格局和資本流向,從數(shù)據(jù)中心一直延伸到邊緣設(shè)備。

01

CPU的困境與“轉(zhuǎn)型”

在傳統(tǒng)的以CPU為中心的計(jì)算架構(gòu)中,數(shù)據(jù)處理流程通常由運(yùn)行在CPU上的軟件棧進(jìn)行管理,數(shù)據(jù)需要在網(wǎng)絡(luò)接口、CPU內(nèi)存和深度學(xué)習(xí)加速器(DLA)之間進(jìn)行多次搬運(yùn)。這種基于軟件的數(shù)據(jù)控制機(jī)制在面對(duì)AI工作負(fù)載時(shí),顯現(xiàn)出明顯的效率缺陷。主要問(wèn)題體現(xiàn)在并行命令的沖突以及數(shù)據(jù)路徑的擁塞,這直接限制了后端加速器的利用率,導(dǎo)致昂貴的硬件資源處于等待狀態(tài),進(jìn)而推高了系統(tǒng)的整體功耗與成本。

更為深層的技術(shù)矛盾,在于處理器微架構(gòu)的設(shè)計(jì)哲學(xué)。現(xiàn)代CPU普遍依賴(lài)“推測(cè)執(zhí)行”技術(shù),通過(guò)分支預(yù)測(cè)來(lái)提前執(zhí)行指令以保持流水線(xiàn)滿(mǎn)載,這種機(jī)制在處理邏輯復(fù)雜的通用程序時(shí)表現(xiàn)優(yōu)異。然而,AI和機(jī)器學(xué)習(xí)工作負(fù)載主要由大規(guī)模的向量和矩陣運(yùn)算構(gòu)成,且內(nèi)存訪問(wèn)模式往往呈現(xiàn)出高度的不規(guī)則性。在這種場(chǎng)景下,推測(cè)執(zhí)行容易出現(xiàn)預(yù)測(cè)失敗,導(dǎo)致流水線(xiàn)頻繁刷新。被丟棄的計(jì)算指令不僅未能產(chǎn)生有效產(chǎn)出,反而造成了額外的能源浪費(fèi)與延遲。

針對(duì)通用架構(gòu)在AI負(fù)載下的局限性,處理器行業(yè)正在經(jīng)歷第一層維度的革新:微架構(gòu)層面的去推測(cè)化。近期獲得美國(guó)專(zhuān)利商標(biāo)局專(zhuān)利認(rèn)證的“基于時(shí)間的確定性執(zhí)行模型”代表了一種新的設(shè)計(jì)思路。該模型摒棄了復(fù)雜的推測(cè)機(jī)制,引入帶有時(shí)間計(jì)數(shù)器的向量協(xié)處理器,采用靜態(tài)調(diào)度策略。在這一架構(gòu)下,指令僅在數(shù)據(jù)依賴(lài)關(guān)系完全解決且操作數(shù)就緒的確定時(shí)刻,才會(huì)被分發(fā)至執(zhí)行單元。

由于執(zhí)行順序和時(shí)間是預(yù)先規(guī)劃且確定的,芯片設(shè)計(jì)可以省去復(fù)雜的寄存器重命名和亂序執(zhí)行控制邏輯,從而在矩陣計(jì)算等任務(wù)中以更低的晶體管開(kāi)銷(xiāo)和功耗實(shí)現(xiàn)高可擴(kuò)展性。這種確定性執(zhí)行模型在保持與RISC-V等標(biāo)準(zhǔn)指令集兼容的同時(shí),從底層邏輯上適配了AI計(jì)算對(duì)高吞吐量和低延遲的剛性需求。

第二層維度的革新則是系統(tǒng)級(jí)架構(gòu)的“專(zhuān)用化分流”。為了解決I/O瓶頸,行業(yè)開(kāi)始探索將網(wǎng)絡(luò)排序、服務(wù)質(zhì)量管理(QoS)及數(shù)據(jù)預(yù)處理功能從主機(jī)CPU的軟件棧中剝離,下沉至專(zhuān)用的硬件邏輯中。這種被稱(chēng)為“網(wǎng)絡(luò)附加處理單元”(NAPU)的設(shè)計(jì)理念,通過(guò)在處理器內(nèi)部集成DSP核心、視頻引擎及AI優(yōu)化的網(wǎng)絡(luò)接口,實(shí)現(xiàn)了數(shù)據(jù)路徑的硬件加速。

這不僅釋放了通用CPU核心的算力資源,使其能專(zhuān)注于復(fù)雜的邏輯調(diào)度,還大幅減少了數(shù)據(jù)在不同組件間的無(wú)效移動(dòng)。此外,主流x86處理器也在通過(guò)集成AMX等專(zhuān)用加速指令集來(lái)進(jìn)行自我進(jìn)化,優(yōu)化對(duì)bf16和int8等低精度數(shù)據(jù)類(lèi)型的處理能力,從而在不依賴(lài)外部加速器的情況下,提升CPU自身處理矩陣運(yùn)算的效率。

02

AI 時(shí)代,CPU的應(yīng)用場(chǎng)景

技術(shù)架構(gòu)的演進(jìn)直接映射在市場(chǎng)需求的結(jié)構(gòu)性變化上。盡管訓(xùn)練端對(duì)GPU的需求持續(xù)高漲,但推理端市場(chǎng)正呈現(xiàn)出對(duì)成本和能效的敏感,這為新型CPU提供了廣闊的市場(chǎng)空間。根據(jù)Future Market Insights預(yù)測(cè),美國(guó)數(shù)據(jù)中心CPU需求將保持7.4%的復(fù)合年增長(zhǎng)率。這并非源于對(duì)傳統(tǒng)通用算力的渴求,而是由AI應(yīng)用落地過(guò)程中的實(shí)際“經(jīng)濟(jì)賬”所逼出來(lái)的。

在推理場(chǎng)景中,并非所有任務(wù)都需要昂貴的GPU集群。對(duì)于大量參數(shù)量在7B至13B之間的中小模型,或者是單用戶(hù)的實(shí)時(shí)交互請(qǐng)求,現(xiàn)代服務(wù)器CPU已經(jīng)能夠提供足夠的吞吐量。英特爾的數(shù)據(jù)顯示,雙路服務(wù)器在運(yùn)行特定參數(shù)規(guī)模的Llama模型時(shí),可以達(dá)到滿(mǎn)足實(shí)時(shí)閱讀速度的Token生成率。

更為關(guān)鍵的是,根據(jù)亞信科技和Cast AI的統(tǒng)計(jì),公有云環(huán)境中存在大量利用率低于20%的閑置CPU資源。利用這些已部署的通用算力進(jìn)行AI推理,相比額外采購(gòu)專(zhuān)用加速器,具有顯著的總擁有成本(TCO)優(yōu)勢(shì)。因此,在長(zhǎng)尾應(yīng)用和非高并發(fā)場(chǎng)景下,CPU正在加入AI推理的主力軍,這種“夠用就好”的經(jīng)濟(jì)邏輯支撐了數(shù)據(jù)中心CPU市場(chǎng)的持續(xù)增長(zhǎng)。

除了直接承擔(dān)推理任務(wù),AI大模型對(duì)內(nèi)存容量的渴求也重塑了CPU的市場(chǎng)價(jià)值。隨著模型參數(shù)量突破萬(wàn)億級(jí)別,GPU的顯存容量日益成為限制推理性能的瓶頸,顯存溢出即意味著服務(wù)中斷。在這一背景下,CPU的主內(nèi)存通過(guò)CXL等高速互聯(lián)技術(shù)與GPU共享,實(shí)際上充當(dāng)了加速器的L4緩存。

在英偉達(dá)的GH/GB系列以及華為昇騰的超節(jié)點(diǎn)方案中,高性能CPU與其搭載的大容量DDR內(nèi)存成為了支撐大模型穩(wěn)定運(yùn)行的關(guān)鍵基礎(chǔ)設(shè)施。這意味著市場(chǎng)對(duì)服務(wù)器CPU的評(píng)價(jià)標(biāo)準(zhǔn)正在發(fā)生改變,內(nèi)存通道數(shù)量、帶寬以及與加速器的互聯(lián)速度,成為了比核心頻率更為關(guān)鍵的選型指標(biāo)。

再把視野放寬到邊緣計(jì)算和終端設(shè)備,市場(chǎng)對(duì)“異構(gòu)協(xié)同”的需求已經(jīng)超越了單一芯片的性能。在具身智能、智能終端這些領(lǐng)域,系統(tǒng)設(shè)計(jì)有嚴(yán)格的分工:CPU負(fù)責(zé)低延遲的邏輯控制和實(shí)時(shí)交互,GPU負(fù)責(zé)高并發(fā)計(jì)算,NPU處理持續(xù)運(yùn)行的背景任務(wù)。

行業(yè)專(zhuān)家指出,在語(yǔ)音轉(zhuǎn)文字、復(fù)雜邏輯調(diào)度及實(shí)時(shí)運(yùn)動(dòng)控制等場(chǎng)景中,CPU的響應(yīng)速度優(yōu)于需要批處理才能發(fā)揮效率的GPU。例如在機(jī)器人領(lǐng)域,x86 CPU憑借其在工業(yè)控制領(lǐng)域的軟件生態(tài)積累,配合嵌入式GPU構(gòu)成的主控方案,依然是主流選擇。這種異構(gòu)計(jì)算的市場(chǎng)趨勢(shì)促使CPU必須具備更強(qiáng)的協(xié)同能力,能夠高效地將特定負(fù)載卸載給NPU或GPU,同時(shí)保持對(duì)全局任務(wù)的精準(zhǔn)調(diào)度。

03

AI CPU,巨頭與后起之秀

在技術(shù)轉(zhuǎn)型和市場(chǎng)需求的雙重驅(qū)動(dòng)下,處理器產(chǎn)業(yè)的競(jìng)爭(zhēng)格局正在重塑。一方面,專(zhuān)注于AI專(zhuān)用架構(gòu)的初創(chuàng)企業(yè)開(kāi)始冒頭;另一方面,傳統(tǒng)巨頭也在忙著調(diào)整戰(zhàn)略,進(jìn)行生態(tài)融合。

以色列芯片企業(yè)NeuReality就是專(zhuān)用化趨勢(shì)的典型。該公司近期完成了3500萬(wàn)美元的A輪融資,總?cè)谫Y額達(dá)到4800萬(wàn)美元,其商業(yè)化目標(biāo)直指AI推理服務(wù)器市場(chǎng)。NeuReality推出的NR1芯片實(shí)際上是對(duì)傳統(tǒng)CPU架構(gòu)的一次解構(gòu)與重組,它被定義為“網(wǎng)絡(luò)附加處理單元”(NAPU)。該芯片集成了Arm Neoverse核心,但其核心競(jìng)爭(zhēng)力在于異構(gòu)集成的十六個(gè)通用DSP核心、十六個(gè)音頻DSP核心以及四個(gè)視頻引擎。

通過(guò)這種硬件設(shè)計(jì),NeuReality試圖解決傳統(tǒng)CPU在處理AI數(shù)據(jù)流時(shí)的瓶頸,將網(wǎng)絡(luò)排序、數(shù)據(jù)排序及同步等任務(wù)固化在硬件中。其公開(kāi)數(shù)據(jù)顯示,相較于傳統(tǒng)的CPU中心架構(gòu),NR1能夠?qū)I應(yīng)用的總擁有成本改善10倍。這種專(zhuān)用化芯片的出現(xiàn),標(biāo)志著市場(chǎng)開(kāi)始接受不再由通用CPU主宰一切,而是由專(zhuān)用宿主處理器來(lái)管理AI流水線(xiàn)的理念。

與此同時(shí),傳統(tǒng)芯片巨頭也在積極適應(yīng)這一變化,通過(guò)資本運(yùn)作與技術(shù)合作來(lái)鞏固生態(tài)地位。2025年9月,英偉達(dá)宣布向英特爾投資50億美元并開(kāi)展基礎(chǔ)設(shè)施合作,這一商業(yè)動(dòng)作具有極強(qiáng)的信號(hào)意義。盡管英偉達(dá)在加速計(jì)算領(lǐng)域占據(jù)統(tǒng)治地位,但其對(duì)x86生態(tài)的巨額投資表明,在未來(lái)相當(dāng)長(zhǎng)的時(shí)間內(nèi),高性能x86 CPU作為異構(gòu)集群的通用底座和生態(tài)入口,其戰(zhàn)略?xún)r(jià)值依然不可撼動(dòng)。這與其說(shuō)是妥協(xié),不如說(shuō)是對(duì)現(xiàn)實(shí)的承認(rèn)——再?gòu)?qiáng)大的GPU集群,也需要強(qiáng)大的CPU來(lái)調(diào)度。

在另一端,Arm架構(gòu)正在服務(wù)器領(lǐng)域發(fā)起強(qiáng)有力的攻勢(shì)。數(shù)據(jù)顯示,Arm架構(gòu)CPU在服務(wù)器市場(chǎng)的份額持續(xù)攀升,預(yù)計(jì)在2025年將占據(jù)全球服務(wù)器出貨量的21.1%。這一增長(zhǎng)不僅得益于AWS等云廠商自研Graviton系列芯片的推動(dòng),也離不開(kāi)富士通等廠商在歐洲市場(chǎng)的布局。富士通與歐洲云服務(wù)商Scaleway達(dá)成的戰(zhàn)略合作,旨在利用基于Arm架構(gòu)的FUJITSU-MONAKA CPU平臺(tái)構(gòu)建高能效AI推理環(huán)境,這種方案避開(kāi)了GPU算力的紅海競(jìng)爭(zhēng),轉(zhuǎn)而在綠色計(jì)算和低TCO推理領(lǐng)域?qū)ふ彝黄瓶凇?/p>

然而,互聯(lián)網(wǎng)大廠的實(shí)際部署策略也顯示出市場(chǎng)的復(fù)雜性。盡管自研Arm芯片在成本上具有優(yōu)勢(shì),但在核心的AI訓(xùn)練集群中,為了保證軟件生態(tài)的絕對(duì)兼容性和穩(wěn)定性,x86 CPU依然是首選配置。這表明,未來(lái)的處理器市場(chǎng)將不再是單一架構(gòu)的零和博弈,而是進(jìn)入了x86與Arm并存、通用CPU與專(zhuān)用AI CPU互補(bǔ)、CPU與加速器深度協(xié)同的復(fù)雜生態(tài)階段。

在這種格局下,CPU廠商的競(jìng)爭(zhēng)力將不再單純?nèi)Q于核心數(shù)量或頻率,而在于其架構(gòu)是否足夠開(kāi)放,是否能高效地融入異構(gòu)計(jì)算的流水線(xiàn),以及是否能為日益多樣化的AI負(fù)載提供最具經(jīng)濟(jì)效益的算力支持。

       原文標(biāo)題 : CPU,為何“偷偷轉(zhuǎn)型”?

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)