訂閱
糾錯
加入自媒體

大模型日報| 英偉達在CES2026上的三宗事

01

算力與基礎(chǔ)設(shè)施(芯片/云/數(shù)據(jù)中心)

①CES 2026:英偉達Rubin系列芯片與自動駕駛AI登場

同樣是在2026年國際消費電子展上,被谷歌TPU逐漸打破生態(tài)壁壘的英偉達選擇開年出擊。黃仁勛在今年第一場演講上著重強調(diào)了以下三部分內(nèi)容:

一是2025年開源模型正在改變AI行業(yè)。

提及開源模型,首當(dāng)其沖的必然是DeepSeek R1這個被黃仁勛描述為“讓整個世界震驚”的國產(chǎn)模型。自R1發(fā)布以來,AI開始進入全球擴散化階段,相比最前沿的AI模型,開源模型僅僅落后約6個月,而這一距離正在肉眼可見地縮短。技術(shù)無法被徹底封鎖,依靠閉源實現(xiàn)壟斷的路徑幾乎不可能走通,只有擁抱開源才能構(gòu)建龐大的生態(tài)環(huán)境。

黃仁勛表示,英偉達會將很多數(shù)據(jù)庫進行開源(包括復(fù)雜的物理、生物數(shù)據(jù)),允許用戶處理并生成數(shù)據(jù),幫助用戶完成模型的創(chuàng)造、訓(xùn)練、評估、約束和部署的閉環(huán)。

黃仁勛稱,英偉達采用完全公開的方式,讓每家公司、每個行業(yè)、每個國家都成為AI革命的一部分。 

二是推出全球首個專門為自動駕駛設(shè)計的思考與推理模型Alpamayo。

該模型引入了視覺語言動作模型(VLA),通過向自動駕駛的決策過程中加入人類思維以提升安全性和應(yīng)急處理能力。英偉達將這一模型以及包含上千小時的物理數(shù)據(jù)同時開源,用戶可以自行獲取并微調(diào)該模型。

三是英偉達全新一代計算平臺Vera Rubin全面投產(chǎn)。

黃仁勛表示,訓(xùn)練和推理階段所需的算力仍然在不斷激增,模型的規(guī)模每年大概要擴大10倍,“Test-Time Scaling”每年在推理階段消耗的token數(shù)量增長大概五倍,而token成本則每年要便宜10倍。因此,AI競爭的本質(zhì)仍然是計算問題。計算速度的提升意味著更快達到下一個領(lǐng)域的新高度。

為此,英偉達設(shè)計的Vera Rubin計算平臺恰好在AI的下一個前沿領(lǐng)域到來之際開始投產(chǎn)。按照英偉達內(nèi)部準則,新一代產(chǎn)品不應(yīng)該更換超過2枚芯片。

不過,由于摩爾定律放緩,英偉達每年能夠獲得的晶體管數(shù)量已經(jīng)無法匹配模型規(guī)模和tokens消耗量的迅速擴大,因此英偉達別無選擇,只能采用更為激進的方式:Vera Rubin是一個由6枚芯片設(shè)計為協(xié)同工作的系統(tǒng),誕生于極端代碼設(shè)計。

IMG_256

根據(jù)演講公布的數(shù)據(jù),Vera Rubin NVL72系統(tǒng)相比前代Blackwell系統(tǒng),各項數(shù)據(jù)指標均實現(xiàn)顯著提升,其中在FP4推理算力和訓(xùn)練算力上分別增強至3.6倍和2.5倍,整個機柜包含220萬億個晶體管。除此之外,黃仁勛親自演示了計算節(jié)點的組裝,耗時從前代的2個小時壓縮到了5分鐘,系統(tǒng)實現(xiàn)100%液冷。

addad2f42e956815bc0d9279e384e475

性能方面,以訓(xùn)練一個10萬億參數(shù)規(guī)模的模型、使用100萬億個token為例,Rubin NVL72所需的GPU數(shù)量僅為Blackwell NVL72的1/4;大規(guī)模部署場景下,能夠處理的token數(shù)量是Blackwell的10倍;token成本則壓縮到了Blackwell的1/10。

短評:

這次英偉達“開源模型+自動駕駛+計算平臺”三軍齊出,可見以谷歌TPU為首的ASIC對英偉達造成的壓力非同小可。在其他廠商開始嘗試在特定場景實現(xiàn)更高的能效比的同時,英偉達轉(zhuǎn)向了全棧系統(tǒng)能力的競爭。

Rubin平臺作為一個可編程、可組合、支持多模態(tài)負載的AI系統(tǒng),進一步擴大了英偉達生態(tài)環(huán)境的覆蓋范圍,而推理成本和訓(xùn)練效率的改進讓英偉達能夠用系統(tǒng)級的優(yōu)化對沖ASIC的能效優(yōu)勢。

與此同時,黃仁勛對于開源模型的贊美以及Alpamayo的開源,則說明英偉達的護城河已經(jīng)不再穩(wěn)定,需要通過開源換取生態(tài)主導(dǎo)權(quán)。本次演講中反復(fù)強調(diào)的物理AI則是英偉達押注的下一片AI主戰(zhàn)場,具身智能、機器人和自動駕駛將成為未來AI應(yīng)用的重點。

③CES 2026:AMD發(fā)布新一代AI PC芯片&游戲處理器

AMD在此次國際消費電子展上宣布了一系列新的AI處理器,表示AI驅(qū)動的個人端PC將會是未來的趨勢。

本次發(fā)布的是AMD Ryzen AI 400系列處理器,也是AMD AI驅(qū)動PC芯片的最新版本。相比競爭對手,多任務(wù)處理性能比競品快1.3倍,視頻剪輯和圖像生成等創(chuàng)作任務(wù)快1.7倍,內(nèi)置12核24線程,專門為本地AI推理而進行優(yōu)化。

生態(tài)環(huán)境上,目前已有250款以上的AI PC已經(jīng)搭載AMD芯片,在過去的一年時間內(nèi)實現(xiàn)了翻倍。同時,全新的Ryzen 7 9850X3D游戲CPU被視為目前最強大的游戲CPU,搭配最新版本的Redstone光追技術(shù),能夠在保持幀率不降的情況下實現(xiàn)更真實的光影效果。

短評:

相比英偉達首次沒有在演講中提及消費級顯卡,甚至減產(chǎn)RTX 5070 / 5060 Ti等產(chǎn)品,AMD更傾向于將目標聚焦于個人電腦端和輕量級AI,差異化的產(chǎn)品設(shè)計方向也與AMD“讓每個人都用上AI”的目標相匹配。

盡管二者發(fā)布的產(chǎn)品并非直接競爭對手,但AMD的這次產(chǎn)品發(fā)布無疑能夠進一步提高生態(tài)滲透率,同時增加輕量級模型的應(yīng)用場景。

02

重大發(fā)布(新模型/產(chǎn)品/開源)

①CES 2026:Google TV接入Gemini,“邊緣化”的電視重回舞臺

2026年國際消費電子展上,Google展示了將在其互聯(lián)網(wǎng)電視平臺Google TV上增加的多種Gemini相關(guān)功能,首發(fā)搭載于新款TCL電視,預(yù)計在未來幾個月內(nèi)覆蓋所有Google TV設(shè)備。

目前,Google TV上的Gemini支持的功能仍然較為簡單:

一是根據(jù)用戶的指令進行內(nèi)容查找和相關(guān)推薦;

二是允許用戶使用語音直接更改電視相關(guān)設(shè)置;

三是連接谷歌相冊進行圖像處理;

四是與用戶針對特定話題進行語音問答式互動。

以上功能除了必備的互聯(lián)網(wǎng)連接和谷歌賬戶以外,還需要Android TV OS 14以上版本方能支持運行。

短評:

電視作為上一代電子產(chǎn)品,如今的應(yīng)用范圍已經(jīng)極為有限。谷歌這次錦上添花的更新,幾乎不具備創(chuàng)新性,功能也較為局限,唯一的價值在于覆蓋了更廣泛的用戶群體。

②豆包大模型Doubao-Seed-1.8恢復(fù)公開可用

2025年12月25日,廣受國內(nèi)用戶好評的豆包1.8版本大模型在僅僅發(fā)布10天就宣告調(diào)整,變?yōu)楣珳y狀態(tài),僅允許白名單用戶使用。根據(jù)官方給出的原因,Doubao-Seed-1.8的視覺語言模型需要進行調(diào)整,以便提供更高質(zhì)量的技術(shù)服務(wù)。

目前,該模型已經(jīng)重新開放體驗,但在“智能路由”的全自動模式下,其候選模型列表中仍然未包含Doubao-Seed-1.8。

短評:

作為國內(nèi)目前最受歡迎的模型系列,豆包日均50萬以上的tokens消耗量令人震驚。盡管官方?jīng)]有給出這次技術(shù)調(diào)整的具體細節(jié),但頻繁的請求導(dǎo)致字節(jié)的算力本就十分緊張,再加上近期AI安全性問題不時暴露,于此時進行緊急調(diào)整有利于完善使用體驗,短短幾天吊起用戶胃口也能進一步拉動模型需求增長。

③國產(chǎn)醫(yī)療語言模型開源:AntAngelMed拿下HealthBench榜首

昨日,浙江省衛(wèi)生健康信息中心聯(lián)合螞蟻健康、浙江省安診兒醫(yī)學(xué)人工智能科技有限公司聯(lián)合研發(fā)了這款名為AntAngelMed的模型,同時它也是目前規(guī)模最大、能力最強的開源醫(yī)療語言模型之一。

IMG_256

該模型采用三階段的訓(xùn)練方式:

第一階段是持續(xù)預(yù)訓(xùn)練(Continual Pre-Training),大規(guī)模、高質(zhì)量的語料庫有助于模型學(xué)習(xí)專業(yè)領(lǐng)域的知識;

第二階段是監(jiān)督微調(diào)(Supervised Fine-Tuning, SFT),通過高質(zhì)量的指令數(shù)據(jù)集模擬醫(yī)學(xué)場景,提升臨床表現(xiàn);

第三階段是強化學(xué)習(xí)(Reinforcement Learning, RL),強調(diào)共情能力和安全邊界,減少幻覺概率。

同時,這一醫(yī)療模型采用了高效的MoE架構(gòu),總參數(shù)100B,每次運行只需要激活6.1B,在H20上的推理速度超過200 tokens/s,支持128K上下文窗口。

短評:

盡管該模型性能非常強大,但其硬件配置需求略顯高昂,若想在實際場景中應(yīng)用至少需要H200級的計算性能;與此同時,由于LLM概率預(yù)測器的本質(zhì)以及自回歸生成的機制,幻覺在本質(zhì)上難以完全避免,導(dǎo)致該模型在醫(yī)學(xué)領(lǐng)域的部分復(fù)雜場景中難以實際應(yīng)用。

03

 商業(yè)動態(tài)(融資/合作/財報)

①字節(jié)跳動辟謠:豆包AI眼鏡目前無明確銷售計劃

幾天前,字節(jié)旗下的豆包AI眼鏡進入出貨階段的消息讓AI硬件領(lǐng)域沸騰起來,當(dāng)時傳出的消息是“總量10萬臺,采用高通AR1芯片”。不過,今天上午字節(jié)正式否認了這一傳言,明確告知目前暫無銷售計劃。

目前,AI可穿戴設(shè)備市場的競爭已經(jīng)拉開帷幕。2025年,國內(nèi)有百度的“小度AI眼鏡”、阿里的“夸克AI眼鏡”,國外有Meta的“Ray-Ban Display”,AR與AI能力的不斷提升促生出了這些廣受好評的新一代智能設(shè)備,在功能層面上已有替代手機的趨勢。2026年,谷歌預(yù)計發(fā)布代號為“Project Aura”的AI眼鏡,而字節(jié)的相關(guān)產(chǎn)品也即將誕生。

短評:

盡管字節(jié)否認了銷售計劃,但短短幾個小時內(nèi)兩條消息的接連發(fā)布,仍然存在造勢的可能。在市場已有多款同類競品發(fā)布的情況下,字節(jié)需要推出技術(shù)和用戶體驗都更加完善的產(chǎn)品才能在市場中立足,而這正是坐擁豆包和抖音這兩款“國民級”應(yīng)用、掌握大量用戶使用偏好數(shù)據(jù)的字節(jié)的優(yōu)勢所在。

②Google DeepMind產(chǎn)品負責(zé)人:是時候重新開始發(fā)貨了!

今天凌晨,Google Deepmind的產(chǎn)品負責(zé)人Logan Kilpatrick發(fā)布了一條耐人尋味的推文:

900871988e3e9f79e5a7edaa657a8060

幾個小時后,又發(fā)布了一條升級Google AI Studio儀表盤的消息:

29a5db67f15f7677093aaf7e16d07295

可以推測,不久的未來Gemini將會有新產(chǎn)品誕生,目前廣泛猜測的可能性有兩個:

一是Gemini 3的新檢查點,即對現(xiàn)有Gemini 3模型的微調(diào)或?qū)R優(yōu)化;

二是Nano Banana 2 Flash,即圖像生成模型Nano Banana的輕量級版本。

短評:

谷歌的產(chǎn)品矩陣已經(jīng)比較完善,無論是大語言模型還是多模態(tài)模型,使用體驗都無可挑剔。本次發(fā)布的大概率不會是重量級新產(chǎn)品。但是,目前AI行業(yè)已經(jīng)向著Agent這一領(lǐng)域開始進發(fā),谷歌雖然具備全球數(shù)一數(shù)二的技術(shù)能力,但遲遲未有構(gòu)建Agent相關(guān)的大動作。

不過,考慮到谷歌在與OpenAI這位LLMs先驅(qū)者的競爭中已經(jīng)實現(xiàn)彎道超車,等到Agent的市場格局進一步完善再出手也是不錯的選擇。

       原文標題 : 大模型日報| 英偉達在CES2026上的三宗事

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號