訂閱
糾錯(cuò)
加入自媒體

化解端到端“黑盒”,奔馳和AI建立信任的三部曲

拆解白盒邏輯

編者按

智能汽車產(chǎn)業(yè)滾滾向前,在這摧枯拉朽的關(guān)鍵變革期,不斷涌現(xiàn)技術(shù)的交鋒!禩echLab》科技實(shí)驗(yàn)室,將聚焦智能汽車產(chǎn)業(yè)重磅的科技創(chuàng)新,我們會(huì)深層次解析背后創(chuàng)新的原理,試圖撥開云霧,看到智能汽車下一個(gè)十年。

作者|秦章勇

如果總結(jié)2025年最火熱的詞,莫過于AI,一年的時(shí)間,各行各業(yè)仿佛都經(jīng)過了AI的洗禮,具身智能就是AI涌現(xiàn)的集大成,生產(chǎn)制造則用AI提質(zhì)增速,打工人經(jīng)常用AI軟件做PPT、寫資料以及做海報(bào),善男信女們也用AI算命。

我們習(xí)慣了用AI給出答案和結(jié)果,并堅(jiān)信比我們?nèi)祟愑?jì)算的更精準(zhǔn),事實(shí)真是這樣嗎?

當(dāng)企業(yè)進(jìn)入AI應(yīng)用深水區(qū),更具象的問題就會(huì)逐漸凸顯出來,比如AI并不像想象中的那么容易落地,再有就是AI的輸出結(jié)果差強(qiáng)人意,難以完全獲得我們信任,對于自動(dòng)駕駛行業(yè)來說,AI的一個(gè)差錯(cuò),就可能釀成大禍。

歸根到底,在于AI大模型先天具有“黑盒”特性,輸出的結(jié)果很難保證完全正確。

最近科技博主小Lin和北京通用人工智能研究院院長朱松純有一場對談,就涉及到這個(gè)核心問題——為什么AI難落地?

這個(gè)問題延展到到自動(dòng)駕駛,怎么讓決策的邏輯“安全、可解釋”,也成為車企的頭等大事,車企和智駕企業(yè)逐漸演化出了VLM、世界模型等多條技術(shù)路線。

作為百年豪華車企,奔馳在處理這種問題就顯得輕車熟路,因?yàn)橛邪踩@條絕對底線,奔馳嘗試把AI的黑箱變成“白盒”,自動(dòng)駕駛的邏輯則是更安全、更負(fù)責(zé)、更守規(guī)矩。

01

AI大模型的邊界

和規(guī)則算法相比,AI系統(tǒng)可以通過數(shù)據(jù)訓(xùn)練自動(dòng)學(xué)習(xí)并適應(yīng)新情況,無需顯式編程,這讓其更靈活且泛化能力更強(qiáng),也是為什么AI大模型被稱為第四次工業(yè)革命的核心。

但成敗皆因此,不同于規(guī)則的強(qiáng)因果指導(dǎo),很長一段時(shí)間,我們都不能理解AI是怎么做出決策和輸出的。

在這里我們先簡單熟悉一下,AI運(yùn)轉(zhuǎn)的基本原理。

作為一種大模型,AI做出決策時(shí)并不會(huì)像我們?nèi)祟愐粯,對一個(gè)圖片、一句話或者一段文字整個(gè)做出理解,而且先將輸入的這些數(shù)據(jù)轉(zhuǎn)換為更小的單元,也就是Token(詞元),這些Token是模型處理和生成內(nèi)容的基本單元。

隨后AI會(huì)在自己模型的內(nèi)部結(jié)構(gòu)中,根據(jù)輸入的Token來預(yù)測下一個(gè)Token,再把預(yù)測出來的Token轉(zhuǎn)化成輸出的結(jié)果。

開發(fā)人員可以決定算法和數(shù)據(jù),投喂給AI大模型之后得到結(jié)果,至于中間的過程——AI是怎么推導(dǎo)結(jié)果的,就成為詭秘的“黑盒”。由于大模型的這種向量表達(dá),讓其具有天然的不可解釋性。

所以關(guān)于AI有個(gè)形象的比喻——訓(xùn)練大模型,就是科技界的現(xiàn)代煉丹術(shù)。

決策過程不透明,就會(huì)影響信任度,尤其是深度學(xué)習(xí)模型,依賴龐大的參數(shù)“煉丹”,但最終得出的結(jié)果往往差強(qiáng)人意,這種問題在法律或金融等高風(fēng)險(xiǎn)領(lǐng)域應(yīng)用時(shí),更容易凸顯出來。如果數(shù)據(jù)過于復(fù)雜且隨機(jī),還容易出現(xiàn)大模型幻覺。

具體到自動(dòng)駕駛,就是安全性堪憂,車輛在自動(dòng)駕駛狀態(tài)下,有可能出現(xiàn)識(shí)別誤判,系統(tǒng)如果錯(cuò)誤地把廣告牌識(shí)別為停止標(biāo)志并緊急剎車時(shí),就很難追溯是哪個(gè)特征觸發(fā)了錯(cuò)誤判斷。

除了黑盒的不可解釋性,AI大模型需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,這也涉及到了大模型的能力邊界問題——嚴(yán)重依賴數(shù)據(jù)質(zhì)量。

這就比較容易理解了,大模型需要大量的數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)的完整性和準(zhǔn)確性,直接決定了大模型的可靠性。而大模型預(yù)訓(xùn)練的核心原則是Scaling Law(規(guī);▌t),也就是說,只要使用更多數(shù)據(jù)訓(xùn)練更大模型,就能得到更好的結(jié)果。過去很長一段時(shí)間,都是Scaling Law指引著AI研究的方向。

但由于Scaling Law的數(shù)學(xué)關(guān)系遵循冪律分布,意味著模型的性能會(huì)隨規(guī)模擴(kuò)大,在解決問題時(shí)呈現(xiàn)邊際效益遞減特征。

很多大模型預(yù)訓(xùn)練初期會(huì)遵循大力出奇跡,數(shù)據(jù)量呈幾何式增長,但到了后期,新增數(shù)據(jù)對提升性能的邊際效益降低,導(dǎo)致?lián)p失函數(shù)下降速度減緩,這就出現(xiàn)了學(xué)習(xí)飽和‌現(xiàn)象。

但在實(shí)際應(yīng)用時(shí),就需要面對各種各樣復(fù)雜的場景,我們永遠(yuǎn)無法把所有黑天鵝事件都放到大模型去訓(xùn)練。

這也是自動(dòng)駕駛行業(yè)常說的長尾場景,在交通中發(fā)生頻率比較低但種類非常多的情況,比如極端天氣、異形物體識(shí)別以及人類行為不可預(yù)測性等,都很難通過現(xiàn)實(shí)數(shù)據(jù)充分訓(xùn)練。

面對大模型這些天生的缺陷,車企又該如何用好它?

02

以安全為底線的白盒邏輯

2023年12月,奔馳拿到北京L3級高速公路測試資格,2024年8月,又獲得L4級的測試資格,這讓奔馳成為第一家獲得北京指定城市道路和L4級自動(dòng)駕駛測試批準(zhǔn)的國際汽車制造商。更早的2021年,奔馳就已經(jīng)在德國拿到政府批準(zhǔn)的L3級商用自動(dòng)駕駛系統(tǒng)。

在事故責(zé)任難以厘清的背景下,奔馳之所以能狂飆突進(jìn),一個(gè)很大的原因在于,奔馳可以在AI黑盒不可解釋性中,增加了法律層面的“可解釋性” 。

面對自動(dòng)駕駛,奔馳一貫的策略是“以人為本”,也就是安全永遠(yuǎn)都是第一位,基于此,奔馳對自動(dòng)駕駛進(jìn)行了多重安全冗余以及制約。

首先就是我們都能看到的物理冗余,奔馳在制動(dòng)系統(tǒng)、轉(zhuǎn)向系統(tǒng)甚至車載電網(wǎng)等方面采用了‌冗余備份架構(gòu)‌。比如奔馳的轉(zhuǎn)向控制,就用了雙回路架構(gòu),配合制動(dòng)與供電系統(tǒng)的冗余備份,即使某一模塊故障,冗余系統(tǒng)仍能確保車輛可控,這也讓奔馳的“失效概率”可以壓縮至業(yè)內(nèi)最低。

再有就是奔馳強(qiáng)大的安全系統(tǒng),在奔馳的軟件架構(gòu)中叫做安全力場SFF。

安全力場的全稱是自動(dòng)駕駛安全防護(hù)場(Safety Force Field ),最早由英偉達(dá)提出,該框架是用數(shù)學(xué)驗(yàn)證的計(jì)算模型保障自動(dòng)駕駛安全,工作的邏輯是通過實(shí)時(shí)攝入傳感器數(shù)據(jù),分析并預(yù)測環(huán)境動(dòng)態(tài),輸出相應(yīng)動(dòng)作,從而避免車輛碰撞,不引發(fā)危險(xiǎn)場景。

如果說物理冗余是給車輛加了一層保險(xiǎn),那么安全力場SFF,則是用來約束、規(guī)范AI大模型的防護(hù)網(wǎng)。

我們都知道,AI容易出現(xiàn)幻覺或者面對長尾場景比較被動(dòng),比如車輛在面對一個(gè)不規(guī)則物體時(shí),AI可能會(huì)認(rèn)為是一個(gè)塑料袋,車輛可以直接加速穿過去。

這個(gè)時(shí)候,奔馳的安全力場就會(huì)介入,通過激光雷達(dá)傳來的物理數(shù)據(jù)來進(jìn)行計(jì)算,判斷出前方有障礙物阻擋駕駛,意識(shí)到會(huì)對安全產(chǎn)生威脅,如果不剎車將會(huì)產(chǎn)生碰撞,所以車輛會(huì)終止AI大模型給出的加速指令,發(fā)揮AEB的功能,果斷剎車。

我們可以看到,以安全為前提的背景下,奔馳會(huì)利用系統(tǒng)2的物理規(guī)則,去約束系統(tǒng)1的直覺大模型,提前抹除交通隱患。

除了有安全力場用來確定性兜底,奔馳在數(shù)據(jù)方面也可以解釋合理性。

2024年1月,奔馳就申請了一項(xiàng)名為“用于存儲(chǔ)車輛數(shù)據(jù)的方法和系統(tǒng),車輛和計(jì)算機(jī)程序產(chǎn)品”的專利,這是一種用于存儲(chǔ)車輛數(shù)據(jù)的方法,可以監(jiān)測事件記錄的觸發(fā)條件,并基于與所述觸發(fā)條件關(guān)聯(lián)的信號判斷觸發(fā)條件是否滿足等。

如今奔馳已有一套完整的自動(dòng)駕駛數(shù)據(jù)存儲(chǔ)系統(tǒng)(DSSAD),不僅可以記錄車輛的行駛軌跡,還可以記錄決策的邏輯,可以判斷是否是傳感器遮擋, 亦或者定位丟失等等。憑借這套記錄的數(shù)據(jù),就可以重構(gòu)決策的過程,也具備了法律層面的“可解釋性”。

03

建立信任的三部曲

奔馳為AI做多道防線的背后,是AI和人類社會(huì)脆弱的信任關(guān)系,這也是AI Agent落地難的癥結(jié)。

人與人之間建立信任,是一種直覺的反應(yīng),這種直覺可以通過行為判斷來善意,通過回應(yīng)確認(rèn)存在,也可以通過關(guān)系來衡量責(zé)任。但對于AI智能體來說,這個(gè)邏輯不在適用,因?yàn)槲覀儎?chuàng)造了比我們更難理解的物體。

這也有AI大模型本身局限性原因,Next Token Prediction(預(yù)測下一個(gè)詞/動(dòng)作)作為大模型的核心訓(xùn)練范式,每次預(yù)測都依賴于前序生成結(jié)果,這就導(dǎo)致早期小問題會(huì)在后續(xù)步驟中無限放大,而且大模型缺乏對全局語義或跨概念關(guān)系的理解能力。

這種局限性在需要多步規(guī)劃或復(fù)雜推理的長尾任務(wù)中,就會(huì)徹底暴露出來。

針對人和AI如何建立信任,朱松純教授及其團(tuán)隊(duì)提出了CUV架構(gòu),其中C代表認(rèn)知架構(gòu),是智能體的控制中心,U是勢能函數(shù)集合,是智能體的技能庫。V則是價(jià)值函數(shù)集合,是管理智能體的價(jià)值觀、偏好和決策原則的系統(tǒng)。

在訓(xùn)練過程中,認(rèn)知架構(gòu)是衡量U和V的關(guān)鍵,按照認(rèn)知架構(gòu),可以決定是否以效率(U)為先,還是以價(jià)值觀(V)為先。

對應(yīng)到汽車行業(yè),目前很多自動(dòng)駕駛會(huì)非常激進(jìn),比如搶黃燈、壓道變線,或者加塞等等,這些會(huì)被我們認(rèn)為是非常“老司機(jī)”。

不過對于奔馳來說,人和AI需要建立一個(gè)強(qiáng)信任的關(guān)系,也就是說奔馳會(huì)把“V”放大,一切行動(dòng)都應(yīng)該建立在安全的基礎(chǔ)上,比如尊重規(guī)則,絕對不會(huì)去搶黃燈,即便在沒有紅綠燈的斑馬線上,也會(huì)禮讓行人。

給AI劃定紅線后,奔馳的AI和人類相處起來,也會(huì)更融洽。

解決了信任問題,AI Agent的下一步就是需要理解人,成為人類的朋友。

在很多情況下,AI Agent更像是一個(gè)冰冷的機(jī)器,甚至有觀點(diǎn)認(rèn)為,AI不需要理解世界,也不會(huì)真正理解任何東西。

按照朱松純的觀點(diǎn),讓AI Agent成為人類的朋友,需要給AI“立心”,除了上面所說的“V”之外,還需要讓AI擁有獨(dú)立心智,也就是“意圖理解”的能力。

奔馳也朝著這個(gè)方向努力,2025年9月,奔馳和字節(jié)跳動(dòng)宣布戰(zhàn)略合作全面升級,新車搭載的豆包大模型,讓奔馳虛擬助手反應(yīng)更快,同時(shí)擁有了短期記憶和上下文理解的能力。

當(dāng)系統(tǒng)的安全屬性到足以抹除一切隱患,AI能夠真正理解需求、滿足需求,信任就會(huì)水到渠成,AI Agent落地也不再有阻礙。

這或許就是奔馳在“安全至上”的造車?yán)砟钪,想要達(dá)到的本質(zhì)目的。

       原文標(biāo)題 : 化解端到端“黑盒”,奔馳和AI建立信任的三部曲

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號