訂閱
糾錯
加入自媒體

深度解讀《人工智能的可解釋性》


可解釋性人工智能的應(yīng)用場景

人工智能的可解釋性為使用它的人,使用它的產(chǎn)業(yè),提供了一種信任的基礎(chǔ)。有了這樣的基礎(chǔ),AI才可以在更廣的范圍內(nèi)發(fā)揮它更大的作用。那當(dāng)不同的人工智能模型組成一個復(fù)雜的系統(tǒng)時,我們該如何體現(xiàn)整個系統(tǒng)的可解釋性?

主講嘉賓:Element AI 聯(lián)合創(chuàng)始人、首席科學(xué)官  Nicolas Chapados博士

舉個例子:

我們使用計算機視覺對圖像進(jìn)行學(xué)習(xí)和分析,來判斷圖像當(dāng)中哪些是狼,哪些是哈士奇。在左下角的這幅圖里,這個算法錯誤的把一只哈士奇當(dāng)作了狼。這是因為我們在選擇培訓(xùn)數(shù)據(jù),也就是這些圖片的時候,大部份狼的圖片背景中是雪地。于是這個計算機視覺的人工智能算法一下就偵測到了這個非常明顯的區(qū)別,將這個區(qū)別作為他判斷是狼還是哈士奇的一個標(biāo)準(zhǔn),而不是專注于狼和哈士奇面部的一些細(xì)微的區(qū)別。如果我們事前不知道培訓(xùn)數(shù)據(jù)里的這樣的區(qū)別,僅僅基于這個計算機視覺所給我們的結(jié)果,我們非常難發(fā)現(xiàn)機器視覺是如何犯下這樣的錯誤的。

不同的企業(yè)不同的公司,都會遇到類似的問題,那真的可以相信這個人工智能的系統(tǒng)嗎?從整個社會的層面上看,大范圍的使用人工智能的時候,它是否會造成一個我們都無法想象的結(jié)果?

正確的處理這些疑問和質(zhì)疑的方式是,我們必須將人工智能的可解釋性也涉及到這些系統(tǒng)和算法中去。

舉個例子:

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號