訂閱
糾錯(cuò)
加入自媒體

深度學(xué)習(xí)中存在的偏見和歧視問題,不容忽視

當(dāng)人工智能技術(shù)落地到各個(gè)行業(yè)領(lǐng)域,深度學(xué)習(xí)作為人工智能技術(shù)的核心也逐漸滲透至各個(gè)方面。計(jì)算機(jī)通過模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,通過大量數(shù)據(jù)和算法獲取新的知識或技能,最后重新組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能。

然而在人工智能上,一直存在“黑匣子”問題,深度網(wǎng)絡(luò)具有高預(yù)測能力但可解釋性不足的特點(diǎn)。在用大量數(shù)據(jù)“教導(dǎo)”機(jī)器學(xué)習(xí)的同時(shí),研究者發(fā)現(xiàn)機(jī)器學(xué)習(xí)也會產(chǎn)生不可預(yù)測性的“偏見”,當(dāng)一些暗含“偏見”的數(shù)據(jù)被算法永久性地編碼進(jìn)人工智能程序中,就可能導(dǎo)致未知的錯(cuò)誤和偏差,這可能會在最終結(jié)果和決策中產(chǎn)生影響甚至重大的錯(cuò)誤,從而影響未來人類與人工智能的關(guān)系。

前段時(shí)間,谷歌廢除了人工智能招聘項(xiàng)目,因?yàn)樵撊斯ぶ悄芟到y(tǒng)在經(jīng)過10年的簡歷培訓(xùn)后,由于男性主導(dǎo)的工作環(huán)境,產(chǎn)生了對“女性”的偏見,據(jù)報(bào)道,它對包含“婦女”一詞或某些全女子學(xué)院名稱的簡歷都進(jìn)行了處罰。

對于這種機(jī)器學(xué)習(xí)產(chǎn)生的“偏見”問題,類似于“俄羅斯坦克問題”。20世紀(jì)80年代,在機(jī)器學(xué)習(xí)發(fā)展的早期,美國軍方試圖訓(xùn)練一臺電腦來區(qū)分俄羅斯和美國坦克的照片。其分類準(zhǔn)確度非常高,但結(jié)果中俄羅斯坦克的所有照片都模糊不清,而美國坦克是高清晰度的。原來該算法最后不是在識別坦克,而是學(xué)習(xí)了如何區(qū)分模糊和清晰的照片。

而造成這種偏見的原因主要有一下幾點(diǎn):

一、用于機(jī)器學(xué)習(xí)算法的數(shù)據(jù)不足。算法在初始提供的數(shù)據(jù)中獲得模式,然后在新的數(shù)據(jù)中識別類似的模式,然而有時(shí)算法并不會按照人們初始意愿那樣工作。

二、算法本身很糟糕。機(jī)器學(xué)習(xí)是軟件開發(fā)人員利用大量與任務(wù)相關(guān)的數(shù)據(jù)訓(xùn)練 AI 算法的過程,如果本身算法就存在漏洞,深度學(xué)習(xí)后的結(jié)果則會更加差強(qiáng)人意。

要想消除機(jī)器學(xué)習(xí)中潛在的“偏見歧視”問題,可嘗試以下幾種方法。

減少原始數(shù)據(jù)的“偏見性”

2018年5月25日,“通用數(shù)據(jù)保護(hù)條例”(GDPR)在整個(gè)歐盟范圍內(nèi)生效,要求對組織如何處理個(gè)人數(shù)據(jù)進(jìn)行徹底改變。若違反GDPR條例的限制,相關(guān)組織必須支付高達(dá)2000萬歐元或其全球收入4%的罰款(以較高者為準(zhǔn)),對威懾大多數(shù)違規(guī)行為具有很重要的意義。

但事實(shí)上,雖然有GDPR等法規(guī)對數(shù)據(jù)的使用加以限制,還是避免不了一些研究使用存在偏見的數(shù)據(jù)集。由于機(jī)器學(xué)習(xí)系統(tǒng)的行為由它學(xué)到的數(shù)據(jù)所驅(qū)動,所以它的工作方式與人們編寫的標(biāo)準(zhǔn)計(jì)算機(jī)程序有很大不同。如果供算法訓(xùn)練的數(shù)據(jù)不能公平地覆蓋所研究對象,系統(tǒng)便會出現(xiàn)偏差,甚至?xí)糯笤紨?shù)據(jù)中的偏見。

而這個(gè)問題卻不在數(shù)據(jù)本身的數(shù)學(xué)結(jié)構(gòu)上,而在于深度學(xué)習(xí)系統(tǒng)的設(shè)計(jì)者和操作者上。要解決數(shù)據(jù)的偏見問題,就需要數(shù)據(jù)收集存儲、使用的公平性和全面性。

打開算法“黑匣子”

一直以來,許多公司為了自身的專利保護(hù)和商業(yè)機(jī)密,會嚴(yán)格保密自家的人工智能算法,從未形成了決策無法解釋的“黑匣子”問題。好在目前人工智能領(lǐng)域已意識到這個(gè)問題,正積極采取措施加快代碼的開源,制定透明度標(biāo)準(zhǔn),提高算法的可靠性,除此之外,還需提倡“程序員必須對算法得出的結(jié)論做出解釋,否則就不能投入使用”原則。對此,人們也做出了相應(yīng)舉動,例如,美國國防部高級研究計(jì)劃局資助了一項(xiàng)名為XAI(可解釋的人工智能)的計(jì)劃,旨在打開人工智能的“黑匣子”,以保證用戶更好地控制人工智能程序。

讓機(jī)器自己尋找錯(cuò)誤

人工智能系統(tǒng)在學(xué)習(xí)時(shí)會犯錯(cuò)。事實(shí)上這是肯定的,所以稱之為“學(xué)習(xí)”。電腦只會從你給出的數(shù)據(jù)中學(xué)習(xí)。但有時(shí)候,并不能消除數(shù)據(jù)偏見的來源,就像不能消除人類中的偏見來源,所以首先承認(rèn)問題,然后讓機(jī)器自己去發(fā)現(xiàn)錯(cuò)誤。

華盛頓大學(xué)的研究人員在2016年構(gòu)建了一種稱為LIME的解釋技術(shù),并在由Google構(gòu)建的圖像分類神經(jīng)網(wǎng)絡(luò)Inception Network上進(jìn)行了測試。

LIME在做出圖像分類決策時(shí),不會考慮觸發(fā)神經(jīng)網(wǎng)絡(luò)中的哪個(gè)神經(jīng)元,而是在圖像本身中搜索解釋。它會將原始圖像的不同部分變黑,并通過Inception將產(chǎn)生的“擾動”圖像反饋回來,以檢查哪些擾動導(dǎo)致結(jié)果偏離算法最遠(yuǎn)。通過解釋機(jī)器學(xué)習(xí)模式中的錯(cuò)誤,可以改進(jìn)技術(shù)來消除人的偏見。

深度學(xué)習(xí)的“偏見歧視”問題正潛移默化地影響著算法結(jié)果,研究者們需要時(shí)刻關(guān)注,反復(fù)檢測算法結(jié)果與預(yù)期的偏差,任何一點(diǎn)差距都有可能通過蝴蝶效應(yīng),最后發(fā)展成一個(gè)重要的錯(cuò)誤。在人工智能崛起的時(shí)代,當(dāng)人們越來越關(guān)注人工智能與人類社會的關(guān)系時(shí),這將是一個(gè)始終備受關(guān)注的敏感點(diǎn)。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號