訂閱
糾錯(cuò)
加入自媒體

無(wú)論你是否準(zhǔn)備好,一大波人工智能驅(qū)動(dòng)服務(wù)即將到來(lái)

人工智能已有數(shù)十年歷史,在公眾的想象中,它已成為2018年的標(biāo)志性技術(shù)之一,盡管它并非總是以積極的方式示人。

從好的方面來(lái)說(shuō),人工智能及其相關(guān)的技術(shù)(如機(jī)器學(xué)習(xí)和深度學(xué)習(xí))可以在智能手機(jī)和各種設(shè)備(如亞馬遜的Echo和谷歌的Home)中實(shí)現(xiàn)語(yǔ)音識(shí)別等業(yè)已成為理所當(dāng)然的服務(wù),自動(dòng)駕駛汽車(chē)、更準(zhǔn)確的疾病診斷,以及云和數(shù)據(jù)中心中不那么明顯但至少同樣具有影響力的,自動(dòng)化程度更高的信息技術(shù)基礎(chǔ)設(shè)施。

與此同時(shí),有人用人工智能制造假新聞來(lái)攻擊人,歧視某些類(lèi)型的工人或客戶(hù),并引發(fā)恐懼,盡管這可能過(guò)于夸張,機(jī)器可能很快會(huì)淘汰大多數(shù)工作。特斯拉的首席執(zhí)行官伊隆馬斯克和已故的物理學(xué)家斯蒂芬霍金等重要人物尤其引起了人們的擔(dān)憂(yōu)(人們對(duì)此仍然還在展開(kāi)激烈的爭(zhēng)論),即失控的人工智能可能會(huì)威脅到人類(lèi)的存亡。

但無(wú)論結(jié)果是好是壞,新的一年無(wú)疑會(huì)加速人工智能和機(jī)器學(xué)習(xí)在各種產(chǎn)品,業(yè)務(wù)和日常活動(dòng)中的使用。以下是對(duì)即將發(fā)生的以及不會(huì)發(fā)生的事情的一些預(yù)測(cè),還有專(zhuān)家提出來(lái)的想法:

人工智能在企業(yè)領(lǐng)域的重要性絲毫不亞于消費(fèi)產(chǎn)品領(lǐng)域

硅谷的同類(lèi)市場(chǎng)研究公司W(wǎng)ikibon的James Kobielus(他是負(fù)責(zé)人工智能、數(shù)據(jù)、數(shù)據(jù)科學(xué)、深度學(xué)習(xí)和應(yīng)用程序開(kāi)發(fā)的首席分析師)稱(chēng),人工智能正在重塑商業(yè)智能。這使得商業(yè)用戶(hù)可以進(jìn)行大量的分析,而這些分析曾經(jīng)要訓(xùn)練有素的數(shù)據(jù)科學(xué)家才能做。

接下來(lái)還有機(jī)器人過(guò)程自動(dòng)化(或模擬人們?nèi)绾卧谶^(guò)程中執(zhí)行任務(wù)的軟件),這已經(jīng)成為人工智能的主要企業(yè)用例之一。人工智能也正在成為管理信息技術(shù)基礎(chǔ)設(shè)施的重要基礎(chǔ),這是一種名為“人工智能運(yùn)維(AIOps)”的新興模式。正如Kobielus指出的那樣,這個(gè)想法是使基礎(chǔ)設(shè)施和運(yùn)營(yíng)具備更多持續(xù)自我修復(fù)、自我管理、自我保護(hù)和自我優(yōu)化的能力。

尤其是,機(jī)器學(xué)習(xí)漸漸使軟件開(kāi)發(fā)本身發(fā)生了變化,其方式大致上是使機(jī)器(而不是必須編寫(xiě)特定的邏輯和規(guī)則的開(kāi)發(fā)人員)能夠創(chuàng)建應(yīng)用程序。而這在2019年將變得更加明顯,隨著云計(jì)算巨頭提供越來(lái)越多的人工智能服務(wù),情況尤其如此。在最近的鄧百氏(Dun & Bradstreet)調(diào)查中,近一半的企業(yè)表示它們正在部署人工智能系統(tǒng),另有23%的企業(yè)正處于規(guī)劃階段。

其他人怎么看

“2019年將有更多的商業(yè)智能(BI)供應(yīng)商會(huì)整合大量的人工智能,從而自動(dòng)將來(lái)自復(fù)雜數(shù)據(jù)的預(yù)測(cè)洞察提取出來(lái),同時(shí)在解決方案中提供這些復(fù)雜的功能,這些解決方案可以使自助服務(wù)得到簡(jiǎn)化并為下一個(gè)最佳行動(dòng)(next-best-action)對(duì)策提供指導(dǎo)!薄猈ikibon的James Kobielus如是說(shuō)。

“機(jī)器學(xué)習(xí)將進(jìn)入運(yùn)營(yíng)階段,從幕后走到臺(tái)前,進(jìn)入實(shí)時(shí)且關(guān)鍵的企業(yè)應(yīng)用程序結(jié)構(gòu)中。”——Splice Machine的首席執(zhí)行官M(fèi)onte Zweben如是說(shuō)。

“不要跟我說(shuō)你正在做的一兩個(gè)人工智能項(xiàng)目。我想的可是幾百個(gè)項(xiàng)目!薄狪BM的分析總經(jīng)理Rob Thomas在theCUBE峰會(huì)上如是說(shuō)。

“人機(jī)回圈(humans in the loop)”將成為準(zhǔn)則—但并不總是現(xiàn)實(shí)

因?yàn)閬嗰R遜的Alexa等人工智能驅(qū)動(dòng)的服務(wù)往往表現(xiàn)優(yōu)異,因此人們認(rèn)為人工智能將接管各種工作。事實(shí)遠(yuǎn)非如此,當(dāng)然,不久后肯定會(huì)成為事實(shí)。麥肯錫估計(jì),只有不到5%的職業(yè)可以使用現(xiàn)有技術(shù)完全實(shí)施自動(dòng)化,但在大約60%的職業(yè)中至少有30%的活動(dòng)是可以得到自動(dòng)化的。

這一切意味著,2019年或2019以后的幾年,最成功的應(yīng)用程序?qū)⑹悄切⿴腿藗兏玫赝瓿晒ぷ鞯膽?yīng)用程序,不管是通過(guò)MRI掃描來(lái)做分析的臨床醫(yī)生,還是試圖處理更多潛在客戶(hù)的工廠工人、工業(yè)機(jī)器人或抵押貸款人員。

也就是說(shuō),一個(gè)人的高產(chǎn)往往是以另一個(gè)人的付出為代價(jià)的,有鑒于此,有些人固執(zhí)地認(rèn)為人工智能只是一種工具,這種見(jiàn)解顯得有點(diǎn)空洞。如果人工智能真的要做到使社會(huì)受益,而不會(huì)使大量的人失業(yè),那么人工智能提供商和使用人工智能的公司必須在2019年證明這是事實(shí)。私營(yíng)企業(yè)和政府必須盡快想出解決辦法,幫助因高效的人工智能而失業(yè)的人。

其他人怎么看

“2019年,人工智能將持續(xù)不斷地使我們的工作生活變得更輕松,并使我們可以做更多的事情……工人將負(fù)責(zé)某些任務(wù)或根據(jù)我們的偏好將項(xiàng)目交給機(jī)器去做。”——SAP Leonardo、機(jī)器學(xué)習(xí)和智能過(guò)程自動(dòng)化的SAP的副總裁David Leonge如是說(shuō)。

隨著故障和恐懼的加劇,人工智能將變得更加透明

機(jī)器學(xué)習(xí)遭到了一個(gè)重大的打擊(尤其是使用人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)等類(lèi)型的東西受到了打擊),那就是用來(lái)產(chǎn)生結(jié)果的算法是一個(gè)黑盒子。即你輸入了大量的數(shù)據(jù),但你得到的結(jié)果并不總是很清楚——有時(shí)甚至是錯(cuò)的,比如當(dāng)一輛自動(dòng)駕駛汽車(chē)出人意料地因?yàn)橐粋(gè)不起眼的物體而停在道路上,但有時(shí)卻未能正確識(shí)別人類(lèi),將人撞死。

事實(shí)上,在鄧白氏最近所做的調(diào)查中,幾乎有一半的受訪者表示,人工智能的可解釋性給組織帶來(lái)了問(wèn)題,46%的受訪者表示,他們至少在這方面遇到了麻煩,即弄清楚人工智能系統(tǒng)如何給出答案。

同樣糟糕的是,用來(lái)訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)是錯(cuò)的或存在偏差。例如,在2015年,亞馬遜在知悉其人工智能驅(qū)動(dòng)的招聘工具重男輕女時(shí)不得不放棄使用該工具,因?yàn)樵摴ぞ哒J(rèn)為受雇的申請(qǐng)人大多數(shù)是男性,這意味著男性更優(yōu)越。今年,這種認(rèn)識(shí)可能會(huì)轉(zhuǎn)化為更多的行動(dòng),從而避免這種事情的發(fā)生——必要時(shí)訴諸于立法的手段。

雖然我們幾乎無(wú)法窺探黑匣子里的乾坤,正如我們無(wú)法洞悉人們的大腦來(lái)分析他們要做的決定,人們對(duì)了解人工智能內(nèi)部運(yùn)作機(jī)制的需求越來(lái)越迫切,尤其是法律工作者。

一些將解決這個(gè)問(wèn)題的數(shù)據(jù)和算法看成是特有優(yōu)勢(shì)的技術(shù)公司并不會(huì)引領(lǐng)潮流,這毫無(wú)疑問(wèn)。政府可能會(huì)要求公司實(shí)施某種程度的透明度,但目前尚不清楚政府如何做到這一點(diǎn)。但這在今年將成為更大的問(wèn)題。

其他人怎么看

“掌握了人工智能且擁有巨大能量的全球科技巨頭引發(fā)了很多關(guān)于如何規(guī)范行業(yè)和技術(shù)的問(wèn)題。2019年,我們必須為這些問(wèn)題想出答案——既然技術(shù)是多功能工具,隨具體的使用環(huán)境而帶來(lái)不同的成果,那你又怎么規(guī)范技術(shù)呢?你如何制定不會(huì)扼殺創(chuàng)新,或不偏向大公司(大公司承擔(dān)得起合規(guī)成本,而小公司則無(wú)法承擔(dān))的法規(guī)?我們?cè)谑裁醇?jí)別上進(jìn)行監(jiān)管?國(guó)際的、全國(guó)的、還是地方的級(jí)別?”——埃森哲的應(yīng)用智能部門(mén)的董事總經(jīng)理兼Responsible AI initiative的全球負(fù)責(zé)人Rumman Chowdhury如是說(shuō)。

“事故發(fā)生時(shí),法庭上可能必須解決責(zé)任劃分的問(wèn)題。新的立法必須制定,以便法院在有關(guān)責(zé)任的棘手問(wèn)題上獲得足夠的參考資料!薄狹obilocity LLC的首席分析師J. Gerry Purdy如是說(shuō)

“也許我們應(yīng)該從人類(lèi)的心理機(jī)制中借鑒一些觀念”,使人工智能更易于解釋——Unity Technologies的人工智能和機(jī)器學(xué)習(xí)副總裁Danny Lang如是說(shuō)。

“2019年將是付諸行動(dòng)的一年。人們將做出更多的承諾和聲明,即負(fù)責(zé)任地創(chuàng)建和使用人工智能,并且公司將不得不予以采納。在影響人權(quán)的決策中,公眾將反對(duì)政府使用會(huì)產(chǎn)生偏差的人工智能。更多員工將要求對(duì)自己所創(chuàng)造的東西產(chǎn)生影響,并拒絕為有害的自動(dòng)化做出貢獻(xiàn)。公司必須以良知做出表率(無(wú)論是購(gòu)買(mǎi)或是創(chuàng)建人工智能解決方案)并設(shè)法保證系統(tǒng)公平公正,以避免成為人工智能出現(xiàn)問(wèn)題的下一個(gè)頭條新聞!薄猄alesforce.com的人工智能道德實(shí)踐的架構(gòu)師Kathy Baxter如是說(shuō)。

“國(guó)會(huì)將慢慢對(duì)人工智能實(shí)行監(jiān)管,它需要在消費(fèi)者和企業(yè)兩端得到更多的認(rèn)證信息、原產(chǎn)國(guó)信息和透明度,這只是時(shí)間問(wèn)題。銀行尤其要提防與大數(shù)據(jù)的利用相關(guān)的歧視做法,銀行還必須不斷地評(píng)估參與開(kāi)發(fā)的人員在算法中可能帶進(jìn)去的偏見(jiàn)。”——Compliance.a(chǎn)i的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Kayvan Alikhani如是說(shuō)。

1  2  下一頁(yè)>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)