AI滅絕人類前,OpenAI已經(jīng)被罵慘了
作者|孫鵬越
編輯|大 風(fēng)
OpenAI的瓜還在繼續(xù),甚至已經(jīng)上升到人類存亡的歷史高度。
就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現(xiàn)任員工,1名谷歌DeepMind現(xiàn)任員工和1名前員工),公開發(fā)表了一封名為《對先進人工智能發(fā)出警告的權(quán)利》的聯(lián)名信。
在信中,他們用一種極為驚悚的語調(diào)表示:“人工智能可能帶來的人類滅絕風(fēng)險”。
大權(quán)獨攬的山姆·奧特曼
目前,這封公開信已經(jīng)引發(fā)AI世界的大地震。
甚至還獲得了兩位2018年圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、喬弗里·辛頓(Geoffrey Hinton)的署名支持。
OpenAI和谷歌的員工們在信中曝光出一個非常驚悚的言論:
“AI公司掌握了他們正在研究的人工智能技術(shù)的真正風(fēng)險所在,但由于他們不需要向政府披露太多信息,因此他們系統(tǒng)的真正能力仍是一個‘秘密’。如果沒有適當(dāng)?shù)谋O(jiān)管,人工智能系統(tǒng)可以強大到足以造成嚴(yán)重危害,甚至‘滅絕人類’。”
據(jù)信中所說,當(dāng)前AI公司已經(jīng)了解到安全性的嚴(yán)重程度,但是在高層內(nèi)部正在產(chǎn)生分歧甚至分裂,大多數(shù)高層認(rèn)為利潤至上,小部分高層認(rèn)為安全性更為重要。
不得不說,這封公開信戳中了OpenAI的內(nèi)部問題,甚至隱晦指出去年爆發(fā)的“OpenAI政變危機”,以及首席科學(xué)家伊利亞·蘇斯克沃(Ilya Sutskever)的下臺。
去年11月,OpenAI爆發(fā)政變,首席科學(xué)家伊利亞·蘇斯克沃聯(lián)合董事會,將CEO山姆·奧特曼和總裁格雷格·布羅克曼開除。
這場宮斗鬧劇吸引了全世界的目光,最終導(dǎo)致背后金主微軟的下場,伊利亞·蘇斯克沃政變失敗,山姆·奧特曼官復(fù)原職。
據(jù)悉,雙方最大的矛盾點,就在于AI安全性。
伊利亞·蘇斯克沃
山姆·奧特曼加速OpenAI商業(yè)化,在不確定安全性是否會帶來嚴(yán)重后果的前提下,依然成立GPT應(yīng)用商店,允許私人創(chuàng)建GPT機器人,開放“灰色機器人”入駐ChatGPT。
在OpenAI主要負(fù)責(zé)AI監(jiān)督工作的伊利亞·蘇斯克沃,堅持AI安全才是OpenAI的核心,而非商業(yè)化,對山姆·奧特曼大刀闊斧的加速商業(yè)化進程非常不滿。
在2023年爆發(fā)過多次高層會議爭斗之后,最終實施政變。
在政變失敗后,山姆·奧特曼徹底將OpenAI變成“一言堂”,解除多位政見不合的董事職位,將伊利亞·蘇斯克沃雪藏半年后開除。
共同創(chuàng)建OpenAI的10年老搭檔黯然出局,但山姆·奧特曼依然沒有收手,甚至將安全部門視為“亂黨黨羽”,也要一一肅清。
伊利亞·蘇斯克沃負(fù)責(zé)的超級對齊團隊,原本是為能夠智勝和壓倒創(chuàng)造者的超級智能人工智能的出現(xiàn)做準(zhǔn)備,在伊利亞·蘇斯克沃離開后,團隊直接解散,幾名相關(guān)研究人員離職。
制約OpenAI風(fēng)險控制團隊解散,負(fù)責(zé)AI安全的“最后一把鎖”被山姆·奧特曼砸碎,只能說在他眼里,AI安全并沒有利益和金錢重要。
全球400多位大佬聯(lián)名警告
排除異見,讓關(guān)于“安全性”的秘密保留在公司內(nèi)部。
這個做法并不能滿足山姆·奧特曼,作為猶太裔的他,多疑是種天性。于是山姆·奧特曼強制性要求員工離職后一周內(nèi)簽署一份極其嚴(yán)格的“離職協(xié)議”:
前OpenAI員工必須遵守的“保密條款”和“不貶低條款”,禁止任何時間、任何場合批評OpenAI,而且即使承認(rèn)保密協(xié)議的存在也是違反該協(xié)議的行為;
如果離職員工拒絕簽署,或者違反協(xié)議規(guī)定,他們可能會失去既得股權(quán),價值數(shù)百萬美元。
同時,這份“離職協(xié)議”的期限是:終生,直至死亡。
不得不說,作為硅谷最有權(quán)勢的CEO,山姆奧特曼下手真狠。如果把這份“警惕員工”的保密精神,用在AI安全上,可能就不會有所謂的人類AI危機了。
最為“癲”的事情來了,山姆·奧特曼一邊被外界指責(zé)忽視AI安全,一邊又在國際AI領(lǐng)域非營利組織“人工智能安全中心”(Center for AI Safety)聯(lián)名發(fā)布公開信,表達了對一些高級人工智能所帶來嚴(yán)重風(fēng)險的擔(dān)憂。
是的,不止你會寫信,我也會。
從規(guī)模上看,“人工智能安全中心”的聯(lián)名信目前已有400多名全球的人工智能領(lǐng)域科學(xué)家、企業(yè)高管等簽署,影響力更為深遠。
全文只有簡短的一句話:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
(減輕人工智能帶來的人類滅絕風(fēng)險,應(yīng)該與大流行病和核戰(zhàn)爭等其他影響社會的大規(guī)模風(fēng)險一同成為全球性的優(yōu)先事項。)
狠話雖然放出去了,但沒人執(zhí)行。
在目前的頭部AI公司中,普遍對AI安全性并不關(guān)注。OpenAI背后的金主微軟,早在2023年3月就裁撤了整個人工智能部門內(nèi)道德與社會團隊。
在互聯(lián)網(wǎng)巨企眼中,市場份額遠遠比“虛無縹緲”的安全性更為關(guān)鍵。
AI會不會變成“智械危機”?
將AI視為“大流行病、核戰(zhàn)爭”同等致命危險,并不是危言聳聽。
在人工智能 (AI) 技術(shù)的飛速發(fā)展下,機器人逐漸成為我們?nèi)粘I詈凸ぷ髦械闹匾M成部分。以目前AI的發(fā)展情況來說,人工智能對人類造成生存風(fēng)險,至少有兩種可能。
第一種:短期內(nèi)的AI危機,就是在AI智能程度還不夠完善,人類會利用AI來顛覆社會安全。例如,等到AI大模型集體開源的時候,一些不法之徒利用不加限制的開源代碼,采購一些英偉達GPU、再向微軟租個云服務(wù)器,大批量制造出“灰色機器人”。
這些不加節(jié)制、又難以溯源的AI,對人類社會的破壞堪比一枚“電子核彈”。
第二種:遠期的AI危機,則更接近電影、游戲中的“智械危機”。
當(dāng)AI來到超級智能的時代,由于智力水平可能遠超過人類,超級智能看待人類如同人類看待螞蟻,很多人據(jù)此認(rèn)為超級智能將與人類爭奪資源,甚至危及到人類的生存。
來源:網(wǎng)絡(luò)面對可能對人類社會造成影響的AI危機,谷歌旗下DeepMind公司,在今年初就起草了“機器人憲法”,以確保AI機器人不會傷害人類。
以艾薩克?阿西莫夫的“機器人三大定律”為前提,“機器人憲法”明確要求AI機器人在家庭、辦公室、工廠等環(huán)境場景中,機器人的行為將受到嚴(yán)格的限制,以確保它們在執(zhí)行任務(wù)時不會對人類、動物、尖銳物體甚至電器造成傷害。
此外,該憲法還強調(diào)了機器人的自主性和創(chuàng)造性,使得它們能夠在人類無法勝任的環(huán)境中執(zhí)行任務(wù)。
或許,機器人憲法給AI時代開了個好頭,但面臨日益嚴(yán)峻的AI安全性問題上,普通人需要得到的保護還不夠多。
最起碼,先讓那些互聯(lián)網(wǎng)巨企們知道,AI并不簡簡單單是筆賺錢的生意,還有可能成為一枚電子核彈。
原文標(biāo)題 : AI滅絕人類前,OpenAI已經(jīng)被罵慘了

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 光計算迎來商業(yè)化突破,但落地仍需時間
- 6 大模型下半場:Agent時代為何更需要開源模型
- 7 中國“智造”背后的「關(guān)鍵力量」
- 8 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?
- 9 營收猛增46%,昆侖萬維成為AI“爆品工廠”
- 10 全球無人駕駛技術(shù)排名:誰才是細(xì)分賽道的扛把子?