訂閱
糾錯(cuò)
加入自媒體

三個(gè)法門破解ChatGPT數(shù)據(jù)泄露

2023-04-12 17:15
王吉偉
關(guān)注

從ChatGPT數(shù)據(jù)泄露事件,看組織安全穩(wěn)定自動(dòng)化的重要性

從自動(dòng)化看ChatGPT數(shù)據(jù)泄露,安全穩(wěn)定是自動(dòng)化的運(yùn)行基石

安全防范、合成數(shù)據(jù)與穩(wěn)定自動(dòng)化,三個(gè)法門破解ChatGPT數(shù)據(jù)泄露

ChatGPT陷入數(shù)據(jù)安全泥潭,如何繼續(xù)安全使用高效AI神器?

多家企業(yè)禁用多個(gè)國(guó)家禁止,AI神器ChatGPT真的不能使用了嗎?ChatGPT數(shù)據(jù)泄露風(fēng)險(xiǎn)如何控制?以自動(dòng)化系統(tǒng)進(jìn)行控制是個(gè)思路

文/王吉偉

有圖有真相的時(shí)代,徹底一去不復(fù)返。

荷蘭的一個(gè)AI繪圖玩家,用幾張“特朗普被捕”照片生動(dòng)演繹了什么叫作AI生萬(wàn)物。那些清晰到毛孔可見(jiàn)的照片,告訴我們沒(méi)有圖片是AI不能生成的。

有了這些圖片的啟發(fā),很快馬斯克就擺起了地?cái)偅瑦?ài)因斯坦也站在了印度街頭。

這些圖片的背后是沒(méi)有繪畫(huà)功底的玩家,玩家的背后則是正在顛覆設(shè)計(jì)界的生成式AI繪圖工具M(jìn)idjouney。

整個(gè)圖片生成的過(guò)程都與繪畫(huà)沒(méi)有任何關(guān)系,生成的圖片卻比各種人工繪圖更加真實(shí)。整個(gè)創(chuàng)作圖片的游戲規(guī)則,都被基于AI大模型的生成式AI改變了。

新的游戲規(guī)則不只改變了創(chuàng)作過(guò)程,更改變了很多企業(yè)的設(shè)計(jì)業(yè)務(wù)流程,現(xiàn)在砍掉原畫(huà)團(tuán)隊(duì)的游戲公司比比皆是。僥幸留下的設(shè)計(jì)師們,一邊在隨時(shí)被裁員的恐懼中瑟瑟發(fā)抖,一邊廢寢忘食學(xué)習(xí)AI繪圖。

企業(yè)同樣感受到了游戲規(guī)則改變帶來(lái)的恐懼。他們不只使用Midjourney、Stable Diffusion等繪圖工具,更是積極地引入名聲更響亮的ChatGPT。

ChatGPT所帶來(lái)的效率提升與成本下降顯而易見(jiàn),只是很多企業(yè)現(xiàn)在更加恐懼了。恐懼的原因,不只是因?yàn)镃hatGPT發(fā)現(xiàn)了數(shù)據(jù)安全漏洞,更在于很多企業(yè)的員工在與ChatGPT交互時(shí)泄露了大量的敏感數(shù)據(jù)。

這些數(shù)據(jù),都已經(jīng)上傳到ChatGPT的服務(wù)器,并且有很大可能被用于模型訓(xùn)練。

三星公司就正在為此頭痛不已。他們已經(jīng)擁有三次敏感數(shù)據(jù)泄露的先進(jìn)經(jīng)驗(yàn)。“用ChatGPT學(xué)習(xí)先進(jìn)芯片制造技術(shù)”也已經(jīng)成為一個(gè)梗,用來(lái)表述使用ChatGPT所付出的代價(jià)。

有了三星的前車之鑒,現(xiàn)在已經(jīng)有很多公司開(kāi)始禁用ChatGPT。大型公司的集體舉動(dòng),讓對(duì)數(shù)據(jù)敏感的金融機(jī)構(gòu)迅速跟進(jìn),美國(guó)、日本等多地的多家金融機(jī)構(gòu)都已禁用ChatGPT。連鎖反應(yīng)更是影響了多個(gè)國(guó)家,意大利、德國(guó)等都在禁止和調(diào)查ChatGPT。

目前廣大組織對(duì)于ChatGPT所帶來(lái)的安全風(fēng)險(xiǎn),主要集中在與之交互后所造成的敏感信息泄露方面。交互得越多泄露數(shù)據(jù)的可能性也就越大,而想要生成更符合需求的內(nèi)容就需要更多的信息。更高效率與更大風(fēng)險(xiǎn)的矛盾,成了廣大組織為之撓頭的問(wèn)題。

從自動(dòng)化角度而言,ChatGPT等生成式AI的優(yōu)勢(shì)之一,便在于其所帶來(lái)的更加直接與顛覆的業(yè)務(wù)自動(dòng)化。但近期ChatGPT的大量封號(hào)、安全漏洞、數(shù)據(jù)泄露以及被各國(guó)封禁,對(duì)引入ChatGPT的組織運(yùn)營(yíng)帶來(lái)了很大的不穩(wěn)定性,嚴(yán)重者甚至影響企業(yè)正常運(yùn)營(yíng)。

可見(jiàn),在流程自動(dòng)化已經(jīng)成為企業(yè)標(biāo)配的當(dāng)下,安全穩(wěn)定的自動(dòng)化真的太重要了。

出現(xiàn)這么多問(wèn)題,是不是意味著ChatGPT以后就不能使用了?又該如何實(shí)現(xiàn)安全穩(wěn)定的自動(dòng)化?本文,王吉偉頻道就跟大家聊聊這些。

ChatGPT負(fù)面消息不斷

3月底,網(wǎng)上流傳了一份似是而非的針對(duì)GPT-5研發(fā)的請(qǐng)?jiān)感拧?/p>

大體內(nèi)容是,未來(lái)生命研究所(Future of Life Institute)公布了一封請(qǐng)?jiān)感,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月。同時(shí),該公開(kāi)信寫(xiě)道,廣泛的研究表明,具有與人類競(jìng)爭(zhēng)智能的人工智能系統(tǒng)可能對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。

據(jù)說(shuō),這封信有一千多名科技人員簽名,除了馬斯克、谷歌副總裁兼工程研究員辛頓和Robust.AI首席執(zhí)行官兼創(chuàng)始人馬庫(kù)斯之外,還包括蘋(píng)果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等人。

之所以說(shuō)它似是而非,是因?yàn)檫@封信發(fā)出后便引發(fā)質(zhì)疑,被指簽名造假、誤導(dǎo)公眾以及推動(dòng)AI炒作。甚至有消息說(shuō)這封信是由AI生成的,用AI生成勸阻AI研發(fā)的請(qǐng)?jiān)感,是不是有些諷刺?

或許為了給此事推波助瀾,還有人在設(shè)置一定條件后,詢問(wèn)ChatGPT想對(duì)人類做的第一件事情是什么,得到的答案是:毀滅人類。

當(dāng)然,這個(gè)問(wèn)題也很有可能是由AI生成的。特朗普和馬斯克出現(xiàn)在各地街頭的圖片告訴我們,AI時(shí)代大家圍觀的再也不可能是真相,因?yàn)橛肁I造假的成本比學(xué)習(xí)P圖技術(shù)低太多。

但不管真假與否,似乎是“請(qǐng)?jiān)感?rdquo;起了作用,美國(guó)相關(guān)部門還是召開(kāi)了專項(xiàng)會(huì)議。

據(jù)美聯(lián)社報(bào)道,美國(guó)總統(tǒng)拜登于當(dāng)?shù)貢r(shí)間4月4日在白宮與科技顧問(wèn)舉行會(huì)議,討論人工智能給人類、社會(huì)和國(guó)家安全帶來(lái)的“風(fēng)險(xiǎn)和機(jī)遇”。會(huì)議上,拜登重點(diǎn)討論了保護(hù)權(quán)利和安全的重要性,以確保負(fù)責(zé)任的創(chuàng)新和適當(dāng)?shù)谋U洗胧⒑粲鯂?guó)會(huì)通過(guò)兩黨隱私法以保護(hù)孩子,以限制科技公司收集所有人的個(gè)人數(shù)據(jù)。

這個(gè)會(huì)議,意味著在OpenAI激進(jìn)的商業(yè)化推進(jìn)之下,以ChatGPT為代表的生成式AI的野蠻發(fā)展受到了高層重視,當(dāng)然也預(yù)示著各種監(jiān)管、整頓和改進(jìn)也將落到這些AI企業(yè)的頭上。

所以,不只是國(guó)內(nèi)在整頓ChatGPT等生成式AI爆發(fā)后引起的各種亂象,各國(guó)都在數(shù)據(jù)安全層面發(fā)布了不同程度的法規(guī)政策。

3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,即日起暫時(shí)禁止使用聊天機(jī)器人ChatGPT,并表示已對(duì)ChatGPT背后的OpenAI公司展開(kāi)調(diào)查。

意大利封禁ChatGPT所援引的法律工具是歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR),除了大型互聯(lián)網(wǎng)公司,GDPR也能拿來(lái)監(jiān)管新出現(xiàn)的人工智能公司。需要說(shuō)明的是,歐洲的隱私監(jiān)管機(jī)構(gòu)往往獨(dú)立于政府,在隱私保護(hù)上權(quán)力很大。

歐洲對(duì)于數(shù)據(jù)安全有很高的敏感性,對(duì)于涉及到的相關(guān)技術(shù)及產(chǎn)品如果有很大的爭(zhēng)議,一些國(guó)家便會(huì)快速跟進(jìn)。

法國(guó)和愛(ài)爾蘭的隱私監(jiān)管機(jī)構(gòu)已經(jīng)與意大利的同行聯(lián)系,以了解更多關(guān)于禁令的依據(jù)。西班牙的監(jiān)管機(jī)構(gòu)也表示,不排除未來(lái)會(huì)對(duì)ChatGPT進(jìn)行調(diào)查。

德國(guó)政府發(fā)言人曾對(duì)媒體表示,沒(méi)有必要禁止ChatGPT,但很快德國(guó)聯(lián)邦數(shù)據(jù)部門就表示可能會(huì)效仿意大利,出于對(duì)數(shù)據(jù)安全保護(hù)的考量而選擇禁止ChatGPT。

相信有三星半導(dǎo)體數(shù)據(jù)泄露的前車之鑒,有奔馳等大型企業(yè)的德國(guó)不可能對(duì)此視而不見(jiàn)。

還有一些國(guó)家尚未公布相應(yīng)的法規(guī)政策,但廣大企業(yè)都開(kāi)始謹(jǐn)慎對(duì)待ChatGPT。生成式AI尤其是ChatGPT所帶來(lái)的數(shù)據(jù)安全等問(wèn)題正在引起他們的擔(dān)憂,甚至已到了禁用ChatGPT的地步。

危害比預(yù)想的大

3月23日,ChatGPT首次遭遇了重大個(gè)人數(shù)據(jù)泄露。

不少推特網(wǎng)友爆料,在ChatGPT網(wǎng)頁(yè)左側(cè)的聊天記錄欄中出現(xiàn)了他人的聊天記錄內(nèi)容,一些用戶甚至可以看到活躍用戶的姓名、電子郵件地址、支付地址、信用卡號(hào)等信息。

即便OpenAI很快就修復(fù)了漏洞,并在第二天發(fā)布了聲明向用戶和整個(gè)ChatGPT社區(qū)致歉,但這個(gè)事件也讓很多人開(kāi)始擔(dān)心隱私泄露。尤其是那些把ChatGPT當(dāng)作情感陪護(hù)的用戶,不知道對(duì)ChatGPT傾訴了多少隱私,怕是目前仍在瑟瑟發(fā)抖。

此事件更讓用戶意識(shí)到,OpenAI的安全系數(shù)并沒(méi)有那么高。聊得越多,發(fā)送到OpenAI服務(wù)器上隱私數(shù)據(jù)也就越多,這些數(shù)據(jù)有可能被拿去用于訓(xùn)練AI模型。一些人看在ChatGPT能夠帶來(lái)極大方便的份上也就忍了,但如果哪一天ChatGPT被黑客入侵,自己隱私數(shù)據(jù)也將被盜走,后果可想而知。

同樣在為數(shù)據(jù)泄露發(fā)愁的,還有三星公司。

三星因使用ChatGPT造成數(shù)據(jù)泄露的事情,現(xiàn)在已經(jīng)成了典型案例。該公司從3月11日起向其半導(dǎo)體部門的員工授予ChatGPT的使用權(quán)限(其他部門仍被禁止),三星的員工向 ChatGPT 提問(wèn)各種問(wèn)題以提升工作效率。

由此,三星的機(jī)密數(shù)據(jù)就不知不覺(jué)地泄露了,短短幾周就發(fā)生了三起。這三起事件分別是:用ChatGPT優(yōu)化測(cè)試序列以識(shí)別芯片中的錯(cuò)誤;用ChatGPT 將公司有關(guān)硬件的會(huì)議記錄轉(zhuǎn)換成演示文稿;用ChatGPT修復(fù)專有程序的源代碼錯(cuò)誤。

每個(gè)事件,都涉及了不少企業(yè)經(jīng)營(yíng)的敏感數(shù)據(jù)。

三星員工與ChatGPT交互的問(wèn)題都要上傳到OpenAI的服務(wù)器,由于ChatGPT保留了用戶的輸入數(shù)據(jù)來(lái)進(jìn)一步訓(xùn)練自己,也就是說(shuō)三星的這些商業(yè)機(jī)密現(xiàn)在實(shí)際上掌握在了OpenAI的手中。

網(wǎng)友調(diào)侃,三星再發(fā)生幾次數(shù)據(jù)泄露事件,大家就可以用ChatGPT學(xué)習(xí)制造高端芯片了。

ChatGPT提升工作效率的效果是顯著的,但是所造成的商業(yè)損失也可能是巨大的。所以企業(yè)在使用ChatGPT之前一定要制定使用規(guī)范,并對(duì)員工進(jìn)行充分的提醒和培訓(xùn),讓其知曉哪些信息不能與ChatGPT進(jìn)行交互。

目前三星部門仍在使用ChatGPT,并開(kāi)發(fā)出內(nèi)部AI工具將能夠輸入的prompts限制在 1024。只是,被限制的ChatGPT又能發(fā)揮多少效能?

對(duì)于是否繼續(xù)使用這樣一個(gè)“殺敵一千可能自傷一萬(wàn)”的超級(jí)AI工具,三星應(yīng)該已經(jīng)心有定計(jì)。該公司已經(jīng)再三聲明若未來(lái)再發(fā)生類似事件,將禁止使用ChatGPT。

生成式AI躲不開(kāi)的安全問(wèn)題

嚴(yán)重警告或者禁止使用ChatGPT的大型企業(yè),已經(jīng)不止一家。

亞馬遜律師曾警告員工,不要與ChatGPT分享任何亞馬遜的機(jī)密信息包括正在編寫(xiě)的代碼,因?yàn)檫@可能會(huì)將其用于訓(xùn)練未來(lái)的模型。

在金融領(lǐng)域,美國(guó)銀行、花旗集團(tuán)、德意志銀行、高盛集團(tuán)、富國(guó)銀行、摩根大通和Verizon等多家機(jī)構(gòu),均已經(jīng)禁止員工使用ChatGPT處理工作任務(wù)。

日本的軟銀、富士通、瑞穗金融集團(tuán)、三菱日聯(lián)銀行、三井住友銀行等,也限制了ChatGPT的商業(yè)用途。

終究是搞金融的企業(yè)對(duì)數(shù)據(jù)更加敏感,在可能的損失與高效率之間,集體選擇了前者。

目前的很多事件已經(jīng)對(duì)外昭示,ChatGPT給企業(yè)帶來(lái)的風(fēng)險(xiǎn)比想象中的高很多。

除了個(gè)人隱私和企業(yè)敏感數(shù)據(jù)泄露,上線不到5個(gè)月的ChatGPT,已經(jīng)成功讓全球很多用戶對(duì)它產(chǎn)生了很大的依賴。

一些人已經(jīng)對(duì)ChatGPT產(chǎn)生了依賴癥,主要表現(xiàn)為ChatGPT崩潰24小時(shí)期間全球用戶的叫苦不迭,以及Plus用戶瘋漲和更大API調(diào)取需求所帶來(lái)的OpeanAI算力吃緊以至?xí)和?天時(shí)間的Plus會(huì)員升級(jí)與充值服務(wù)。

雖然這種依賴已造就了巨大的市場(chǎng),但它同時(shí)也意味著更多的數(shù)據(jù)被上傳到OpenAI服務(wù)器。比如讓ChatGPT進(jìn)行代碼修復(fù)、表格生成、PPT制作等操作時(shí),相關(guān)數(shù)據(jù)可能就會(huì)泄露企業(yè)的各種數(shù)據(jù)與隱私,有些企業(yè)甚至并未察覺(jué)。

還有一種可能在于,雖然AI只是一種輔助工具,但當(dāng)更多的人更加依賴這些更加智能的AI工具時(shí),人們的創(chuàng)造性思維或許也將停步不前。而相對(duì)于人類的止步,AI卻在大步前行。

一直有傳聞OpenAI的GPT-5沒(méi)有快速發(fā)布,是因?yàn)樗麄冞在對(duì)它的快速進(jìn)化做更多的限制性功能設(shè)置,就連OpenAI的CEO都在擔(dān)心它可能會(huì)產(chǎn)生自我意識(shí)。

但最近又有消息透露GPT-5會(huì)在12月完成訓(xùn)練,OpenAI的激進(jìn)做法,讓很多人和組織感覺(jué)似乎留給人類的時(shí)間真的不多了,所以一些組織要求GPT-4推遲GPT-4商業(yè)版的發(fā)布還是有道理的。至少,要留給人類一些能夠跟上并管控AI的時(shí)間,不然它就會(huì)像一頭脫韁的野獸,變得難以控制。

關(guān)于AI未來(lái)發(fā)展的人文與倫理,我會(huì)在另一篇文章中跟大家探討,這里就不展開(kāi)敘述。

生成式AI的數(shù)據(jù)泄露再度引起了人們對(duì)隱私計(jì)算和數(shù)據(jù)安全的探討。目前而言解決隱私泄露的方法有兩個(gè):一是加強(qiáng)數(shù)據(jù)安全保護(hù)防患于未然,二是通過(guò)合成數(shù)據(jù)從根本上解決數(shù)據(jù)隱私問(wèn)題。

其中合成數(shù)據(jù)算是一個(gè)新的思路,它是由計(jì)算機(jī)人工生產(chǎn)的數(shù)據(jù),來(lái)替代現(xiàn)實(shí)世界中采集的真實(shí)數(shù)據(jù),以保證真實(shí)數(shù)據(jù)的安全,不存在法律約束的敏感內(nèi)容和個(gè)人用戶的隱私。

目前廣大廠商已經(jīng)在布局這一領(lǐng)域,合成數(shù)據(jù)數(shù)量也正在以指數(shù)級(jí)的速度向上增長(zhǎng)。Gartner數(shù)據(jù)顯示,2030年合成數(shù)據(jù)將遠(yuǎn)超真實(shí)數(shù)據(jù)體量,成為AI數(shù)據(jù)的主力軍。

但即便合成數(shù)據(jù)發(fā)展再快,卻解決不了眼下ChatGPT所帶來(lái)的安全問(wèn)題。所以,穩(wěn)定且安全的智能自動(dòng)化就顯得更加重要。

穩(wěn)定安全自動(dòng)化的重要性

從企業(yè)經(jīng)營(yíng)角度來(lái)看,人工智能所帶來(lái)的最大優(yōu)勢(shì)體現(xiàn)在自動(dòng)化上;蛘哒f(shuō)借助AI技術(shù),可以讓自動(dòng)化進(jìn)行得更加徹底。不管是更好的處理數(shù)據(jù)還是助力運(yùn)營(yíng)決策,給予大家最切實(shí)的反應(yīng)就是很多業(yè)務(wù)可以自動(dòng)化運(yùn)行,帶來(lái)可觀的效率與成本。

所以,自動(dòng)化是企業(yè)剛需,AI則可以賦能自動(dòng)化在不同階段更好地服務(wù)企業(yè)。在兩者技術(shù)的發(fā)展進(jìn)程中,AI技術(shù)每實(shí)現(xiàn)一定突破,都可以大幅提升自動(dòng)化在穩(wěn)定性、適應(yīng)性、易用性、安全性等各方面的能力。

RPA與AI技術(shù)的融合就是一個(gè)典型,現(xiàn)在所有RPA產(chǎn)品都已經(jīng)演變成為深度融合AI技術(shù)的智能自動(dòng)化或者超自動(dòng)化,在更多業(yè)務(wù)場(chǎng)景的流程自動(dòng)化中扮演著越發(fā)重要的角色。

所有AI技術(shù),都會(huì)通過(guò)直接或者間接的方式為組織經(jīng)營(yíng)提供不同程度的自動(dòng)化,F(xiàn)在而言,以ChatGPT、Midjourney等為代表的基于大模型的AI應(yīng)用,對(duì)企業(yè)最大的影響也是通過(guò)自動(dòng)化生成各種內(nèi)容和應(yīng)用快速變革一些應(yīng)用場(chǎng)景的業(yè)務(wù)流程,直接替代一些復(fù)雜流程,或者讓流程自動(dòng)化變得更加簡(jiǎn)單和純粹。

同時(shí)生成式AI與智能自動(dòng)化相互協(xié)同,也讓企業(yè)打造的人機(jī)交互自動(dòng)化層的運(yùn)行效率更高。

生成式AI所帶來(lái)的企業(yè)運(yùn)營(yíng)變革是巨大的,但潛在的安全因素也是目前其所遇到的最大挑戰(zhàn)。

這個(gè)挑戰(zhàn)說(shuō)起來(lái)挺嚇人,但在王吉偉頻道(id:jiwei1122)看來(lái)將之放到業(yè)務(wù)流程之中,并不是說(shuō)數(shù)據(jù)泄露讓企業(yè)如何忌憚,而是這種風(fēng)險(xiǎn)所造就的不穩(wěn)定自動(dòng)化,開(kāi)始讓大家重估引入生成式AI技術(shù)的必要性。

這里所說(shuō)的穩(wěn)定自動(dòng)化,不只是軟件系統(tǒng)的穩(wěn)定運(yùn)行,還包括數(shù)據(jù)安全、環(huán)境影響、政治因素、地域限制、代理應(yīng)用等各種可能影響穩(wěn)定運(yùn)行的因素。

對(duì)于一項(xiàng)新技術(shù)的引入與應(yīng)用,如果不考慮各種風(fēng)險(xiǎn),就會(huì)出現(xiàn)很多問(wèn)題。比如最近有個(gè)創(chuàng)業(yè)公司就因?yàn)橐肓薈hatGPT而大刀闊斧的裁員,結(jié)果前幾天ChatGPT大面積封號(hào),以至于公司不能正常運(yùn)轉(zhuǎn)了,重新開(kāi)始招聘。

在這一波封號(hào)潮中,很多正規(guī)公司的賬號(hào)都難以幸免,或多或少會(huì)影響企業(yè)的運(yùn)營(yíng)。

通過(guò)自動(dòng)化系統(tǒng)控制生成式AI

相對(duì)于ChatGPT在數(shù)據(jù)泄露等方面的不穩(wěn)定,目前正在流行的基于RPA、低代碼、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自動(dòng)化和超自動(dòng)化解決方案就穩(wěn)定的多。

在生成式AI之前,智能自動(dòng)化已經(jīng)實(shí)現(xiàn)了對(duì)話式流程創(chuàng)建,通過(guò)關(guān)鍵詞指令觸發(fā)去創(chuàng)建流程,F(xiàn)在很多RPA產(chǎn)品都已經(jīng)集成了GPT,主要應(yīng)用是通過(guò)自然語(yǔ)言交互生成各種流程創(chuàng)建和執(zhí)行各種命令。

用生成式AI驅(qū)動(dòng)部署在本地或者云服務(wù)上的智能自動(dòng)化執(zhí)行業(yè)務(wù)操作,比如讓RPA執(zhí)行表格創(chuàng)建等,遠(yuǎn)比直接用ChatGPT在云端生成相關(guān)內(nèi)容再返回要安全得多。

一定程度上,這種模式也算是應(yīng)用生成式AI但把數(shù)據(jù)泄露風(fēng)險(xiǎn)降到最低的解決方案。如果企業(yè)能夠像三星一樣開(kāi)發(fā)內(nèi)部AI工具對(duì)交互內(nèi)容做一定的限制,安全系數(shù)可以做到更高。

人為因素導(dǎo)致的數(shù)據(jù)泄露在數(shù)據(jù)安全中占了很高的比重,生成式AI則把這個(gè)因素進(jìn)一步放大了。畢竟要生成更符合需求的內(nèi)容就要給他一定的數(shù)據(jù),有人甚至?xí)o它喂十幾本書(shū)。給它的數(shù)據(jù)越多,泄露數(shù)據(jù)的風(fēng)險(xiǎn)也就越大。因此把操作人員的行為規(guī)范做好并進(jìn)行一定的監(jiān)管,可能比想盡辦法限制技術(shù)更重要。

王吉偉頻道認(rèn)為,現(xiàn)階段如RPA集成ChatGPT這樣,基于已有自動(dòng)化系統(tǒng)和相應(yīng)的技術(shù)限制并間接使用生成式AI,對(duì)于穩(wěn)定的自動(dòng)化有著一定的必要性。三星SDS早已集成了GPT,如果推廣使用的是RPA+GPT的解決方案,相當(dāng)于在員工與ChatGPT之間加入了一個(gè)中間隔離層,數(shù)據(jù)泄露問(wèn)題可能也要小得多。

在企業(yè)數(shù)據(jù)安全方面,很多企業(yè)服務(wù)領(lǐng)域的廠商都會(huì)引入相應(yīng)的安全標(biāo)準(zhǔn)及認(rèn)證,通過(guò)外部審查、內(nèi)部自查等方式完善自身以及所提供服務(wù)的安全體系。大型廠商以及融資到C輪以后頗具規(guī)模的創(chuàng)業(yè)公司,也會(huì)引入相應(yīng)的安全規(guī)范。

以RPA廠商而言,像來(lái)也科技、弘璣Cyclone等已在安全方面會(huì)引入SOC 2、ISO 27001等多項(xiàng)安全相關(guān)的認(rèn)證。

這些認(rèn)證,可以保證企業(yè)在運(yùn)營(yíng)中能夠遵守相關(guān)規(guī)范,也保障了他們對(duì)外輸出的產(chǎn)品和服務(wù)的安全性。而在這個(gè)基礎(chǔ)上打造的智能自動(dòng)化+生成式AI的解決方案,可以讓自動(dòng)化更加穩(wěn)定。

所以從這個(gè)角度而言,“軟件系統(tǒng)+生成式AI+數(shù)據(jù)安全”的自動(dòng)化解決方案,或許更容易被廣大企業(yè)所接受。

后記:技術(shù)應(yīng)用適當(dāng)取舍

說(shuō)到最后,上述種種情況,似乎就是一個(gè)軟件或者解決方案的全生命周期問(wèn)題。你要為企業(yè)提供服務(wù),就要為用戶進(jìn)行全方位的考慮。既然大家想要應(yīng)用生成式AI,自然要解決用戶所有顧慮。

相信過(guò)不了多久,OpenAI或者微軟也將會(huì)解決這個(gè)問(wèn)題,生態(tài)商家們也會(huì)推出完善的解決方案。不然,ChatGPT在領(lǐng)域的落地與應(yīng)用將是一個(gè)大問(wèn)題。

同時(shí)除了直接調(diào)用API,OpenAI還可以與廣大企業(yè)合作進(jìn)行模型部署與微調(diào)業(yè)務(wù),讓大型企業(yè)能夠在本地或者自有云系統(tǒng)上部署自己的模型,否則在數(shù)據(jù)安全隱患的影響下大部分企業(yè)都會(huì)望ChatGPT生嘆了。

所以相對(duì)ChatGPT,百度文心一言幫助企業(yè)構(gòu)建自己的模型和應(yīng)用的模式,將會(huì)更受廣大組織的歡迎。

事實(shí)上,這個(gè)世界本來(lái)就沒(méi)有絕對(duì)的安全,使用什么樣的技術(shù)、工具乃至于人,都會(huì)伴隨著一定的風(fēng)險(xiǎn)。這個(gè)前提下,大家要做的,也就是對(duì)價(jià)值或者利益思考之后的取舍,僅此而已。

這樣想的話,是不是就簡(jiǎn)單多了。

全文完

【王吉偉頻道,關(guān)注AIGC與IoT,專注數(shù)字化轉(zhuǎn)型、業(yè)務(wù)流程自動(dòng)化與RPA,致力于探索AIGC時(shí)代產(chǎn)業(yè)發(fā)展與升級(jí)新機(jī)會(huì),歡迎關(guān)注與交流!

       原文標(biāo)題 : 安全防范、合成數(shù)據(jù)與穩(wěn)定自動(dòng)化,三個(gè)法門破解ChatGPT數(shù)據(jù)泄露

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)