訂閱
糾錯
加入自媒體

看起來又像豆老師的作品

2025-12-29 09:56
長三角momo
關注

圖片

長三角MOMO

豆包成功拿下了春晚,在這個舉國同慶的時刻,AI除了要下載量和用戶之外,能不能在防詐這一塊,做點好事?畢竟,現(xiàn)在AI已經(jīng)讓虛擬和現(xiàn)實,傻傻分不清楚,每個人都陷入了要識別豆老師的窘境。

大頭針火了,靠著“歌聲中連布洛芬都止不住的痛”。

最早聽到大頭針,是他翻唱孟庭葦?shù)摹赌憧茨憧丛铝恋哪槨,把本來那種含蓄的、小女生傷感的告別,生生變成了吼出所有委屈的宣泄。

除了這首,他翻唱的《很愛很愛你》《淚海》《星語心愿》等等老歌,也被各平臺的算法瘋狂推薦。

我就很好奇這么強的一位歌手怎么就突然出來了,搜了一下才知道,這是酷狗用AI技術打造的虛擬人。這個我真沒聽出來,問了一圈身邊的朋友,很少有人知道大頭針是個AI。

這讓我想起來最近很流行的一個梗:“看起來又像豆老師的作品。”

這個說法,最早是網(wǎng)友對豆包等AI工具一些早期、略顯生硬內(nèi)容的戲稱。但現(xiàn)在,它有了新的指代——一段特別工整的文案,一張有點“完美”但怪怪的圖,或者一個反常識但乍看分不出真假的視頻。

這個梗的流行,說明我們的眼睛和耳朵,在當前時代,需要訓練出一種新的能力:分辨哪些內(nèi)容可能來自機器。

但很遺憾的是,隨著AI的進步,碳基和硅基內(nèi)容“假假分不清楚”的時代,越來越近了。

不久前,小鵬就遭遇了一場“AI偽造”風波。當時,網(wǎng)絡上流傳出一段據(jù)稱是小鵬參加車展的不雅視頻,引發(fā)輿情。但后來根據(jù)警情通報,這是某人利用AI技術生成的虛假視頻,這位被行政拘留了10天。

那段視頻我此前也看到了,當時理性告訴我這肯定是假的,但眼睛是真看不出來。

不僅是小鵬一家企業(yè)被“豆老師的作品”所困擾,我梳理了下,AI仿真內(nèi)容目前至少造成了四大危害。

一、最直接的危害是網(wǎng)絡詐騙。

比如,湖北黃石的三位老人,他們接到“孫子”帶著哭腔的求助電話,毫不懷疑地交出了數(shù)萬元現(xiàn)金,因為電話那頭的聲音與孫兒一模一樣。這種AI擬聲騙局,成功率與危害性遠非傳統(tǒng)騙術可比。 

二、假冒侵權泛濫,公眾人物成為重災區(qū)。

換臉和聲音克隆技術,讓盜用身份變得輕而易舉,奧運冠軍全紅嬋、孫穎莎的聲音曾被克隆用于直播帶貨,演員溫崢嶸也公開過被假冒直播間AI換臉的遭遇。

一位名叫“小驢圓圓”的網(wǎng)紅鼓手告訴我,她此前最多的維權是別人錄播后盜播,而現(xiàn)在,她的打鼓形象,被AI制作到好多歌手、偶像題材的短劇里。而后者維權起來更復雜,成本更高。

三、“虛假種草”誤導消費決策。

就在杭州,今年判了浙江首例涉AI技術商業(yè)化應用案,認定AI寫作工具專門生成虛假“種草”筆記,是違法的。這些精心編織的“用戶體驗”和“親測推薦”,系統(tǒng)性誤導消費者,也令誠信商家的努力付諸東流。鄭州也有類似案件,商家利用AI生成大量虛假用戶好評進行刷單,被判為不正當競爭。

四、批量造謠已形成黑色產(chǎn)業(yè)鏈。

前幾年有個很著名的“江西幫”,就是利用AI工具批量生產(chǎn)虛假內(nèi)容賺流量費,我以為基本都被打掉了。結果本周又看到一個消息,煙臺公安發(fā)現(xiàn)有個團伙抓取“小米”“華為”“理想”等關鍵詞,借助AI批量生產(chǎn)低質(zhì)、雷同的“網(wǎng)絡垃圾”,其目的僅僅是為了賺取平臺流量帶來的收益,相關賬號8000余個。

AI每天可以生產(chǎn)數(shù)千條不實信息,從編造企業(yè)謠言導致門店營業(yè)額暴跌,到生成虛假災情視頻引發(fā)社會恐慌。這種工業(yè)化、規(guī);脑熘{能力,正以極低成本污染整個信息環(huán)境,侵蝕社會信任的基石,造成的危害更大。

當虛假內(nèi)容的生產(chǎn)變得如此高效和廉價,我們賴以判斷世界真實性的基礎——所見、所聞乃至他人的經(jīng)驗分享——都開始動搖,那么,怎樣才能治理?

我大概能想到以下五個方向。

一、AI工具需要承擔更多責任。

AI生成內(nèi)容的強制標識制度,是實現(xiàn)“隔離”的第一步,F(xiàn)在也有一些初步的成效,比如百度“文心一言”、抖音AI特效等,均在生成內(nèi)容時自動添加水印或標簽,標明其AI身份。

二,魔法打敗魔法,AI檢測技術盡快成型。

國內(nèi)外一些科技公司已經(jīng)在研發(fā)AI生成內(nèi)容檢測工具了。目前,一些檢測工具已經(jīng)可以通過分析圖像的像素級特征、文本的邏輯連貫性等,有效識別出大部分AI生成內(nèi)容,為人工審核提供關鍵輔助。

三、平臺應該開放公眾參與的糾錯機制。

針對AI的“幻覺”與錯誤,需建立更開放的反饋渠道。更好的機制應超越簡單的“點贊/踩”,設立專門的錯誤上報通道,并輔以專家團隊對復雜問題復核。這能將用戶發(fā)現(xiàn)變?yōu)閮?yōu)化模型的集體力量。

四、對高風險內(nèi)容實施分級管理。

平臺需對危害程度不同的內(nèi)容采取差異化措施。對于仿冒公眾人物、偽造權威新聞等高風險內(nèi)容,是不是可以采取強提示、限流甚至禁止傳播等嚴格管理措施。比如,對AI生成的“名人演講”視頻,添加更加醒目的警示。

五、探索“可驗證的真實”技術路徑。

終極方案是為真實內(nèi)容鑄造“技術身份證”。目前知識產(chǎn)權領域已經(jīng)可以從拍攝設備端開始,為原創(chuàng)內(nèi)容綁定不可篡改的數(shù)字憑證(如加密數(shù)字水印、區(qū)塊鏈存證)。今后,重要的新聞、證據(jù)、官方信息等發(fā)布,是不是都可以采用這種技術防火墻?

總之,當我們下次再調(diào)侃某個內(nèi)容“看起來又像豆老師的作品”時,這份警覺心或許不應該僅僅停留在玩笑層面。AI生成的東西,如何和現(xiàn)實世界進行一個隔離,是我們必須要解決掉的問題,否則人類必然會迎來一個倫理崩塌的時代。

治理AI虛假內(nèi)容,就是為了捍衛(wèi)人類社會中信任、真實與尊嚴這些更寶貴的基石。

畢竟,最終決定未來是走向繁榮還是崩塌的,不是AI的能力,而是我們的選擇。

豆包今年成功拿下了春晚,如何防詐是不是才應該是主題?科技向善,才是科技的正確方向,在各種AI作惡的雜音之下,豆包是不是應該在春節(jié)這個時間段,提供一些正向的思路,比如幫助留守老人辨別是非,避免被騙,提高平臺對AI內(nèi)容的識別率等等。

AI可以融入我們的社會,但是不能篡改我們的真實。

       原文標題 : 看起來又像豆老師的作品

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號