咨詢服務(wù)熱線:400-099-8848
AI年代,目睹還為實嗎 |
| 發(fā)布時間:2026-03-20 文章來源:本站 瀏覽次數(shù):18 |
在AI時代,“眼見為實”這句流傳千年的古訓(xùn),正在遭受前所未有的挑戰(zhàn)。視頻電話那頭,出差在外的“伴侶”焦急地索要轉(zhuǎn)賬;班級群里,“班主任”用了解的聲響發(fā)布緊迫繳費通知……現(xiàn)在,在人工智能(AI)的加持下,普通人也能在幾分鐘內(nèi)生成足以以假亂真的內(nèi)容。AI學(xué)會了模仿人的筆跡、復(fù)刻人的聲響、合成人的面容,這類技能一旦被歹意使用,會令人“眼睜睜”地被騙。這不禁讓人懷疑,AI年代,目睹還為實嗎? AI造假侵入公共回憶 近期,一段“以色列士兵躲在墻后痛哭”的視頻在交際媒體渠道X上廣泛傳達(dá)。發(fā)布者稱以軍在伊朗火箭彈和無人機(jī)突擊下遭受重創(chuàng),該視頻播放量敏捷打破160萬。德國電視二臺調(diào)查發(fā)現(xiàn),該視頻系典型的AI生成產(chǎn)品。視頻中士兵佩帶的徽章時隱時現(xiàn),上面的文字更是一串毫無意義的亂碼。多名網(wǎng)友也指出,視頻中制服樣式、哭聲響效和槍械細(xì)節(jié)都與真實場景存在明顯偏差。 生成式東西進(jìn)入新聞報導(dǎo)流程后,專業(yè)新聞組織的把關(guān)機(jī)制同樣面臨考驗。2月,德國電視二臺緊迫召回并解職了該組織一名駐紐約記者,因為其發(fā)回的一則關(guān)于美國移民與海關(guān)執(zhí)法局執(zhí)法舉動的報導(dǎo)中,混入了一段由視頻生成模型Sora生成的虛偽視頻,畫面旮旯清晰可見Sora水印。事情發(fā)生后,德國電視二臺宣布為員工開設(shè)強(qiáng)制性訓(xùn)練課程,規(guī)范AI東西在新聞報導(dǎo)中的使用!盁o視新聞原則造成的危害是巨大的。這關(guān)乎報導(dǎo)的公信力!钡聡娨暥_總編輯貝蒂娜·紹斯滕說。 AI造假甚至侵入前史回憶。今年年初,達(dá)豪、布痕瓦爾德等約30家德國集中營紀(jì)念組織和博物館聯(lián)合簽署一封公開信,敦促交際媒體渠道嚴(yán)厲打擊使用AI生成大屠殺相關(guān)內(nèi)容的行為。德國前史學(xué)家伊麗絲·格羅舍克說,使用AI生成的圖畫和視頻看起來像極了前史相片——是非底色,瘦骨嶙峋的人,鐵絲網(wǎng)后呼號的孩子……但仔細(xì)看就會發(fā)現(xiàn)反常,這類圖畫和視頻中的人長相相似,身高相仿,并且都十分漂亮。 “AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了前史,卻使用大眾同情心取得廣泛傳達(dá)!备窳_舍克說,這類假造的帖子會削弱紀(jì)念館、檔案館、博物館和研究組織作業(yè)的權(quán)威性,危害它們的公信力。 操作制造“社會一致” 比假造內(nèi)容更危險的,是AI能夠假造“大都人的意見”。一個世界團(tuán)隊近期在美國《科學(xué)》雜志“方針論壇”欄目發(fā)表文章說,數(shù)字控制正進(jìn)入新階段。分布虛偽信息的不再僅僅單個賬號,而是偽裝成真實用戶的AI集群。這類集群能夠互相互動、回應(yīng)真人、習(xí)慣情緒改變,并在不斷相互附和和強(qiáng)化中制造出一種并不存在的“社會一致”。 德國康斯坦茨大學(xué)研究人員達(dá)維德·加西亞解說說,這類AI集群由一組可被個人或組織控制的AI智能體構(gòu)成。它們擁有相對穩(wěn)定的身份和回憶,能夠模擬人類行為,既能夠圍繞特定目標(biāo)協(xié)同舉動,也能夠依據(jù)實時事情和用戶反應(yīng)調(diào)整表達(dá)方式。這類AI集群與前期的僵尸網(wǎng)絡(luò)有著顯著差異,后者一般行為機(jī)械,較簡單辨認(rèn);而前者能夠跨渠道運行,并通過互相呼應(yīng)不斷擴(kuò)大影響。 加西亞以為,真正的危險將不再局限于單個虛偽信息,而是“操作者”或許憑借大模型虛擬出“另一種社會”。他說:“AI集群能夠通過緩慢而繼續(xù)的進(jìn)程,制造某種態(tài)度已獲廣泛支撐的假象,進(jìn)而影響人們的觀念甚至改變社會規(guī)范。當(dāng)許多看似互相獨立的聲響不斷表達(dá)相同態(tài)度時,大都派的錯覺就會形成,即便這種大都原本并不存在。” 從被動駁斥謠言到自動辨認(rèn) 面臨這種能夠假造“社會一致”的新威脅,研究人員和組織現(xiàn)已開始舉動,使用技能手段予以辨認(rèn),并通過健全監(jiān)督機(jī)制,及時辨別和揭穿虛偽信息和內(nèi)容。 加西亞以為,應(yīng)使用模式辨認(rèn)等技能手段,檢測內(nèi)容傳達(dá)中是否存在反常同步、相互呼應(yīng)和跨渠道聯(lián)動,以更快發(fā)現(xiàn)由AI驅(qū)動的群體性操作。 除了技能辨認(rèn),研究人員還主張建立獨立監(jiān)督機(jī)制,繼續(xù)觀察AI智能體如安在不同渠道上影響公共討論,及時揭穿虛偽內(nèi)容。加西亞說,這類網(wǎng)絡(luò)越早被揭穿出來,就越難腐蝕大眾信賴,也越難把原本多樣的社會意見偽裝成單一一致。 德國人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等組織日前推出尚處于測驗階段的深度防偽檢測東西,以進(jìn)步大眾對可疑內(nèi)容的辨認(rèn)才能。與僅依靠像素反常辨認(rèn)假造痕跡的傳統(tǒng)辦法不同,該東西不只會對圖畫和音頻進(jìn)行取證剖析,還會結(jié)合上下文打開穿插核驗。后臺的AI智能領(lǐng)會并行檢索網(wǎng)絡(luò)信息,并調(diào)用通過核實的現(xiàn)實資源庫輔助判別,包含德新社現(xiàn)實核對團(tuán)隊提供的數(shù)據(jù)。 DFKI在新聞公報中說,用戶只需點擊兩下,就能將交際媒體上的可疑圖片轉(zhuǎn)發(fā)給檢測體系,體系隨后會剖析相關(guān)資料是否由AI生成或通過篡改,并向用戶反應(yīng)其為虛偽內(nèi)容的或許性以及相應(yīng)線索。 萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫卡茨基說,虛偽信息已成為當(dāng)前信息傳達(dá)中的杰出問題,公民每天都或許接觸到被操作的內(nèi)容,因而辨別和核驗信息的才能尤為重要。真正的“實”,不再僅僅是我們看到了什么,而是我們?nèi)绾瓮ㄟ^多維度的驗證,去無限接近那個無法被輕易偽造的真相。 |
|