咨詢服務(wù)熱線:400-099-8848
AI年代,目睹還為實(shí)嗎 |
| 發(fā)布時(shí)間:2026-03-20 文章來(lái)源:本站 瀏覽次數(shù):20 |
在AI時(shí)代,“眼見為實(shí)”這句流傳千年的古訓(xùn),正在遭受前所未有的挑戰(zhàn)。視頻電話那頭,出差在外的“伴侶”焦急地索要轉(zhuǎn)賬;班級(jí)群里,“班主任”用了解的聲響發(fā)布緊迫繳費(fèi)通知……現(xiàn)在,在人工智能(AI)的加持下,普通人也能在幾分鐘內(nèi)生成足以以假亂真的內(nèi)容。AI學(xué)會(huì)了模仿人的筆跡、復(fù)刻人的聲響、合成人的面容,這類技能一旦被歹意使用,會(huì)令人“眼睜睜”地被騙。這不禁讓人懷疑,AI年代,目睹還為實(shí)嗎? AI造假侵入公共回憶 近期,一段“以色列士兵躲在墻后痛哭”的視頻在交際媒體渠道X上廣泛傳達(dá)。發(fā)布者稱以軍在伊朗火箭彈和無(wú)人機(jī)突擊下遭受重創(chuàng),該視頻播放量敏捷打破160萬(wàn)。德國(guó)電視二臺(tái)調(diào)查發(fā)現(xiàn),該視頻系典型的AI生成產(chǎn)品。視頻中士兵佩帶的徽章時(shí)隱時(shí)現(xiàn),上面的文字更是一串毫無(wú)意義的亂碼。多名網(wǎng)友也指出,視頻中制服樣式、哭聲響效和槍械細(xì)節(jié)都與真實(shí)場(chǎng)景存在明顯偏差。 生成式東西進(jìn)入新聞報(bào)導(dǎo)流程后,專業(yè)新聞組織的把關(guān)機(jī)制同樣面臨考驗(yàn)。2月,德國(guó)電視二臺(tái)緊迫召回并解職了該組織一名駐紐約記者,因?yàn)槠浒l(fā)回的一則關(guān)于美國(guó)移民與海關(guān)執(zhí)法局執(zhí)法舉動(dòng)的報(bào)導(dǎo)中,混入了一段由視頻生成模型Sora生成的虛偽視頻,畫面旮旯清晰可見Sora水印。事情發(fā)生后,德國(guó)電視二臺(tái)宣布為員工開設(shè)強(qiáng)制性訓(xùn)練課程,規(guī)范AI東西在新聞報(bào)導(dǎo)中的使用!盁o(wú)視新聞原則造成的危害是巨大的。這關(guān)乎報(bào)導(dǎo)的公信力!钡聡(guó)電視二臺(tái)總編輯貝蒂娜·紹斯滕說(shuō)。 AI造假甚至侵入前史回憶。今年年初,達(dá)豪、布痕瓦爾德等約30家德國(guó)集中營(yíng)紀(jì)念組織和博物館聯(lián)合簽署一封公開信,敦促交際媒體渠道嚴(yán)厲打擊使用AI生成大屠殺相關(guān)內(nèi)容的行為。德國(guó)前史學(xué)家伊麗絲·格羅舍克說(shuō),使用AI生成的圖畫和視頻看起來(lái)像極了前史相片——是非底色,瘦骨嶙峋的人,鐵絲網(wǎng)后呼號(hào)的孩子……但仔細(xì)看就會(huì)發(fā)現(xiàn)反常,這類圖畫和視頻中的人長(zhǎng)相相似,身高相仿,并且都十分漂亮。 “AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了前史,卻使用大眾同情心取得廣泛傳達(dá)。”格羅舍克說(shuō),這類假造的帖子會(huì)削弱紀(jì)念館、檔案館、博物館和研究組織作業(yè)的權(quán)威性,危害它們的公信力。 操作制造“社會(huì)一致” 比假造內(nèi)容更危險(xiǎn)的,是AI能夠假造“大都人的意見”。一個(gè)世界團(tuán)隊(duì)近期在美國(guó)《科學(xué)》雜志“方針論壇”欄目發(fā)表文章說(shuō),數(shù)字控制正進(jìn)入新階段。分布虛偽信息的不再僅僅單個(gè)賬號(hào),而是偽裝成真實(shí)用戶的AI集群。這類集群能夠互相互動(dòng)、回應(yīng)真人、習(xí)慣情緒改變,并在不斷相互附和和強(qiáng)化中制造出一種并不存在的“社會(huì)一致”。 德國(guó)康斯坦茨大學(xué)研究人員達(dá)維德·加西亞解說(shuō)說(shuō),這類AI集群由一組可被個(gè)人或組織控制的AI智能體構(gòu)成。它們擁有相對(duì)穩(wěn)定的身份和回憶,能夠模擬人類行為,既能夠圍繞特定目標(biāo)協(xié)同舉動(dòng),也能夠依據(jù)實(shí)時(shí)事情和用戶反應(yīng)調(diào)整表達(dá)方式。這類AI集群與前期的僵尸網(wǎng)絡(luò)有著顯著差異,后者一般行為機(jī)械,較簡(jiǎn)單辨認(rèn);而前者能夠跨渠道運(yùn)行,并通過(guò)互相呼應(yīng)不斷擴(kuò)大影響。 加西亞以為,真正的危險(xiǎn)將不再局限于單個(gè)虛偽信息,而是“操作者”或許憑借大模型虛擬出“另一種社會(huì)”。他說(shuō):“AI集群能夠通過(guò)緩慢而繼續(xù)的進(jìn)程,制造某種態(tài)度已獲廣泛支撐的假象,進(jìn)而影響人們的觀念甚至改變社會(huì)規(guī)范。當(dāng)許多看似互相獨(dú)立的聲響不斷表達(dá)相同態(tài)度時(shí),大都派的錯(cuò)覺(jué)就會(huì)形成,即便這種大都原本并不存在! 從被動(dòng)駁斥謠言到自動(dòng)辨認(rèn) 面臨這種能夠假造“社會(huì)一致”的新威脅,研究人員和組織現(xiàn)已開始舉動(dòng),使用技能手段予以辨認(rèn),并通過(guò)健全監(jiān)督機(jī)制,及時(shí)辨別和揭穿虛偽信息和內(nèi)容。 加西亞以為,應(yīng)使用模式辨認(rèn)等技能手段,檢測(cè)內(nèi)容傳達(dá)中是否存在反常同步、相互呼應(yīng)和跨渠道聯(lián)動(dòng),以更快發(fā)現(xiàn)由AI驅(qū)動(dòng)的群體性操作。 除了技能辨認(rèn),研究人員還主張建立獨(dú)立監(jiān)督機(jī)制,繼續(xù)觀察AI智能體如安在不同渠道上影響公共討論,及時(shí)揭穿虛偽內(nèi)容。加西亞說(shuō),這類網(wǎng)絡(luò)越早被揭穿出來(lái),就越難腐蝕大眾信賴,也越難把原本多樣的社會(huì)意見偽裝成單一一致。 德國(guó)人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等組織日前推出尚處于測(cè)驗(yàn)階段的深度防偽檢測(cè)東西,以進(jìn)步大眾對(duì)可疑內(nèi)容的辨認(rèn)才能。與僅依靠像素反常辨認(rèn)假造痕跡的傳統(tǒng)辦法不同,該東西不只會(huì)對(duì)圖畫和音頻進(jìn)行取證剖析,還會(huì)結(jié)合上下文打開穿插核驗(yàn)。后臺(tái)的AI智能領(lǐng)會(huì)并行檢索網(wǎng)絡(luò)信息,并調(diào)用通過(guò)核實(shí)的現(xiàn)實(shí)資源庫(kù)輔助判別,包含德新社現(xiàn)實(shí)核對(duì)團(tuán)隊(duì)提供的數(shù)據(jù)。 DFKI在新聞公報(bào)中說(shuō),用戶只需點(diǎn)擊兩下,就能將交際媒體上的可疑圖片轉(zhuǎn)發(fā)給檢測(cè)體系,體系隨后會(huì)剖析相關(guān)資料是否由AI生成或通過(guò)篡改,并向用戶反應(yīng)其為虛偽內(nèi)容的或許性以及相應(yīng)線索。 萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫(kù)卡茨基說(shuō),虛偽信息已成為當(dāng)前信息傳達(dá)中的杰出問(wèn)題,公民每天都或許接觸到被操作的內(nèi)容,因而辨別和核驗(yàn)信息的才能尤為重要。真正的“實(shí)”,不再僅僅是我們看到了什么,而是我們?nèi)绾瓮ㄟ^(guò)多維度的驗(yàn)證,去無(wú)限接近那個(gè)無(wú)法被輕易偽造的真相。 |
|