我們已經(jīng)身處“后真相”時(shí)代。情感驅(qū)動(dòng)著人們對這些具有高度沖擊性的內(nèi)容做出直接反應(yīng),而非看完之后進(jìn)行冷靜思考。這也正是AI合成的虛假新聞產(chǎn)生的溫床。
作者 | 張文曦
編輯 | 譚山山
題圖 | 紀(jì)錄片《真相背后:虛假新聞與信息的代價(jià)》
AI假新聞,收割眼淚和流量
人們再一次被AI假新聞騙走了眼淚。
1月7日上午9時(shí)5分,西藏日喀則市定日縣發(fā)生6.8級地震。由于震級和海拔較高,這次地震災(zāi)害在互聯(lián)網(wǎng)上得到了各方的持續(xù)關(guān)注。在眾多講述災(zāi)情和救災(zāi)情況的文字信息之中,一段視頻抓住了眾人的眼球:一個(gè)頭戴彩色帽子、身穿同款毛衣的小孩被壓在倒塌的建筑物下,臉和身子上布滿了灰塵。這樣一個(gè)具有強(qiáng)烈對比和沖擊性的畫面,很難不讓人動(dòng)容。
“這個(gè)孩子讓我哭了一天。”“這個(gè)孩子現(xiàn)在還好嗎?有沒有人知道?”……視頻中受災(zāi)兒童的情況,牽動(dòng)著無數(shù)網(wǎng)友的心。
多家自媒體發(fā)布這段視頻時(shí),帶上了日喀則地震的信息以及“祈禱震區(qū)朋友們平安無事”等語句。這讓觀眾下意識地認(rèn)為,視頻中的兒童正是日喀則地震的受災(zāi)者。人們紛紛轉(zhuǎn)發(fā)、關(guān)注,為受災(zāi)兒童祈禱。
戴彩色帽子的孩子被壓在倒塌的建筑物下這段視頻被大量轉(zhuǎn)發(fā)。(圖/社交媒體截圖)
但實(shí)際上,早在2024年11月,這一短視頻便已經(jīng)在互聯(lián)網(wǎng)出現(xiàn),其創(chuàng)作者聲明,它是AI生成的內(nèi)容。有記者采訪了這名創(chuàng)作者,對方稱,當(dāng)時(shí)創(chuàng)作視頻的初衷是為了反映戰(zhàn)爭背景下民眾飽受摧殘的生存狀況,而非為了造謠。
只不過,經(jīng)過視頻和文字的移花接木,這一短視頻與毫不相關(guān)的日喀則地震產(chǎn)生了關(guān)聯(lián)性。發(fā)布者們用預(yù)制素材蹭上了災(zāi)難的熱度,收割了感動(dòng),也獲得了流量。
如果說AI生成的廢墟下的兒童畫面被帶上地震信息是一種肆意拼貼,那么由AI根據(jù)現(xiàn)有新聞素材生成的圖片、視頻內(nèi)容,則是另一種“無中生有”。
當(dāng)?shù)貢r(shí)間2024年11月7日起,美國加利福尼亞州洛杉磯多地連續(xù)發(fā)生山火,火勢不斷蔓延。一段視頻在社交媒體上廣為流傳,視頻中,洛杉磯著名地標(biāo)——“好萊塢”(HOLLYWOOD)廣告牌正被山火吞噬。
網(wǎng)傳的“好萊塢”廣告牌被吞噬的AI照片中,多了一個(gè)字母O。(圖/社交平臺截圖)
事實(shí)上,據(jù)法新社駐洛杉磯記者在現(xiàn)場確認(rèn),“好萊塢”未見損毀;全球火情監(jiān)測系統(tǒng)FIRMS的地圖上,也未顯示該地附近有火情發(fā)生。網(wǎng)絡(luò)上所流傳的“好萊塢”燃燒的視頻,都是由AI生成的。
AI技術(shù)污染新聞內(nèi)容的現(xiàn)象,早在幾年前就顯露苗頭。“甘肅一火車撞上修路工人,致9人死亡 ”“五角大樓發(fā)生爆炸”“廣東省五華縣華陽鎮(zhèn)一70多歲老人被毆打致昏迷,其孫子為此跳河自殺,打人者一審被判九年十個(gè)月”……如果留意,會發(fā)現(xiàn)這些肉眼難辨的AI假新聞經(jīng)常集中于城鄉(xiāng)發(fā)展、階層矛盾、性別對立、國際局勢等備受關(guān)注的議題。
有網(wǎng)友輸入“特朗普在被捕過程中摔倒_新聞報(bào)道畫面”字樣,AI便生成了這一合成畫面。(圖/推特)
面對這些虛假新聞圖片和視頻帶來的強(qiáng)烈沖擊,人們的第一反應(yīng)是在情感上給予反饋。在或憤怒、或震驚、或悲傷時(shí),人們往往忘記了追問那個(gè)最基本的問題:這一切都是真的嗎?
流量至上時(shí)代,虛假信息泛濫已經(jīng)成為世界性難題?!昂笳嫦唷保╬ost-truth)一詞曾當(dāng)選《牛津英語詞典》的“2016年度英文詞匯”,它表明,在輿論面前,事實(shí)不再是第一順位,個(gè)人的情感和態(tài)度才是最大的影響因子。
情感驅(qū)動(dòng)著人們對這些具有高度沖擊性的內(nèi)容做出直接反應(yīng),而非看完之后進(jìn)行冷靜思考。在虛假新聞中,受困于廢墟的兒童有六根手指,“好萊塢”廣告牌多了一個(gè)“O”,而這些明顯不符合常理的錯(cuò)漏,并未引起人們的關(guān)注。
(圖/《曼克》)
誰在制造AI假新聞?
從“眼見為實(shí),耳聽為虛”到“眼見也未必為實(shí)”,從“有圖有真相”到“有圖也未必有真相”,AI技術(shù)屢屢試探新聞?wù)鎸?shí)的邊界。那么,究竟是誰在制造AI假新聞?他們?yōu)楹我圃旒傩侣劊?/p>
在AI技術(shù)的加持下,虛假新聞的制假成本和所需的技術(shù)條件,并不像人們所想象的那么高。
2023年7月4日,浙江紹興警方抓獲了一個(gè)利用ChatGPT制作虛假新聞的團(tuán)伙。這個(gè)團(tuán)伙中,有一個(gè)此前從未接觸過電腦技術(shù)、僅有初中學(xué)歷的成員。她利用ChatGPT技術(shù),學(xué)會了自動(dòng)生成“腳本”和相關(guān)視頻素材,最后一鍵生成有音樂、字幕的虛假視頻,需時(shí)最短僅1分鐘。
根據(jù)警方介紹,該團(tuán)隊(duì)首先在網(wǎng)絡(luò)上收集熱門話題,通過AI軟件生成視頻,再通過視頻號發(fā)布。“有閱讀量就會有收益?!痹诒痪絾柤鞍l(fā)布虛假內(nèi)容能否牟利時(shí),其中一人如此回答道。
只需等待數(shù)秒,AI軟件便可以根據(jù)指令輸出相應(yīng)的文字、圖片和視頻。(圖/豆包)
而在2024年4月披露的一則案件中,涉案人員使用一款叫“翠綠筆墨”的寫稿軟件,先從大量社會熱點(diǎn)新聞中抓取用戶關(guān)心的內(nèi)容,再通過同義詞轉(zhuǎn)換、段落顛倒等方式,自動(dòng)生成文稿,每日產(chǎn)出的文章數(shù)量可達(dá)19萬篇。這些拼湊而成的文章,流向6000多個(gè)自媒體賬號,最終觸達(dá)用戶。用戶對新聞事件的關(guān)注,轉(zhuǎn)化為平臺給予的閱讀量獎(jiǎng)勵(lì)。
AI虛假新聞的牟利方式,簡而言之就是“降本增效”。低廉的制作成本,使得虛假新聞的盈利空間相應(yīng)擴(kuò)大。
(圖/《黑鏡》第三季)
如果要驗(yàn)證一條新聞的真實(shí)性,須進(jìn)行事實(shí)核查——一般需要經(jīng)過評估信源、上報(bào)可疑內(nèi)容、厘清核查點(diǎn)、追溯虛假信息的傳播路徑等過程。但要制造一條仿真度極高的AI假新聞、一張AI假圖片,只需借助AI技術(shù),輸入指令,等待幾秒。
受眾的需求也讓AI合成的假新聞?dòng)辛顺掷m(xù)產(chǎn)出的動(dòng)力。年輕一代或許會通過多方途徑查驗(yàn)?zāi)硹l信息的真實(shí)性,而家族群里的長輩不一定有分辨信息的意識。對于在傳統(tǒng)媒體環(huán)境下成長的長輩,他們會默認(rèn)媒體所發(fā)布的內(nèi)容是可信的。更何況,在他們的認(rèn)知中,視頻不可能造假,而是對事件的真實(shí)記錄。
(圖/《聚焦》)
因此,那些煽情的虛假新聞視頻總有自己的受眾。熱衷國際政治的,會被AI特朗普的虛假發(fā)言煽動(dòng);關(guān)心身體健康的,會點(diǎn)進(jìn)AI張文宏賣威化蛋白棒的鏈接地址并激情下單;即便沒有什么愛好的人,也會把報(bào)道天災(zāi)人禍、人間真情的各種真假難辨的信息,一股腦地發(fā)到家族群里并@所有群成員觀看。
結(jié)果就是,真相還在穿鞋,而AI假新聞已經(jīng)坐上標(biāo)題黨的快車,走出了家門。
我們的情感,也被預(yù)制了嗎?
在AI能輕松生成逼真內(nèi)容的時(shí)代,人們的感動(dòng)和震撼,時(shí)常被預(yù)制的虛假新聞?wù)紦?jù)。這種情況下,很難保證人類情感的含金量可以和過去同日而語。
哲學(xué)家本雅明曾經(jīng)敏銳地捕捉“震驚”這一現(xiàn)代人特有的心理模式。他認(rèn)為,陌生化的震驚和刺激,能夠激發(fā)新的語境,最后引發(fā)人們的深度思考。本雅明以電影工業(yè)為例,批判電影工業(yè)不斷復(fù)制震驚和驚奇,淪為大眾尋求刺激的消遣。
而到了人工智能時(shí)代,媒介所帶來的沖擊非但沒有偃旗息鼓,反而愈演愈烈。批量制造的AI假新聞更是如此。
(圖/紀(jì)錄片《真相背后:虛假新聞與信息的代價(jià)》)
AI根據(jù)人類投喂的素材,創(chuàng)造出適配互聯(lián)網(wǎng)風(fēng)向和傳播趨勢的內(nèi)容。它足夠聰明,能迅速掌握觀眾會被什么樣的苦情情節(jié)打動(dòng),又會被什么樣的熱點(diǎn)事件牽引情緒。觀眾的所有反應(yīng),早已被AI虛假新聞提前預(yù)設(shè)。
對于人類來說,關(guān)注當(dāng)下發(fā)生的新聞,關(guān)心遠(yuǎn)方的人和事,本是人性使然。只是,當(dāng)我們的悲憫和感動(dòng)都來自預(yù)制的AI生成內(nèi)容,它們是否在一定程度上稀釋了我們的情感?在難以辨明真?zhèn)蔚膬?nèi)容面前,我們甚至不能確定,是不是真的有一個(gè)孩子身處苦難,是不是真的有人正在等待幫助。
(圖/紀(jì)錄片《真相背后:虛假新聞與信息的代價(jià)》)
當(dāng)我們被所見所聞的東西深深觸動(dòng),卻被告知,它們可能都是虛假的產(chǎn)物;那么,就像那個(gè)著名的“狼來了”的故事,下一次,因?yàn)椴恢婕?,我們似乎不能保證自己還會對遠(yuǎn)方的哭聲保持悲憫之心。最后的結(jié)果,可能就是人們逐漸變得麻木、冷漠。而這,或許是AI合成的虛假新聞最令人后怕的一點(diǎn)。
校對:遇見;運(yùn)營:小野;排版:小燁
[1] 中國新聞網(wǎng).紹興警方偵破利用ChatGPT技術(shù)團(tuán)伙制作虛假視頻案
[2] 極目新聞.用AI偽造“新聞”牟利日產(chǎn)19萬篇,一批造謠者被抓
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.