一個重要的事!微信又又又更新了,如果沒加星標的話可能就看不到我們了
請務必點擊上方藍字【京城圈兒】→右上角菜單【···】→設為星標★
第一時間接受推送消息~
作者:知否大叔
本文轉載自:知否大叔(ID:zhifoudashu)
這兩年,高科技行業發展速度著實太迅猛了。
左手人工智能,右手機器人,搞得很多反應速度慢的小伙伴一愣一愣的,完全不知所以然。
而伴隨著新技術的發展,有人就動起了歪心思。
最近掛在熱搜上的受害者,是演員劉曉慶。
3月3日,有網友在劉曉慶社交平臺下留言,稱有人在視頻平臺用AI生成視頻假冒她。
劉曉慶看到后,震驚表示:
“天哪,我點進去看了一下,畫面是我,聲音很像我,但不是我!這是怎么做到的?大家以后不會搞不清楚哪個才是真的我了吧?
我在各個平臺都叫劉曉慶!”
視頻中的“劉曉慶”,身著干練的小西裝,頭頂精致的發型,面帶微笑,一手捧書,一手拿麥,高談闊論。
畫面一樣,聲音也一樣。
真不怪慶奶會迷糊。
評論區里,一眾網友沉醉其中,連環彩虹屁簡直跨上了天。
這個賬號利用劉曉慶的形象與聲音,使用AI生成視頻,為劉曉慶量身打造出了一個完美的情感教母形象。
截止被封之前,共發了9條視頻。
最高的一條,點贊7.8w。
針對AI換臉擬聲現象,雷軍在今年的兩會就提出了建議。
希望相關部門能夠在安全與發展并重的基礎上提升立法立階。
雷軍為什么會提出建議?
這話說來倒霉。
他也是AI造假的受害者之一。
去年國慶假期,有人用AI捏造雷軍配音。
國慶7天,“雷軍”罵翻全網。
視頻中的雷軍,一口一句國粹。
還猖狂笑道:
“老子要遠程控制你的小米手機,然后自爆!”
“直接操控小米 su7 撞x你!”
惡搞也就算了,更過分的是造謠。
比如某條視頻,“雷軍”稱要給某大學50個億的投資。
不少網友信以為真。
實際上,真雷軍壓根就不知道這件事。
還有人制作雷軍各種跳舞的視頻,那場面,別提多尬了。
別說雷軍感到不舒服了,這換誰誰能舒服?
誠然,AI技術能為我們的生活提供很多便利。
但這不代表,就可以濫用AI技術,肆意踐踏別人的名譽權。
類似造假視頻只要一澄清,很多網友就明白怎么回事了。
可這只針對年輕網友。
讓那些上了年紀的網友相信視頻是假的,很難。
但讓他們相信視頻是真的,簡直不要太簡單。
一群看起來不到半歲的大胖小子,抱著金元寶行走在田野里。
視頻前的老奶奶看見這一幕,無不羨慕地說:
“誰家那么多大孫子,長得一個比一個喜慶!”
當你認真跟奶奶科普這是假的后,就會收獲奶奶白眼一枚:
“什么假的?你才是假的!”
奶奶不相信你轉發的辟謠貼,但一定相信1歲小孩能徒手端起一整只乳豬。
然后光腳送到奶奶家門口。
還有小孩做飯的視頻。
穿紙尿褲的嬰兒能獨自去地里摘茄子、把菜洗干凈。
然后抄起菜刀,嫻熟地給奶奶做三菜一湯。
奶奶們在視頻下方留言:
“這大孫子,真孝順啊!”
“寶寶慢一點,別傷到手了。”
“寶寶,你就是世界最好的寶寶。”
時間長了,奶奶們看自家孫子就沒那么順眼了。
你看人家小孩,不到一歲就能跑能跳,還能洗衣服做飯,你再看看你,多大的人了,整天吃了睡睡了吃,對這個家一點貢獻都沒有!
大學生孫子們欲哭無淚。
還有小貓騎自行車,小狗救人的視頻。
奶奶看到后,感動不已。
順便批評自家孩子:你看看你,整天就知道玩。
還有網友欲哭無淚地說
“我爸成天看AI,讓我家的狗跟人家學學。”
還有更炸裂的。
當他們刷到3米高的女人嫁給了1米高的丈夫,第一反應不是懷疑,而是:
太感人了!
還有網友哭笑不得:
“我爸上次對我說三星堆發掘出了汽車高等文明,我定睛一看,好家伙,是AI做的青銅汽車!”
更有某研究所捕捉到外星人全家的視頻,在網上傳播。
一看便是AI合成的假視頻。
可架不住有人信...
雖然視頻是假的,但長輩們的開心是真的啊!
這樣一想,好像也沒什么大不了的。
但如果從搞笑視頻發展成詐騙,閣下該如何應對?
還記得前兩年的“假靳東”詐騙事件嗎?
騙子團隊注冊大量賬號,通過冒充演員靳東的方式,向粉絲索要大量錢款。
愛慕者里有一位姓黃的阿姨,非常瘋狂。
60多歲的她,有老伴還有孩子和孫子。
但自從迷戀上“靳東”后,就像是變了一個人。
對待自己的老伴像仇人,非打即罵。
在她心里,只有靳東才是自己的丈夫。
就在主持人去她家進行調解之前,黃阿姨曾離家出走,跑到長春市。
這是因為靳東約她去那里見面。
靳東還對她做出了承諾:見面后會給她一套房子、一百萬元。
真靳東聽到這個消息,哭暈在廁所。
還有AI張文宏直播帶貨,稱998的保健品買了回家效果絕對好。
甚至連一國總統也沒有逃過被AI造假的命運。
“總統普拉博沃在線發錢”等一系列AI造假視頻,席卷印尼。
視頻中,大眾被告知如果想要收到援助款項,必須向指定賬戶交納一筆“管理費”。
不少受害者哭訴:
“視頻里“總統”的眼睛在眨,嘴型也隨著說話在動,就像真的坐在我對面和我說話一樣。”
據警方統計,受害者已經遍布該國20個省份。
不僅是詐騙,還有造謠。
雅安一男子,利用AI炮制火災謠言。
還有圖有真相,沒辟謠之前,周圍居民人心惶惶。
還有網民閆某某,使用AI洗稿工具編造:
某品牌汽車L3自動駕駛致死案,稱車企被判賠償70%,文章閱讀量超500萬次。
最后,警方以涉嫌尋釁滋事罪對閆某某刑事拘留。
AI只需幾十秒,就能輕松生產出來各種詐騙和謠言視頻。
很多家中的長輩,沒有什么分辨能力。
他們相信自己的眼睛,更相信視頻中的內容。
AI造假,對他們來說就是一場災難。
科普作家“河森堡”描繪了一個這樣的場景:
“AI能虛構從文本到照片乃至視頻的一切內容,并且令其彼此印證互相支撐,可謂天羅地網環環相扣,其制造的幻覺在強度上和之前編點文字故事時不可同日而語,除非你親自見到專家本人求證,或者到現場實地考察,否則你會被AI創造出的假象玩得死死的。”
有時年輕人都很難分辨,更何況是老年人。
不過,任何事物都有兩面性。
AI的出現,也帶來了很多好處。
在醫療領域,AI可以幫助醫生更準確地診斷和治療疾病;
在教育領域,AI可以個性化地輔助學習,提供更好的教學資源;
在交通領域,AI可以提升交通安全和效率,減少事故和擁堵。
但壞處也是很明顯的。
被侵犯肖像權、被造謠、甚至被詐騙等。
今天中招的是雷軍靳東,明天中招的就有可能是你我。
所以,任何高科技,都不能離開以人為本。
唯有法律嚴控底線、平臺壓實責任、公眾提升警惕,才能避免技術狂歡演變為信任災難。
當技術突破倫理邊界,“相信”不再是本能,而成了需要反復驗證的技能。
未來的世界里,我們或許會習慣性地問:
“這是真的嗎?”
也許,這不是悲哀,而是文明的進步。
因為真正的信任,永遠建立在清醒的認知與系統的保障之上。
圖片來源于網絡,如有侵權請聯系刪除
本文作者知否大叔(ID:zhifoudashu)。
作者:知否大叔,80后自由寫作人。
三觀比五官正,眼界比目光更寬廣;
沒見過你,但比誰都懂你。
責任編輯 | 自然
“點贊”“在看”支持我們
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.