文丨詹詹 郭小興編輯丨杜海
來源丨新商悟
(本文約為1300字)
霍金、馬斯克等大佬的預警言猶在耳,谷歌又拋出了重磅報告。根據這個報告,人類命運可能在2030年出現一個節點,也就是五年后!
近日,谷歌旗下DeepMind實驗室發布的145頁人工智能安全報告預測,通用人工智能(AGI)可能在2030年左右問世,并存在 “永久毀滅人類” 的風險。報告也補充說,2030年這個時點具有不確定性。他們定義的 AGI 是“卓越級AGI(Exceptional AGI)”——即系統在非物理任務上達到或超越 99%人類成年人的能力。
也就是說,僅僅五年后,人類命運就走向緊張的窗口期了。你我都有可能見證這樣的歷史,太驚心動魄了!
谷歌的報告將AGI帶來的風險分為四個主要類別:
濫用風險(人類故意利用AI實施危害行為)、錯位風險(系統發展出非預期的有害行為)、失誤風險(因設計或訓練缺陷導致的意外故障)和結構性風險(不同主體之間的利益沖突)。
對此,DeepMind提出兩條防線。一是在訓練階段,就應該讓AI盡可能聽話;二是在部署階段,就算AI不聽話,也要讓他不能亂來,包括將AGI視為 “潛在罪犯”,對其所有操作進行多層審核,同時刪除AGI的危險功能。
正經社分析師注意到,盡管這份報告詳細、警覺,但學界并非一致買賬。
一些業內人士認為,AGI 概念本身過于模糊,缺乏科學可驗證性,因此整套研究基礎不牢。Meta的Yann LeCun等人認為,僅靠擴大當今的大型語言模型還不足以實現 AGI。還有人覺得,安全、、從源頭來說,就是不可能的。
不過,早在2017年,在全球移動互聯網大會(GMIC)上,著名物理學家霍金就發布過AI威脅論:“人工智能崛起要么是人類最好的事情,要么就是最糟糕的事情——可能是人類文明的終結。”他認為,人類必須建立有效機制盡早識別威脅所在,防止人工智能對人類帶來的威脅進一步上升。
特斯拉CEO馬斯克更是多次對AI的潛在威脅發出警告。他認為,AI或許是人類文明面臨的最大風險之一,其發展速度遠超人類預期,若監管缺失,后果將不堪設想。
2023年,馬斯克提出:希望建立一個“第三方裁判”,監督開發AI的公司。2025年3月,他更是在播客中預言,“硅基意識將在2029年超越人類總智慧,人類文明有20%的概率走向終結”。
事實上,隨著近年來人工智能技術的飛速發展,AI在各個領域的應用正不斷深化,人們對AGI的關注度也日益提升。谷歌聯合創始人謝爾蓋·布林就發出 “全員沖刺” 動員令,要求員工每周工作60小時,加速AGI研發。
理論上,AGI的強大超乎想象,它區別于當下只能執行特定任務的弱人工智能,能像人類一樣,在醫療、科研、藝術等多個領域靈活運用知識,甚至可能擁有某種形式的意識或自我意識。
防范方面,OpenAI主要是用AI本身解決對齊難題,如利用RLHF(基于人類反饋的強化學習)等對齊策略,使其更加符合人類意圖與偏好。但AI教父、諾貝爾獎得主Geoffrey Hinton明確對RLHF持批評態度,他曾說:“通過人類反饋進行強化學習,就像是在養育一個早熟的超自然的孩子。”
正經社分析師認為,在科技飛速發展的當下,AGI的到來似乎不可阻擋。我們在擁抱技術進步,期待AGI為社會創造價值的同時,更需保持清醒,提前制定完善的監管措施,降低風險,避免讓科技成為毀滅人類的利刃 。【《新商悟》出品】
CEO·首席研究員|曹甲清·責編|唐衛平·編輯|杜海·百進·編務|安安·校對|然然
聲明:文中觀點僅供參考,勿作投資建議。投資有風險,入市需謹慎
喜歡文章的朋友請關注新商悟,我們將對企業家言行、商業動向和產品能力進行持續關注
轉載新商悟任一原創文章,均須獲得授權并完整保留文首和文尾的版權信息,否則視為侵權
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.