AI 智能體正掀起一場全新的人機交互革命。
與傳統的 AI 聊天機器人不同,這種開創性的系統突破了聊天對話框的限制,能夠自主在電腦多個應用程序間來回穿梭執行更為復雜的任務
舉個例子,用戶只需簡單說一句“幫我安排明天的會議”,AI 智能體就能自動協調日程、發送邀請、預訂會議室,甚至根據會議主題自動生成一份議程。它像一位全能管家,通過整合搜索引擎、辦公軟件、電商網站等各種工具,實現“一句話完成一百步操作”。
隨著 AI 智能體“功力見長”,一個根本性問題浮出水面:我們究竟該賦予它們多少自主權?又該如何衡量技術便利與潛在風險的代價
(來源:MIT Technology Review)
有業內專家曾直言:“這類‘能自主行動的 AI’正在突破數字與物理世界的邊界,一旦失控將釀成災難性后果。”
比如,學生讓 AI“幫我應付無聊的課”,結果 AI 竟生成威脅電話,這其實是源于它機械執行的字面指令,卻完全忽視了社會倫理;再比如,手機 AI 智能體依賴系統級“無障礙功能”權限,可訪問銀行密碼、聊天記錄等敏感信息,而這可能成為黑客竊取數據的關鍵漏洞。
逐步放棄控制權:自主與失控的博弈
當前,AI 智能體的技術迭代速度驚人,幾乎每周都有新框架和新功能發布。企業更是不遺余力地宣傳其“解放人類雙手”的美好愿景,幫助人們去做那些沒時間做或不想做的事情,從而讓生活變得更輕松愜意。
最典型的代表就是“Computer Use”(計算機使用)功能,它讓 Anthropic 公司的 Claude像人一樣使用電腦,直接代替你在執行各種操作。近期還有一款名為 Manus 的通用 AI 智能體,它也可以利用各種工具完成多種任務,比如搜集整理人物資料或尋找房源等。
值得一提的是,AI 智能體還能夠提升殘障人士的生活質量,比如通過語音指令讓智能體完成網購、訂餐以及查詢資料等一系列任務。此外,在一些緊急情況下,比如災難發生時,AI 智能體還可以協調大規模人群疏散,通過引導交通幫助人們逃離危險區域。
這些 AI 智能體被設計的初衷是用來幫助甚至替代人類執行操作,這個愿景非常令人向往,畢竟誰不希望有人幫忙處理繁瑣的任務呢?但是,技術狂奔背后暗藏隱憂,在追求更大自主性的過程中,AI 智能體的這一愿景也帶來了巨大的風險。
Hugging Face 的一個研究小組長期專注于智能體的開發和研究。在他們看來,AI 智能體最引人注目的特質,恰恰也是最令人警惕的矛盾點:人類為了獲得更高效的服務,不得不逐步交出對它的控制權
AI 智能體建立在大語言模型的基礎之上并通過模型獲得“自主決策”能力,但是大語言模型目前仍然存在“黑箱”和“幻覺”缺陷,意味著它們可能做出人類無法預見的行動。
舉個例子,OpenAI 推出的首款 AI 智能體“Operator”,它通過強化學習獲得操作瀏覽器的能力,但其“感知-推理-操作”的循環機制也存在風險,當它誤判用戶指令時,可能會像人類一樣犯錯,比如將“刪除草稿文件”誤解為“永久刪除所有文件”,導致數據全部丟失。
進一步講,傳統 AI 聊天機器人若是出現錯誤則僅限于“對話框內”,而智能體的“物理級”操作能力則將風險進行了指數級放大
比如,一個管理日程的 AI 智能體,可能在“優化效率”的邏輯下,擅自取消了用戶與客戶的會議。更危險的是,某些“完全自主智能體”能夠自主編寫并執行代碼,若被惡意利用,可能像病毒般自我復制,甚至突破安全邊界。
很大程度上,AI 智能體的核心,即減少人類干預,這恰恰是其最大的安全隱患
(來源:MIT Technology Review)
為了全面了解整體風險收益情況,Hugging Face 的研究團隊根據自主性程度對 AI 智能體系統劃分成五類。隨著層級的升高,人類控制權的逐步減少,直至消失。
最低層級就像是“處理器”,是指那些對程序流程沒有影響的智能體,比如企業客服聊天機器人,僅執行預設指令,完全受人類控制。
中間的層級,則包括類似于“路由器”(決定執行哪些步驟,但需人類確認關鍵操作)、“工具調用智能體”(能調用第三方工具,但依賴人類編寫的核心邏輯)以及“多步執行智能體”(自主規劃任務流程,但需在敏感操作時交出控制權)。
最高層級則是“完全自主智能體”,它們可以在沒有人類約束或監督的情況下編寫并執行新代碼,即使你沒有提出要求,它們也能采取行動(比如移動文件、更改記錄、發送郵件等),甚至還能繞過人類監督。
AI 智能體的“全能”特性使其成為隱私泄露的溫床。例如,一個分析用戶社交關系的 AI 智能體,可能需要訪問通訊記錄、瀏覽歷史等敏感數據。
同時,若 AI 智能體能夠同時控制多個信息源時,潛在的危害將急劇增加。例如,一個管理日程的 AI 智能體若同時訪問社交媒體,可能將私人行程發布到公開平臺,或根據“優化社交形象”的邏輯,自動生成并發布虛假動態。
未來,我們或許會經常聽到這樣的辯解:“這不是我本人做的,而是我智能體所為!”
有業內專家曾指出:“當智能體能同時控制你的電腦、手機和物聯網設備時,它就是你生活中的‘數字暴君’。”
掌握控制權:人類監督的生死防線
事實上,人類對技術失控的恐懼并非空穴來風。
早在 1980 年,計算機系統曾錯誤地顯示有超 2,000 枚蘇聯導彈正飛向北美,這觸發了緊急程序,幾乎將人類推向了災難的邊緣,最終確認是系統故障。
這一事件成為人類監督技術的重要轉折點,如果決策權完全交給追求“速度優先”的自主系統后果將不堪設想。業內專家表示:“技術的致命缺陷在于,它既沒有恐懼,也沒有道德感。”
一些人或許會反駁說,“它所帶來的益處大于風險,那就值得去冒險。”但 Hugging Face 的研究人員認為,保持人類控制權與享受技術便利并不沖突
開源 AI 智能體系統是應對風險的一種方法,因為這類系統能讓人類更清楚地了解系統能做什么、不能做什么,從而加強對其的監督。
研究人員以他們開發的 Smolagents 開源框架為例,其提供了一個“沙盒式”的安全環境,讓開發者構建以透明性為核心的 AI 智能體,這樣任何獨立團隊都可以驗證是否存在適當的人類控制。
這種透明性與閉源 AI 形成鮮明對比,后者通過層層專有技術掩蓋其決策過程,導致安全性根本無法得到保障。畢竟,當 AI 的決策過程像迷霧一樣不可見時,安全就無從談起。
研究人員最后強調,在開發日益復雜的 AI 智能體的過程中,人類必須認識到,它們是工具而非決策者、是助手而非替代者。盡管人類的判斷力也并不完美,但仍然是確保這些系統服務于人類的利益而不是破壞人類利益的關鍵所在。
1.https://www.technologyreview.com/2025/03/24/1113647/why-handing-over-total-control-to-ai-agents-would-be-a-huge-mistake/
2.https://huggingface.co/learn/agents-course/unit0/introduction
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.