尊敬的審核人員和品鑒讀者:
本文是經(jīng)過嚴格查閱相關(guān)權(quán)威文獻和資料,形成的專業(yè)的可靠的內(nèi)容。全文數(shù)據(jù)都有據(jù)可依,可回溯。
當AI學會“讀心術(shù)”,人類的第一反應不是歡呼,而是恐慌!
你或許在科幻電影里,見過這樣的場景:攝像頭緩緩地,如同一個悠閑的觀察者般,掃過人群;AI迅速地,以閃電般的速度,識別出每一個人的情緒狀態(tài)。
現(xiàn)在這種技術(shù),早就離開了實驗室,悄悄地滲入到了職場,也滲入到了商場,甚至還滲入到了街頭。
但歐盟的一紙禁令,讓這項“讀心術(shù)”成了眾矢之的——罰款3500萬歐元、封殺高風險應用,西班牙企業(yè)因未標注AI生成內(nèi)容被重罰的案例更是引發(fā)軒然大波。
這場看似,針對技術(shù)的圍剿;實則是人性與算法的終極博弈:當AI能夠透視,你的喜怒哀樂之時,我們究竟在害怕什么?
從“管理神器”到“人權(quán)威脅”:一場辦公室里的監(jiān)控革命
想象一下,你剛與上司吵完架,回到工位之時,電腦屏幕陡然間彈出一條警告:“檢測到較為強烈的憤怒情緒,建議適時進行心理方面的疏導。”
這不是科幻情節(jié),而是某西班牙公司部署的AI情緒監(jiān)測系統(tǒng)。
該系統(tǒng)通過分析,員工的面部微表情,以及語音語調(diào),甚至鍵盤敲擊速度,實時生成情緒報告。
一名員工因“長期焦慮指數(shù)超標”被降薪之后,將公司告上法庭,控訴其侵害隱私權(quán)。此訴訟撕開了AI情緒監(jiān)控的倫理創(chuàng)口,當算法成為“職場的判官”之際人類甚至連隱匿情緒的自由都被奪走了。
歐盟的強硬態(tài)度背后,有較為扎實的數(shù)據(jù)予以支撐:根據(jù)歐盟網(wǎng)絡安全局(ENISA)的《2023年度威脅態(tài)勢報告》,全球因AI的濫用而導致的數(shù)據(jù)泄露事件已然達到了197起,在國際數(shù)據(jù)公司(IDC)所開展的調(diào)研中,有92%的受訪企業(yè)坦承對AI的法律與道德風險存在擔憂。
情緒監(jiān)控技術(shù)的核心問題,在于它將人類最私密的情感,轉(zhuǎn)化為可量化的數(shù)據(jù)標簽。西班牙數(shù)字化轉(zhuǎn)型部長奧斯卡·洛佩斯直言:“AI能夠改善生活,也或許會淪為操控人心的工具。”
算法偏見:當AI給你的情緒“貼標簽”
更可怕的,不是監(jiān)控本身,而是監(jiān)控背后所蘊含著的“有色眼鏡”。
某招聘平臺曾用情緒分析AI去篩選候選人,結(jié)果是系統(tǒng)對非裔應聘者的“親和力評分”,普遍要比白人的“親和力評分”低。
這是什么原因?
訓練數(shù)據(jù)里,“微笑”這個樣本,大多是來自白人的面孔。算法很輕易地就把種族特征跟情緒給掛鉤起來了。這種偏見在職場監(jiān)控當中,同樣也是極為要命的:一個性格稍微有些內(nèi)向的程序員,也許會被誤判成“缺少團隊精神”,不過那脾氣比較暴躁的銷售冠軍,反倒得到了晉升。
生物特征推測所引發(fā)的倫理爭議,正將科技界撕裂開來。歐盟的《人工智能法案》明確地禁止,憑借行為數(shù)據(jù)來預測犯罪傾向,不過這僅僅只是冰山露出水面的那一小部分而已。
當AI用0和1來剖析人性之時,“悲傷時皺眉”,以及“思考時皺眉”,都有可能被混淆在一起。斯坦福大學的研究表明,目前情緒識別AI的誤判率竟高達38%,不過在以效率為先的商業(yè)邏輯當中,這些漏洞,常常被有選擇性地忽略掉。
合規(guī)困局:要效率還是要人性?
如果全球,效仿歐盟的監(jiān)管邏輯,AI會從“效率工具”,退化為“合規(guī)累贅”嗎?
這個問題,正在硅谷和布魯塞爾之間,引發(fā)了激烈的交鋒。
美國副總統(tǒng)萬斯猛烈抨擊歐盟的監(jiān)管,稱其“扼殺創(chuàng)新”;而Meta的高管則抱怨該法案要求“在技術(shù)上無法做到”。不過換個角度來思考,倘若企業(yè)為了規(guī)避罰款而直接屏蔽歐盟用戶,這樣受損的真的就只是技術(shù)進步嗎?
或許只是資本的無序擴張被按下了暫停鍵。
歐盟展現(xiàn)出的那種糾結(jié)的態(tài)度,確實值得讓人好好思考一番:一方面它很大方地投入了2000億歐元,主動去建設AI超級工廠;可另一方面,又對倫理界限管得特別嚴。
這種“一邊加快往前跑,一邊又小心翼翼把控著”的策略把技術(shù)發(fā)展當中本來就有的矛盾給揭示出來了——要是AI沒有限制,就跟脫了韁繩的馬一樣;
不過呢如果監(jiān)管太嚴了,可能會讓歐洲在競賽里處于不利的地位。法國總統(tǒng)馬克龍的擔憂,表達得特別清楚:“歐洲已經(jīng)比中國和美國落后了,必須通過多投錢以及稍微放松點監(jiān)管來趕上去。”
在算法的鏡子里,照見人性的底線
歐盟的3500萬歐元罰單,罰的并非技術(shù),而是人類對自身尊嚴所賦予的價值。當AI能夠解讀情緒之時,我們猛然察覺到:有些事物本不該被量化,正如愛情無法憑借心電圖來測量,憤怒也不應被算法予以評分。
這場“人性保衛(wèi)戰(zhàn)”所蘊含的深層啟示在于,技術(shù)的進步,必須回應一個古老的議題——到底是人駕馭著工具呢,還是工具將人性給異化了?
未來的真正懸念或許在于:當其他國家在監(jiān)管與創(chuàng)新之間搖擺之時,歐盟那強硬的立場,會成為全球的范本呢,還是會淪為AI洪流之中一塊孤獨的礁石?
而當某天你的手機比你自己更懂你的情緒,你是會感嘆科技的神奇,還是恐懼自由的消亡?答案藏在每個普通人對“被算法定義”的微妙抗拒里。
參考資料:
《在辦公室吐槽的人要小心了,AI 助手將監(jiān)測你說的每句話》-界面新聞-2019 年 1 月 30 日
《全球首部〈人工智能法案〉正式生效》-新華網(wǎng)-2024 年 8 月 9 日
《人工智能倫理治理研究報告(2023年)》-中國信通院-2023
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.