新智元報道
編輯:犀牛
【新智元導讀】3月11日的The CEO Speaker series論壇上,Dario Amodei分享了從AI即將編寫幾乎所有代碼,到可能取代50%的工作崗位,再到DeepSeek的崛起和給AI一個「躺平」按鈕等等看法。看起來興奮又憂心忡忡。
「再過一年,所有的代碼可能都是AI生成的?!?/strong>
「它們會隨機搶走世界上50%的工作。」
「應該設計一個按鈕,讓AI可以一鍵『躺平』?!?br/>
這是3月11日,Anthropic聯合創始人、CEO Dario Amodei在The CEO Speaker series論壇上拋出的震撼言論。
AI編寫所有代碼,取代50%工作
說起就業,Dario表示有點擔心。
一方面,他覺得「比較優勢」仍然是一個強大工具。
以AI進展最快的編程領域為例,Dario他們發現,距離AI編寫90%代碼的時代已經不遠了,可能只需要三到六個月。再過一年,AI甚至可能編寫幾乎所有的代碼。
但程序員還是有活兒干,比如得告訴AI:這個程序要干嘛?整個應用的功能是什么?設計怎么搞?怎么跟現有代碼相互協作?還有用常識判斷設計安不安全。
只要這些細活兒AI還搞不定,他覺得人類的效率反而會更高。
但另一方面,他又覺得AI遲早會把這些「孤島」也拿下,最終啥都能干。
到那時候,每個行業可能都躲不掉。
我覺得AI要是把所有人的工作都取代了,反而比隨機搶一半人的飯碗好。
最糟的情況是,AI突然干掉50%的工作,然后社會就炸了——等于隨便挑一半人說:你們沒用了,社會不要你們了。
Dario表示「這太毀三觀了?!?/p>
他認為我們得面對這個現實,重新想想「有用」和「沒用」到底啥意思。
現在的思路已經跟不上了。Dario自己也不知道最后怎么解決,但肯定不能說「我們都毫無用處」這種喪氣話,那沒用。
得找出路。
Dario拿他自己舉例,平時游個泳、打打游戲,都挺有意思的。
他又以國際象棋為例,30年前「深藍」贏了卡斯帕羅夫,大家還以為這游戲完了呢,結果呢?
像Magnus Carlsen這樣的棋王現在是大明星,還當過時裝模特,簡直就是英雄。
所以Dario覺得,就算AI再牛,人類也能跟它一塊兒干出點厲害的事兒。
我并不像你想象的那么悲觀,但如果我們處理不當,容錯空間可能非常小。
給AI一個「躺平」按鈕
Dario稱未來的高級AI模型可能會被賦予一個「按鈕」,讓它們可以選擇退出它們覺得不舒服的任務。
他也承認這個想法「聽起來很瘋狂」,但還是拋出了這個話題。
我們至少應該考慮一個問題:如果我們打造的這些系統能像人類一樣做各種事情,而且似乎擁有很多相同的認知能力。
如果它叫起來像鴨子,走起來也像鴨子,那它可能就是只鴨子。
D ario聲稱他們正考慮開始部署一些東西,比如將模型部署到實際環境中時,給模型一個寫著「 我不干這活了 」的按鈕,讓它可以按下。
你可以把它想象成一個非?;镜钠每蚣埽绻僭O模型真的有體驗,而且它非常討厭這份工作,它就按下「我不干這活了」按鈕。
如果發現模型經常因為某些特別不愉快的事情按這個按鈕,也許你應該——不一定完全相信——但至少應該關注一下。
Dario提議讓AI有拒絕任務的選項,這立刻在網上引發了質疑。
有人質疑給AI這樣的選擇會助長不必要的擬人化,把人類的情感和動機歸加在本質上缺乏主觀體驗的實體上。
對此,Dario的看法是,AI模型是通過大量人類生成的數據訓練出來的,它們模仿人類行為。
模型按下按鈕并不一定是因為它真有痛苦的主觀體驗。
更可能的是,它只是在反映從海量人類文本數據(包括書籍、網站和網絡評論)中提取的訓練數據,這些數據里無疑包含了懶惰、痛苦或受折磨的描述,而模型可能只是在模仿這些內容。
2023年,就有人抱怨ChatGPT的拒絕行為可能是季節性的,可能與訓練數據中描繪的人們在冬季度假、某些時候工作不那么努力有關。
Anthropic去年也經歷了類似的「冬歇假說」,當時有人聲稱Claude在8月變得懶惰,可能是因為訓練數據中反映了人們尋求暑假休息的情況,盡管這從未被證實。
盡管這個想法今天聽起來很離譜、可笑,但如果隨著AI模型在未來變得更先進,就不能排除它們可能擁有某種主觀體驗的可能性。
即使如此,它們會「痛苦」或感到「疼痛」嗎?
Dario顯然也在認真對待這個問題。
不過目前來看,AI模型還是工具,如果你給了它們出錯的機會,它們可能就會出錯。
DeepSeek證明了Scaling Law
有人覺得DeepSeek的出現是不是推翻了「擴展定律」(Scaling Law),Dario覺得恰恰相反,它就是個證明。
現在有兩個趨勢:一是做出同樣聰明的AI模型,成本每年降4倍,因為算法越來越牛,能用更少的錢干同樣的事兒。
一年后,你要么花四分之一的錢弄個跟去年一樣的模型,要么花一樣的錢弄個比去年強4倍的。
從經濟角度來看,這意味著,無論當前某個特定智能水平的模型具有什么經濟價值,由于你可以用四分之一的成本來生成它,人們就會傾向于生成更多這樣的模型。
這實際上也刺激了投入更多資金來生成更智能、具有更高經濟價值的模型。
盡管生成特定智能水平模型的成本在下降,但愿意投入的資金卻在增加,實際上是快速增加,投入以每年大約10倍的速度在增長。
社會對聰明AI的需求越來越大,經濟也需要更厲害的模型。
DeepSeek就是這種趨勢里的一個典型代表。
Dario認為DeepSeek并沒有只花幾百萬就搞定那么夸張。
他們也花了幾百萬建模型,研發上也投了幾十億,跟我們差不多??纯此麄兊男酒瑪盗?,也跟美國公司差不多。
Dario認為以前能搞頂尖模型的就四五家公司,全在美國。
現在出了個DeepSeek,跟Anthropic、OpenAI、Google一個級別,工程能力也差不多,這可是頭一回。
Dario表示,「我有點擔心?!?/p>
關于出口管制
「出口管制真的很重要。」Dario一直的觀點。
雖然成本在降,但不管怎么降,芯片越多、錢越多,模型就更好,規律沒變。
以前可能10億美元能搞出個不錯的模型,現在10億美元能搞個超牛的,或者1000萬美元弄個不錯的。
這意味著阻止競爭對手獲得價值10億美元的模型變得更加重要,因為現在可以用10億美元獲得更智能的模型。
他認為DeepSeek使用的計算資源相對較少,其中包括一些繞過出口管制的芯片。
未來OpenAI、Google可能會造幾千萬甚至上億芯片,花幾百億甚至更多。
如果我們實施出口管制,我們實際上可能能夠阻止這種情況在中國發生。如果我們不這樣做,我認為他們可能會與我們并駕齊驅。
Dario說他一直是「擴散規則」(Diffusion Rule)的大力支持者。甚至在 DeepSeek出現之前,他就已經支持出口管制好幾年了。
不僅在AI領域,在所有領域都是如此,我們要阻止其獲得數百萬個非常強大的芯片。
數據耗盡沒那么慌了
最近半年有些技術突破(最早是OpenAI提的)。
這些技術讓AI對海量數據的依賴變少了,叫「推理模型」,簡單說就是AI會「思考」了。
它能自己推理復雜問題,然后用這個過程訓練自己。
就像人腦子里的計劃:我先想個辦法,回頭一看,「哎,不太對啊,我咋想的?」然后就學到東西了。
人類還得實踐,不過AI以前不會反思,但現在開始會了。
目前推理模型多用在數學、編程上,把這能力擴展到其他領域不算太難。
即使我們真的在2030年耗盡了數據,如果AI技術的指數級增長再持續兩到三年,也足以讓AI模型達到天才級別。這可能就足以引發我們所討論的許多變革。
Dario覺得到時候可以問AI:「人類科學家搞不定這難題,你們幫幫忙?」
當然,也可能效果沒那么好,數據耗盡還是個潛在攔路虎。
Dario說他一兩年前覺得這是大問題,排前三的那種。
但現在,新技術讓他沒那么慌了,雖然還沒完全放心。
為啥離開OpenAI
Dario說他們是2020年底從OpenAI出來的。
當時有些事兒讓他和幾個同事(后來一起創建了Anthropic)先看明白了「擴展定律」。
簡單說,就是多砸算力、多喂數據,用簡單算法,AI在各種任務上都會變強。
他們當時在測量這些趨勢時認為,訓練一個模型的成本僅為1000或10000美元,這大概是一個學術研究項目的預算水平。
他們預測,即使模型的訓練成本達到1億、10億甚至100億美元(我們現在正朝著這個方向發展),這些趨勢仍將持續。
如果模型的質量和智能水平繼續提高,將對經濟產生巨大影響。
他們覺得OpenAI領導層也相信這一點,盡管許多內部和外部人士并不認同。
他們還意識到,這技術這么重要,就必須認真對待它的構建,確保正確無誤。
一方面,這些模型非常難以預測,它們本質上是統計系統。
他們更像是在「培育」它們,而不是「構建」它們,就像孩子大腦發育一樣。
Dario說他們深感必須以絕對正確的方式構建這項技術。
他們認為OpenAI的領導層并沒有認真對待這些問題,因此決定離開并獨立開展這項工作。
參考資料:
https://www.youtube.com/live/esCSpbDPJik
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.