近期的達沃斯論壇,是AI人物云集的高端局。
DeepMind創始人兼首席執行官Demis Hassabis(德米斯·哈薩比斯),在達沃斯論壇期間,分享了多個重磅消息:
第一,在藥物研發方面。哈薩比斯預測,在2025年底就會有首個AI輔助設計的藥物進入臨床試驗。
2021年,谷歌旗下的DeepMind分拆成立了Isomorphic Labs,專注于將人工智能和計算方法應用于藥物研發,而哈薩比斯同時擔任這兩家谷歌分公司的CEO。
2024年,兩家公司聯合發布了生物學預測模型AlphaFold 3,可以準確預測蛋白質與其他分子的相互作用,并且已經將該模型用于科研,與制藥公司合作,為新藥研發開辟了新途徑。
第二,關于AGI。哈薩比斯也給出了相對明確的預測:在5-10年內可能實現具備人類所有認知能力的AGI,但可能還需要一兩個關鍵突破。
他強調,這個預測,是基于DeepMind多年前對AGI的一貫定義——能展現人類所有認知能力,包括創造力。
之所以認為必須要實現AGI,是因為他從小對物理學感興趣,而如果我們真想洞悉物理學的本質,以及意識、夢境和時間等問題,全面理解現實世界的本質,可能需要依靠AGI級別的技術。
第三,關于AI大模型。哈薩比斯介紹了谷歌最新發布的Gemini 2.0系列模型,其中的視頻生成模型Veo 2,能夠準確模擬物理世界的細節,比如切番茄這樣的復雜動作。這被認為是邁向“世界模型”的重要一步,為未來開發通用AI助手奠定基礎。
第四,關于AI工具,哈薩比斯透露,自己最常用的一個工具就是NotebookLM——“對我來說,這是一種全新的信息獲取方式,我幾乎每天都用它,來概括新的研究領域,幫助我快速入門,掌握核心要點,從而決定是否深入研究。”
NotebookLM是谷歌的筆記應用,它的音頻概覽功能最初推出時,便允許用戶上傳文檔(如課程材料或法律摘要),然后由AI虛擬主持人生成播客概覽。
最近,它新增了一項互動模式,讓用戶能夠與AI播客主持人直接交流,允許用戶在與AI互動時提問、深入討論、并獲得個性化的答復。哈薩比斯繼續安利說道:“它新增的這項功能,如果你想把話題引向其他角度,你甚至可以打斷播客,向主持人提問,強烈推薦大家都試試看。”
第五,關于AI的未來。哈薩比斯也表達了對AI發展的擔憂,他認為目前面臨兩大主要風險:一是惡意行為者濫用通用AI系統,二是AGI本身可能帶來的風險。他呼吁建立類似CERN的國際AI研究機構,通過國際合作來確保AI朝著安全、可控的方向發展。
盡管如此,他仍然保持“謹慎樂觀”態度,他相信AI最終將幫助人類治愈所有疾病、發現新的清潔能源、甚至幫助人類實現星際旅行的夢想,他舉例說,我們已經從狩獵進化到能制造飛機,我相信未來也能妥善應對AI帶來的挑戰。
第六、在談及AI如何改變工作方式時,哈薩比斯提出了一個引人深思的觀點。他認為,當前我們面臨的最大挑戰之一是信息過載,每個人都在被信息海嘯淹沒,各種算法不斷推送內容爭奪我們的注意力,但其實這些推送系統甚至算不上真正的人工智能,只是一些簡單的軟件程序。
我們不得不時常查看各類信息,生怕錯過重要事項,然而,每一次查看信息都會打斷心流狀態,影響工作效率,用來過濾信息的大腦恰恰是需要保持專注的大腦,這構成了一個難以破解的悖論。
這種情況該如何破解,哈薩比斯的答案是——Agent(AI代理)。
假設你有一個能夠真正理解你需求的Agent,你可以對它說:“今天我需要專注工作,只在真正緊急的情況下打斷我”,它會幫你監控所有信息渠道,確保你不會錯過重要事項,同時又能保持專注。
這不是簡單的信息屏蔽,而是智能化的信息管理。未來的Agent將扮演個人助理的角色,它理解場景,懂得輕重緩急,知道什么時候應該打斷你,什么時候應該等待,從而幫助我們在信息洪流中保持清醒,讓我們的注意力集中在真正重要的事情上。
關于哈薩比斯,他是Google DeepMind創始人兼首席執行官,也是曾在圍棋比賽中擊敗柯潔的“AlphaGo之父”,并且他在去年因為“在蛋白質設計和蛋白質結構預測領域作出貢獻”拿到2024年“諾貝爾化學獎得主”。
談獲獎:這就是我能這么快拿到諾獎的理由
問:我們的話題從諾獎開始吧,當時什么感受?
Hassabis:說實話,這是一種非常超現實的體驗,哪怕到現在依然感覺不太真實。對我來說,這是畢生夢想照進現實,因為我最初投身AI領域,就是為了推進科學發展,將AI作為終極工具來推動科學進步,幫助人類健康,比如藥物研發。
問:能簡單解釋一下AlphaFold是什么嗎?
Hassabis:我們因為一個叫AlphaFold的程序獲得了諾貝爾化學獎,這個程序能僅通過蛋白質的氨基酸序列(也就是基因序列),就預測出它的三維結構。
這非常重要,因為蛋白質的三維結構決定了它的功能,而我們體內的一切都依賴于蛋白質。所以,如果你想了解疾病,或者研究生物學原理,或者設計藥物,你都需要理解蛋白質的三維結構。AlphaFold就是解決這個問題的答案。
說一個趣事,我們是在10月9日突然得知獲獎消息的。這很出人意料,因為通常要等待10、20、30甚至40年才能獲得諾貝爾獎,而我們只用了4年。
我們的慶祝方式很美好:我的一些朋友,包括世界上最頂尖的國際象棋和撲克選手,大家聚在一起,辦了一場撲克和象棋之夜,這可能是世界上最高水平的家庭撲克比賽了,連國際象棋世界冠軍馬格努斯·卡爾森都在場。
問:剛才提到,通常需要很長時間才能獲得諾獎認可,所以這是否也是對AI的認可?因為其他兩位諾獎得主,也是因為AI相關工作獲獎。
Hassabis:確實,這似乎就是諾貝爾委員會想傳達的信息。包括物理學獎的杰弗里·辛頓(Geoffrey Hinton)和約翰·霍普菲爾德(John Hopfield)所做的基礎性工作,再加上我們的工作,這標志著AI已經足夠成熟,能夠幫助解決一些更深層的科學挑戰。
諾貝爾委員會不僅關注研究突破本身,更關注其實際影響。諾貝爾在遺囑中說明,獎項是授予“對人類最大福祉”的貢獻。通常需要幾十年,才能證明這種影響力,而AlphaFold的影響力來得如此之快:全球已有250多萬研究者在使用它,我們已經解析了2億個已知的蛋白質結構。
如果用傳統實驗方法,解析一個蛋白質結構平均需要5年,一個博士生整個博士生涯可能只能解析一個,照這個速度,解析2億個蛋白質結構將需要10億年的博士生時間。
而我們將這些全部免費開放給世界使用,這就是我所說的“數字速度的科學”,我們會看到越來越多這樣的例子。
問:繼續談談你們在做的突破性研究吧,估計每個人都很好奇,雖然可能不方便談到具體的疾病,但你認為哪些領域會出現突破?
Hassabis:我們現在主要在兩個方向大規模投入:
第一個是繼續基礎研究,開發更好的生物學、化學、物理數學模型,包括天氣預報模型。我們用通用AI系統開發這些模型,比如AlphaFold 3就能處理生物學動態過程。
第二個方向是實際應用。我們成立了Isomorphic Labs公司,基于AlphaFold技術開發藥物。
要知道,了解疾病相關蛋白質的3D結構只是拼圖的一部分,你還需要設計藥物分子,確保它無毒性,具有合適的性質,能夠溶解等……這需要很多與AlphaFold同樣復雜的模型配合使用。
傳統上,開發一種藥物平均需要5-10年,我們希望把這個過程加快10倍,這將是醫療健康領域的一場革命。
問:什么時候能看到第一個由AI主導研發的藥物?
Hassabis:我們去年宣布了與禮來和諾華的合作,他們給了我們一些最難的靶點,這些靶點,連他們的化學家都找不到好的候選藥物。我們也有自己的藥物研發項目,涉及癌癥、心血管疾病、神經退行性疾病等重大領域。我認為到2025年底,我們就會有第一個藥物進入臨床試驗。
談Gemini:我們有自己的“思考模型”
問:我知道你主要關注科學,但你現在負責谷歌的所有AI工作,2024年很多人認為谷歌落后于OpenAI,但你們卻取得了幾個突破,對你來說最重要的是哪個?
Hassabis:2024年確實碩果累累。年底我們發布了一系列新模型,包括Gemini 2.0。它的Flash版本雖然體積最小,但非常強大高效,服務了數十億用戶。
我們還有Veo 2視頻模型,它能以驚人的準確度模擬物理世界。比如,它能生成切番茄的視頻,這聽起來可能很簡單,但要準確展示手指和刀的位置,切片不會重新粘在一起,這是很復雜的。
這是我們所說的“世界模型”的開端,它不僅理解語言,還能理解世界的豐富性和時空性質,這也是構建通用AI助手的基礎,能在日常生活中真正幫助到你。谷歌DeepMind的項目Project Astra就是在做這個,現在還在測試階段,但希望今年晚些時候能向普通用戶開放。
問:讓我們談談競爭。你們的一個競爭對手現在有了能推理的大語言模型,Gemini 2.0能推理嗎?
Hassabis:我們有自己的“思考模型”,你可以叫它“推理模型”,這是目前所有頂級實驗室最活躍的研究領域。
基本思路是,讓模型在給出答案前先思考,對自己的回答進行回顧,甚至利用搜索等工具
來核實信息,最后再輸出結果,這是一種可行的解決方案。這可以解決當前模型的很多問題,比如虛構信息。規律很簡單:給模型更多思考時間,它就能給出更準確的答案。
實際上,我們在這方面有十多年經驗。從AlphaGo開始,包括我們早期的所有游戲項目,都是基于Agent(智能體)系統,都包含模型的推理、搜索。現在我們把這些經驗再用上,但區別在于,現在我們不是用它來開發游戲,而是要用在現實世界中,這顯然復雜得多,這些都需要進行建模,并了解這個世界的運行規律,因此規劃難度大得多。
比如說,在圍棋或國際象棋中,規則很簡單,AI很容易理解和學習。但現實世界卻復雜多了,即使你的世界模型只有1%的誤差(實際上通常有10%左右),如果你推理100步,這個誤差會不斷累積,最后可能落入一個完全隨機、毫無意義的狀結果。所以要在這么長的推理鏈上保持準確性,對模型的要求非常高,這就是我對AI推理能力感興趣的原因。
談AI幻覺:既要讓它可控,又要讓它有創造力
問:說到推理,目前大語言模型最基本的問題之一是幻覺問題,你可能也經常被問到這個問題,有一種解決方法是讓模型自己核實答案,但似乎也不太有效,為什么?
Hassabis:是這樣的,我們正在用多種方法解決幻覺問題,這對我們特別重要,因為如果你想用這些模型做科學研究,就絕對不能虛構引用或論文。Gemini 2.0模型在這方面比上一代有很大進步。
具體有幾種方法:首先,可以在預訓練階段,就過濾掉錯誤信息;其次,可以使用工具,比如用谷歌搜索來核實事實,這對我們來說是很自然的動作,但系統需要學會什么時候該使用搜索工具,這個學習過程并不是自動的;最后就是推理,給系統更多時間思考,讓它能夠回溯檢查,而不是立即輸出第一個答案。
問:有人告訴我,其實不應該完全消除AI幻覺,因為這是它創造力的一部分,你同意嗎?
Hassabis:在某些領域可能是這樣。但關鍵是要讓它成為一個可控的功能,而不是意外發生的事情。你應該能決定什么時候要創造性思維,當然我們還需要討論“創造力”對它來說到底意味著什么。
談AI工具:最常用的是NotebookLM
問:說到大語言模型,你自己是怎么使用Gemini的?你又是怎么教你的孩子用它的?
Hassabis:我的孩子們喜歡用創意工具,比如圖像生成功能。我個人主要用基于Gemini的應用,比如NotebookLM。
這是個很有趣的工具,你可以輸入任何你感興趣的研究論文或網頁,它會生成一個非常吸引人的播客,效果很好。一開始我以為,只需要AI總結內容然后念出來就夠了,但實際上,讓兩個AI角色進行對話式的評論要有趣得多。現在它新增了個功能,你甚至可以隨時打斷“播客”,問他們問題。如果你沒試過,我建議你試試,真的很神奇。
我幾乎每天都用它,來了解新的研究領域,幫我快速入門,掌握核心要點,然后決定是否需要深入研究。
談AGI:5-10年會到來,還需1-2個突破
問:你經常說,你所做的一切都是為了實現AGI(通用人工智能)。但我還是不明白,我們到底在試圖解決什么問題?為什么一定要追求AGI?你覺得需要多久才能實現?
Hassabis:我一直在探索的問題是,現實的本質以及宇宙中的深奧問題,從小我就對這些問題著迷。通常對這感興趣的人會選擇物理學,我也很喜歡物理學,這是我最喜歡的學科。
但在讀了費曼、溫伯格等大師的著作后,我意識到,也許問題在于我們需要幫助,即使是最聰明的專家也需要工具來幫忙。對我來說,AI就是那個工具,是我對尋求人類深層需求的工具。
如果我們真的想理解物理學本質,或者意識、夢境和時間的本質,就需要AGI級別的工具。我們天天與時間打交道,卻連時間是什么都不知道,這至今是個謎。
我還特別喜歡哲學,我認為當今世界需要一位像康德那樣的哲學家,來幫助我們理解我們正在走向何方。所以,要完全理解現實的本質,包括所有的物理學,我們需要AGI級別的能力。
問:具體時間表呢?是5年、10年、還是50年?
Hassabis:我通常不給具體時間表,但這要看你怎么定義AGI。在DeepMind,我們在這二十年來對AGI的定義一直很明確:一個能展現人類所有認知能力的系統。
之所以這樣定義,是因為人類思維是我們目前在宇宙中唯一知道的通用智能例子。所以如果你說AGI,而不是狹義的智能,至少要能做到人類思維能做的所有事情,包括創造力。按這個定義,我認為我們離AGI還有5-10年的距離,可能還需要一兩個關鍵突破。
問:誰來決定我們是否達到了AGI?是科學家、AI專家,還是政府和社會?他們在這場討論中似乎沒什么發言權。
Hassabis:這需要整個社會的參與。包括企業實驗室、學術界、公民社會、道德專家、政府。在考慮技術部署和產品時,我們需要考慮所有可能受影響的人。
在谷歌和DeepMind,我們一直在努力與各方溝通,舉辦AI科學論壇,我經常與各國皇家學會、美國國家科學院等機構交流,但我覺得我們可能還缺少合適的AI機構。
問:你最擔心什么風險?
Hassabis:我主要擔心兩大風險:
第一,不法分子濫用通用系統,用于不正當用途。這是老生常談的問題,任何變革性技術都會面臨這個問題。
問:這就是你不支持開源的理由?
Hassabis:恰恰相反,我們非常支持開放科學和開源,AlphaFold就是完全開源的,我敢說,現代AI產業80%-90%都建立在谷歌和DeepMind過去十年公開發表的研究成果上,比如Transformer架構和AlphaGo等——我們之所以公開分享所有這些理念,是因為科學進步最快的方式就是信息共享。
但AI這項技術與眾不同,它太具有變革性,用途又非常廣泛。系統越通用,就越容易被重新配置做其他用途。這就是為什么我對開源倡導者說,我很希望能開源,讓更多好的應用成為可能,但隨著系統變得越來越強大,我們如何防止被有害使用?一旦開源,就收不回來了。起碼通過API提供服務的話,如果發現什么問題,還可以關閉訪問。
AI還有另一個復雜之處:它是一種涌現性技術。它不像汽車引擎,你測試到極限,就知道它能做什么、不能做什么。即使測試六個月,當數十億人使用時,可能某個聰明人就會發現一些新的用法組合,產生新的能力。
而AI的第二個風險是:技術本身帶來的AGI風險。這不是現在的問題,但隨著我們接近AGI,這個問題會越來越重要。科學史告訴我們,如果某件事可行且有價值,人們就會去做,這是不可避免的趨勢。現在AI已經發展到了一個關鍵節點,精靈已經出了瓶子,我們再也無法將其束之高閣了,只能努力確保它以安全的方式發展。
諸如一些當今社會的挑戰,促進經濟增長、應對氣候變化、提高醫療效率、推動醫學應用、從多方面治療疾病等,我們恐怕很難解決這些問題,除非引入AI,但我們必須以理性和負責任的態度推進AI,我建議以科學方法為核心來推進。
問:有意思的是,馬斯克起初主張暫停AI發展,他想緩一緩,但現在他也推出了Grok,這可能帶來問題,其嚴重程度遠超監管不足的問題,你怎么看?你和他很早就認識了吧?
Hassabis:對,我們是老朋友了,我和他認識已經超過12年了,我們從一開始就在探討AI的話題,應該是我最初把他帶入AI領域的。
這里的利害關系遠不止是公司層面,也不僅關乎產品或其他東西,回顧我們剛才的討論就會發現,這涉及到某種人類的未來,關乎人類的生存狀態,以及我們作為社會和物種真正想要前進的方向,至少有些人已經意識到這一點,但可能還需要更多人認識到這一點,我認為短期內人工智能被過度炒作了,比如你在X和其他平臺上聽到的那些AI消息,什么“明年就能實現AGI”,搞得大家都有點兒瘋狂了,但實際上人們仍然低估了它,沒有充分認識到AI在未來5-10年這樣的中長期內將帶來的巨大變革。
問:令我驚訝的是,企業采用AI的速度進展比我原本預想的要慢得多,我覺得在ChatGPT推出的第一年后,很多人覺得有必要試一下,他們也確實試了,但還沒找到真正合適的用途。
Hassabis:我覺得這很合理,我們就是處在這個階段,這些看似很厲害的系統,只適用于一些特定場景,比如總結文檔、做點研究、或者寫些套路化的推薦信之類的,這就是我認為我們距離AGI還很遠的原因。
要是真的接近了,你應該能想象到各種全能助手的出現,這些助手每天都在各方面幫助你,從推薦有趣的觀看內容、到全方位豐富你的生活,但現在我們還看不到這些,但我相信它終會實現。
談AI變革:算法推薦還算不上真正的AI
問:你覺得AI會如何影響我所在的行業?
Hassabis:這個嘛,我也說不準,但我認為它的影響會是方方面面的。
我對社交媒體問題有很多思考,我感覺我們每個人都被信息淹沒了,用戶被算法推送的信息狂轟濫炸,這些算法甚至都算不上AI,(比如推薦系統之類的)它們其實就是普通的軟件程序,還不能被稱為AI系統,我們就這樣被信息海洋淹沒了,這些信息都在爭奪我們的注意力。
我一直在想,我們能否讓技術真正為我們個體服務,假設你有一個能聊天的智能助手,你可以這樣設置它:“今天我想安靜地專注于寫作、編程或科研等工作,不管是什么工作,只在必要時提醒我,幫我關注社交媒體和其他重要信息,只有遇到緊急事務時才通知我”,然而目前的現實是,我們還無法實現這一點,所以你不得不花精力涉足信息的汪洋,去尋找你真正關心的信息,但問題是,用來過濾信息的大腦在看信息的時候,正處于心流狀態,一旦參與這種信息過濾,就會影響到你的大腦狀態。
所以我認為更好的方式是,讓一個AI系統為你執行這項任務,這也是Agent愿景的一部分。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.