(關注公眾號設為標,獲取AI深度洞察)
全文 13,000字 | 閱讀約42分鐘
【文章核心預覽:】
開源態度轉變:首次回應DeepSeek影響,Altman承認開源能為世界帶來價值,透露OpenAI內部正在討論開源可能。
AGI發展預測:認為AGI將漸進演進而非突然出現,2025-2027年AI進展將超越過去兩年。
巨額投資應對:宣布5000億美元Stargate項目,全力突破模型訓練與算力瓶頸。
全球市場布局:德國已成為OpenAI最重要歐洲市場,呼吁歐洲加大AI投資。
人才培養新思路:強調未來人才需具備AI應用能力、適應力與批判性思維。
能源革新預期:預測AI能效持續提升,核聚變將成為地球主要能源。
DeepSeek開源引發全球AI圈震動之際,OpenAI CEO Sam Altman開啟了新一輪全球巡演,密集拜訪投資人與產業領袖。據報道,他在近期的一場閉門會議中向政策制定者表達了對DeepSeek崛起的擔憂,強調了"Stargate計劃"的緊迫性。在完成日本、韓國、印度、沙特等地訪問后,Altman的巡演來到了德國柏林。
周五2月7日,在柏林工業大學的一場重要對話中,Altman首次公開活動中系統回應了開源之爭。此前,他曾在Reddit上表示"OpenAI在開源上站到了歷史的對立面",引發廣泛討論。而這一次,面對主持人關于DeepSeek開源的直接提問,Altman給出了耐人尋味的回應:
"開源模型對世界有好處,可以給人們帶來不少價值。就現階段的模型來說,我不認為有人會否認把它們開源能夠帶來價值。"更引人注目的是,當被問及OpenAI是否考慮開源時,他首次透露:"是的,我們有在討論,但還沒有最終決定。
討論環節
Fatma(主持人):好,大家好,歡迎各位的到來,我也非常激動地歡迎我們今天的特邀嘉賓、我們的專家小組成員,以及各位的到來。今天,我們匯聚了在AI領域的領袖和專家,一起討論AI在歐洲、中東、非洲(EMIA)的行業以及在整個社會中所帶來的變革性力量。我叫Fatma Dennis,是計算機科學教授,研究方向在神經科學與人工智能的交叉領域,同時我也是柏林工業大學主管數字化和可持續發展的副校長。歡迎三位!我首先想問個有點兒隨意但又挺有意思的問題,因為我自己用聊天機器人時偶爾會這樣——你們對自己的聊天機器人“客氣”嗎?比方說,在提問時,會不會在結尾寫上“請”或者‘謝謝’之類的禮貌用語?」
Nicole Büttner(企業家):我會這么做。
Volker Markl(教授):我過去常這么做,但最近好像少了。沒有以前那樣頻繁了。
Sam Altman(OpenAICEO):我也會這么做。我其實也沒有特別明確的理由,但確實是一直在猶豫要不要這么寫,時不時又會繼續寫。
一、AI對科學研究的影響
Fatma(主持人):Sam,最近對OpenAI和你本人來說都是非常忙碌的時刻。在這樣繁忙的時間里,你還能來柏林工業大學,我們真的非常非常榮幸。那么我想先問你這樣一個問題:像ChatGPT這樣的聊天機器人,如今常被用來做靈感來源、草擬文本、總結內容等等。它幫助我們節省時間,也算是一種‘抄近道’。但從科學研究和學術工作的角度看,你認為這會帶來什么影響?畢竟,很多最具洞察力的想法往往需要我們投入時間和精力,而不只是靠‘抄近道’就能得到。
Sam Altman:我們在星期一發布了一個功能叫做“Deep Research”,它幾乎引發了類似ChatGPT問世時的討論。科學家們是對此最感興趣的一群人之一。你可以給Deep Research一個查詢請求,然后它會幫你做很多研究工作,去完成那些本來需要你花很多小時、很多天,甚至有時要花好幾周才能做完的事。當然,以目前的形態來看,它還無法生成很多深層次的全新洞見,但就整合信息這一點來說,對于科學家或者研究人員非常有用。正如我理解的,AI就是用來在某些方面幫我們節省時間,以便人類可以在更高層次上開展工作。這其實就是人類發明工具的歷史:我們把曾經需要人親手去做的事情交給機器,從而把人從這些瑣碎工作中解放出來,專注于更高層面的抽象工作。我覺得這會是非常好的。
Fatma(主持人):謝謝。Volker,你怎么看?比方說Deep Research這樣的功能,或者說大模型、生成式AI,在科學和研究上會帶來哪些變革?
Volker Markl:有很多方面可以說。首先,它顯然會改變自然科學的研究模式等等。一個重點是如何在這些領域里構建“基礎模型”。在那些領域里,數據常常具有不同的結構和模態,因此進行訓練與整合時,還需要專家的介入。我們要思考如何把它做得更好。不過我覺得我們已經開始看到一些初步的嘗試了,比如在病理學、地球觀測等領域,都開始打造這種基礎模型,并且確實能夠加以利用。這對科學研究是頗具變革意義的。當然,在計算機科學等領域也是如此。很多人正如你所說,會用它來節省一些步驟或者加快進度,比如“Copilot”之類的功能,這確實相當重要。它可以幫助我們改進編程,對許多科學家而言,你就不必再去思考復雜的Python邏輯或者類似的東西,只要把它交給Copilot。這在科研中改變很大。不過,如果是做系統研究的話,情況就不同了,因為這些基礎模型往往針對通用的編程需求,或者訓練數據中的常見模式。但如果我要構建一個嶄新的數據庫系統、數據流處理引擎之類,這些就更困難。這并不在通用基礎模型的主干里。可是對于API整合或通用分析任務而言,這些工具是非常強大的。所以,從這個角度說,它確實對科學研究有很強的推動作用。再比如,如果我們看看人文學科或其他領域,面向這些領域的文本或數據,需要進行專門的適配或訓練。事實上,這已經在發生,能夠為那些非常具體的領域提供問答等功能。另外,我們對所謂“涌現行為”(emergent behavior)還沒有完全理解,也許在這個過程中會出現一些非常有趣的新東西。我想,對我而言令人興奮的,是隨著“人在回路”(human in the loop)等理念,以及實驗速度的提升,這些模型還能推動知識發現。相信在幾年之內,我們就能看到AI真正自主完成的重大科學發現。那真的很酷。
二、AI如何改變企業模式
Fatma(主持人):的確很酷。那么,也許從商業角度來講,Nicole,你覺得ChatGPT這樣的聊天機器人,會成為企業界的‘Game Changer’嗎?換句話說,它可能會如何改變企業?
Nicole Büttner:這個問題很有意思。因為從目前看來,德國企業其實對這方面興趣很大、接受度也很高,已經開始了初步的嘗試。比如說我們也看到了很多企業用它來做檢索或問答系統(RAG systems,Retrieval-Augmented Generation),效果不錯。我覺得這其實是一個好的開端,但我個人更期待的是下一步會怎樣,尤其是當我們真正把它納入企業核心業務,產生核心價值的時候。我相信到那時候我們會需要一個龐大的生態系統。是的,人們可以直接使用GPT或者Copilot,但也需要進一步的技術和交互層,才能真正把它嵌入業務流程。所以,現在我們應該說還只是剛剛開始‘撓到表面’,在技術、數據、能力建設、以及技術落地速度等很多方面還得繼續努力,才能將它從簡易的問答場景擴展到更多的業務場景。這些都讓我很興奮。
Volker Markl:我也想從大學的角度補充一下。對我們來說,學生可以算是我們的‘用戶’。其實這里面也有許多有意思的應用場景,比如我們怎么利用大語言模型(以及更廣泛意義上的基礎模型)來幫助學生。當然,學生現在常用到的功能,是文本總結之類。每當GPT回答了他們的一些問題,我們都得思考:學生能從中學到多少?學習效果有沒有保證?不過,更有意思的一點在于,我們可以讓聊天機器人變成一個‘助教’,甚至是一個個性化的‘導師’。比如,在我們這兒,它可以教學生數據庫系統相關內容,讓學生和它進行互動,然后系統根據學生個人的學習情況,以及課程的具體要求,做個性化的指引。我認為這方面有很大的潛力,也會在某種程度上徹底改變教學方式,因為它能幫助減少老師和助教在簡單重復上的負擔,讓他們把精力放在更高層次和更復雜的內容上。我覺得這是一個非常好的機會,我們一定要把握,事實上已經有人在積極嘗試了。
Fatma(主持人):是的。那我們等會兒也許會討論一下AI對社會可能帶來的風險,以及一些人擔心的問題。但在此之前,我想先聊一聊今天宣布的‘OpenAI 與 BIFOLD之間的合作’。據我所知,你們剛剛開始了一個研究伙伴關系,OpenAI會提供價值5萬美元的API額度,用于探索你們的o3 model模型,柏林工業大學也會和你們一起開展許多新的研究合作。我想問:對于這樣一個與領先的基礎研究機構合作的關系,你們各自有什么期待?
Sam Altman:實有很多原因讓我對AI興奮不已。我們之前多少也提到了。就我個人來說,AI給我帶來最大興奮點的單一方面,就是它能給科學發現帶來的影響。我相信,如果我們能加速科學研究的過程,讓我們用一年的時間去完成本需十年的科學進展,甚至某一天能用一年時間完成一百年的科學研究——這會極大地提升我們的生活質量。比如說解決最緊迫的問題、應對氣候變化、讓生活方方面面變得更好,比如治愈疾病。我覺得AI終于能真正推動這一切。
在場有多少人認為自己比GPT-4更聰明? (沒有人或很少有人舉手)
那有多少人認為自己在GPT-5面前還能保持更聰明? (也基本無人回應)
我原以為會看到更多人舉手(笑)。其實我自己就不覺得我能比GPT-5更聰明,但我并不覺得沮喪,因為這意味著我們可以利用它來做更多不可思議的事情。我們將能夠利用它來完成一些不可思議的事情,而且,我們希望推動更多的科學研究取得進展。這是人類歷史的一條主線——不斷創造工具來做更多事情。當然,這一次感覺會有一點不同,因為它帶來的潛在能力是巨大的。但如果科學家能夠運用這種‘高智商工具’,把更多的精力放在提出正確問題和加速研究進展上,那么所有人都會受益。所以我們非常高興能讓研究人員獲得這樣的能力。——順便說一下,那兩個認為自己比GPT-5更聰明的同學,我過一陣子還想再聽聽你們的看法。
Volker Markl:就我們這邊而言,從比較宏觀的角度看,如果大學只做學術研究,就難免會與實際需求脫節。而跟行業公司合作,就能讓我們的研究更貼近實際問題,有更強的現實意義,也更能聚焦到真正的問題上,不會走偏,這是其一。其二是資源的獲取,比如我們能不能接觸到更多算力、更多模型等等。這一點是非常寶貴的。具體到BIFOLD和這次合作來說,一方面我們會研究如何在各種科學領域里應用大型模型,這就是剛才Sam提到的病理學、量子化學等領域的“基礎模型”怎么去做。我們想要探索如何用這些系統來處理特定領域的科學任務,這是BIFOLD的目標之一:推動科學的新發現。比如,個性化醫療就很有潛力,或者優化醫療服務質量等等。BIFOLD整合了柏林工業大學與Charité醫院的力量,在醫療保健等領域也有很大的機會。所以,我們現在有了所有這些不同的步驟——怎么才能讓它們在可重復性方面做得更好、被記錄下來?剛才Sam也提到了一些關于可解釋性的功能,以及這些功能即將帶來的影響。我認為在這一層面上,其實既有需求也有機會,需要我們審視整個過程,包括系統層面如何進行可擴展化。這恰恰是我們在BIFOLD所從事的研究:更加智能的算法、系統架構,還有更好的編程模型,幫助我們高效地編寫AI應用。
另一方面,當然還有智能算法這一塊,這其實就是機器學習的范疇。正如我們都知道的,而且我們可能待會兒還會提到,訓練依然很昂貴。那么,在維持大規模數據集的同時,我們能不能在效率上有所提升?當然我們也可以在小規模數據上進行訓練,或者做模型組合,但如果要在大型數據集上做訓練……不知道Sam你怎么看,但是我認為我們想追求的那種‘涌現行為’——不管它給人帶來期待也好還是恐懼也好——還是讓人非常興奮的。而且我覺得只有在大規模數據集上訓練才有可能觀察到這些涌現現象。至少這是我的預期:如果用小數據集,就很難讓模型自動‘誘導’出那些新行為,因為那樣的話我們就等于事先已經顯式地規定了它要做什么,而沒有得到那種‘隱式的誘導行為’。
三、AGI的真實含義
Fatma(主持人):是啊,我聽到你這番話中包含了很多在未來合作中的研究機遇,真是太好了。那么,讓我們轉到另一個話題:AGI(通用人工智能)。Sam,你的一位前同事Dario最近寫了一篇文章,說到他對下一代AI,也就是AGI的愿景。他提到,AGI就像是‘在數據中心里有一個天才之國’。你同意這種看法嗎?另外,你覺得這對下一代的科學家意味著什么?
Sam Altman:我覺得我們現在已經足夠接近‘AGI’這個概念了,因此它的精確定義開始變得重要。比方說,當你擁有‘各個領域的世界級專家’并且他們能不知疲倦地協同工作時,我想那就已經超出了大多數人對AGI的想象了。與其去討論‘我們什么時候會到達AGI’之類的問題,我更想說:我認為未來幾年里,我們會出現一些技術能力,能讓很多人驚呼‘我從沒想過計算機能做到這個。’再往后,或許會出現一種系統,可以在一年內完成十年的科學研究進展——那就更遠一些,但那個時刻到來時,我覺得整個世界會顯著加速變化,并從中獲得巨大收益。目前來看,我們確實處在一個相當陡峭的上升軌跡上。去年有人唱衰說‘規模化訓練不再奏效了,極限將近了’,但后來我們又找到了新范式,出現了這些具有推理能力的模型,而且它們相當聰明,這股趨勢應該還能再持續一陣子。之后我也期待會再找到別的范式。我在總體上學到的一點是,當你看到技術呈現非常陡峭的指數曲線增長時,你不該去賭它會停下來。人們說‘這個快要到極限了’、‘那個快撐不下去了’,我覺得聽到這種話時要保持懷疑。從我們的角度看,我們似乎發現了一種重要的算法突破,真的可以進行‘學習’,而且還會持續下去。我們肯定會遇到一些瓶頸,但我們應該能夠想辦法解決。我相信我們會到達AGI,甚至超越AGI,而且大體上會是一個相對平滑的擴大和進化過程。
Fatma(主持人):好的,也許我可以追問一下:如果有人聲稱‘我們達到了AGI’,你覺得現在哪個組織或者群體最有能力來獨立驗證這個說法?
Sam Altman:我認為唯一重要的衡量標準是它能給人們帶來多少實用價值。如果這個系統對你來說很有用,超過了某個門檻——那就很好了。如果有人想辯論‘它到底算不算AGI’,其實并不重要。我還是覺得它會是一個連續的指數式增長,以及連續地提升實用性。唯一的問題就在于:它能幫助人類多大程度、給世界帶來多大幫助。
Nicole Büttner:我個人也同意這種觀點。AGI應該是一個不斷變化的目標。技術不斷進步,我們對AGI的定義也會相應地往前推。但就如同Sam說的,實用價值才是關鍵指標。我也認為,作為科技行業的一部分,我們還需要更好地‘交付’這項技術。其實我們大家都在好奇,現在AI每隔一段時間就有新進展,但對很多企業來說,他們真正想要的是:‘我們能不能把AI工具交給教師、護士、各種商業從業者,讓它來幫助解決眼下非常緊迫的勞動力短缺啊、各種服務壓力、經濟與時間的種種限制,以及醫學問題?’所以,從我的角度看,更讓我關心的是我們是否能夠在到達AGI之前,就準備好把它帶給大眾,用一種真正有用的方式去做落地。讓這種‘過渡’或‘轉化’能順利進行,并且在到達AGI之前就已經打好基礎。
四、Stargate項目
Fatma(主持人):也就是說,我們基本可以同意,讓真正使用AI并且能從中受益的人來判斷系統的實用性乃至它是否‘通用智能’,這才是最貼近的評價標準。好,我們換個話題,談談AI投資。美國最近有一些激動人心的動向,比如OpenAI剛宣布的Stargate項目,一家新公司將投入大約5000億美元,可能在四年內保證——也許我們會有N3這樣的硬件吧——來確保美國在AI領域的領導地位,其中包含微軟、英偉達、甲骨文這些大公司。那么,Sam,我想問的是,除了這筆龐大的資金,Stargate究竟能讓OpenAI做成哪些原本做不到的事情呢?
Sam Altman:這其中有兩個要點。第一,擁有更大規模的算力(computer)后,我們就能訓練更強大的模型。我覺得世界不會希望我們停留在GPT-5或GPT-6,人們希望繼續往前推進。而Stargate能讓我們在未來幾年維持跟過去幾年相同的技術改進曲線,并且我相信能讓我們得到非常強大的模型。第二,人們對這些系統的使用需求真的很大。我們越是取得進展,就能持續降低成本。大致來說,每年我們都能把去年的‘智能能力’再降低一個量級成本,然后再降一個量級。摩爾定律讓芯片性能每18個月翻一番,而我們這邊每12個月可能就能降10倍成本,這就非常給力。但與此同時,人們對這些服務的需求上漲比10倍還快。而且隨著我們訓練出真正強大的模型——它們在推理時可能消耗巨量的算力——你可能非常愿意投入大量算力去攻克癌癥之類的難題。因此,從我們的角度看,全世界對這類服務的算力需求正在急劇上升。看看我們自己在推理階段的算力消耗也是這樣不斷增長。這就是Stargate另一個要做的事,讓人們能用上足夠的算力——我們現在已經有數億人在用OpenAI的產品,而很快就會到達十億級用戶。他們用得越多,就越想要更多。
Fatma(主持人):謝謝。Nicole,從歐洲公司的角度來看,你覺得他們需要怎樣的‘Stargate’式項目或舉措?
Nicole Büttner:我們在歐洲一直在談AI和新技術方面的法規問題。我是個創業者和投資人,所以我更想談機遇。我覺得我們需要更多投資,而且得快點兒上馬。歐洲企業跟美國企業相比,在創新和研發上的投入結構性地更少,而且投向的也是偏中端技術而非高新技術。我們必須盡快改變這種狀況。所以,我希望能跟更多大型企業建立聯盟,把這種‘轉化機制’做好,讓創意和投資能快速轉化為實際業務價值。我覺得,這次美國Stargate項目其實也是一個很好的‘最后提醒’——我們在歐洲并不缺少資本,也有很出色的人才,還有非常有意思的海量數據以及各行各業。如何把這些獨特優勢和全球前沿技術結合起來?別忘了,還有很多歐洲研究人員也為這些核心算法做出了貢獻。我們可以創造大量的就業、經濟增長和商業價值,解決很多難題。所以我希望這能給歐洲帶來新的動力。而在Merantix,我們正在努力做企業和前沿技術之間的橋梁。
Volker Markl:對我來說,一切都跟‘數據’緊密相關。正如你提到的,歐洲——尤其在德國——有非常豐富的企業數據可利用,比如制造流程數據、客戶數據庫等等。現在很多這類數據并沒有被充分挖掘。我認為這里面蘊含巨大的機遇。當然,我們也會談到法規、硬件規模等等,但我覺得關鍵還是要充分利用這些數據。我認為我們必須得朝那個方向走。
Sam Altman:從OpenAI的角度看,德國是我們一個非常重要的市場,是我們在歐洲最大的市場,全球范圍內也能排進前五。人們用我們的工具做了很多不可思議的事情。我相信大多數歐洲人都希望AI能在這里發展,用它來推動經濟增長、推動科研,同時也希望在歐洲擁有更完善的基礎設施。我們對此也同樣期待。我們很樂意在歐洲建立一個‘Stargate Europe’,當然需要一些合作與幫助,但我們確實想在這里建一個由歐洲來運作與管理的基礎設施,我覺得那非常棒。我們也想把我們的產品在歐洲與世界其他地區同步推出。我覺得一個強大的歐洲對整個世界都很重要。歐洲人也會在此基礎上做出很多了不起的創新。當然,歐洲人最終要決定他們想為這項技術制定什么樣的規則——我們會遵守。但在我個人看來,讓歐洲能夠擁抱AI、不落后于世界其他地方,才符合歐洲自身的利益。
Fatma(主持人):那這就直接引出了‘歐洲AI法案’的話題。對于美國公司,面向歐洲市場時,你們怎么看待這些潛在的監管?
Sam Altman:我們會遵守法律,并且尊重歐洲人民的意愿……(笑場)。大家做什么決定,我們就按照規則來。
Fatma(主持人):Nicole,你怎么看?
Nicole Büttner:說到底,我們確實需要在不同的監管體系中尋找利弊,也要考慮這會帶來怎樣的經濟影響和社會影響。我認為,作為一個大陸(歐洲),我們應該能夠使用最先進的技術。我看不出拒絕使用前沿技術有什么好處。如果我們想要對一項技術進行塑造和影響,唯一的辦法就是擁有它、掌握它、與之共事。我個人非常反對過度監管(尤其是在現在還很早期的時候)。我覺得我們應該盡可能保持創新活力,鼓勵更多研發投入。不僅僅是關于具體法規,還關乎一種心態和關注點。我們想讓國家最頂尖的人才——坐在這里的所有技術精英——把精力都放在法規上,還是放在機遇和如何解決現實問題上?在這個問題上,我的立場非常明確,我站在‘機遇’這一邊。
Volker Markl:我只能表示同意。我認為至關重要的是,我們不要把自己跟這些新技術隔絕,而是擁有試驗和探索的能力。當然,最后一定需要一些監管來防范傷害,但如果監管過早介入,就會非常危險,可能會切斷經濟發展和市場機會,也就扼殺了可能性。
五、OpenAI的開源問題
Fatma(主持人):好的,那我再轉到另一個我感興趣的話題:開源。就在Stargate項目宣布之后不久,又有一條重大新聞:一家中國公司開源了他們的聊天機器人,叫DeepSeek。在大學和科研領域,開源和開放數據一直非常重要,特別涉及到我們之前提到的可解釋性和可復現性。Sam,我看到在DeepSeek R發布后,你自己好像也在Reddit上說過,‘OpenAI在開源上站到了歷史的對立面’,大致是這個意思。你怎么看待這個所謂的‘開源發布’,以及更一般地,開源對于OpenAI和整個生成式AI競爭格局意味著什么?
Sam Altman:我覺得很明顯,開源是有其存在價值的,而且開源模型對世界有好處,可以給人們帶來不少價值。至于‘AGI是否應該開源’,這可以有很多爭議;但就現階段的模型來說,我不認為有人會否認‘把它們開源能夠帶來價值’。我們自己內部也有很多優先事項要權衡,所以說起來容易做起來難。但我樂見世界上有優秀的開源模型存在。
Fatma(主持人):那OpenAI內部目前也在討論開源嗎?
Sam Altman:是的,我們有在討論,但還沒有最終決定。
Fatma(主持人):好啊。Volker,你怎么看開源在這其中的利弊?
Volker Markl:我覺得這里有幾方面。第一是開源模型本身,第二是開源訓練數據,第三是開源訓練過程。這些是不同層面。從科學的角度說,能把這三者都開源當然最有價值,因為這能讓我們繼續探索、學習,并且在科學上有更多的改進。當然也能理解商業公司投入了巨額資金,可能沒有動力去把所有東西都開源。但對科學研究而言,這確實很關鍵。我認為在科研界,我們會看到開源趨勢繼續加強,因為可重復性和可信度都需要開源。甚至在一定程度上有助于可解釋性。所以這對某些領域或場景的落地也許是必不可少的。還要指出的是,歷史上常常是先出現封閉的專有系統,然后在某個階段(比如市場走向成熟或標準化后),才變得開源。這有時也是跟隨者進行市場策略的一部分。所以我覺得未來我們會看到更多的開源模型,也許會看到更開放的訓練過程和數據,尤其在特定領域和科學研究中。但你難道不也同意嗎?在大型語言模型,或者AI總體領域,早期就有很多東西開源,正是這點讓發展速度加快了嗎?
Fatma(主持人):‘絕對如此’,正如你所說,這正是關鍵之處。這也是科學的運作方式:科學就是公開發表、公開的流程。在科學研究的范疇里,這完全合情合理,這就是良好的科學實踐——將內容公開。對我來說,這應該——而且通常也確實是所有公共資金支持的科研人員所應當遵守的要求。所以,也許接下來的問題是:你覺得這是不是讓整個領域現在變得更加‘公平’了呢?比如在商業公司之間,開源聊天機器人出現后,會不會讓更多人都有機會參與?
Nicole Büttner:我覺得可以把這理解為一個創新的生態系統,你需要各個部分共同運作才能充分發揮作用。有人在不斷拓展前沿——我們也知道,這里面涉及資源,比如對計算基礎設施的獲取是關鍵,不是每個人都能負擔得起。至于這是否合理,或者我們社會和經濟應該如何來配置,這是另一個層面的問題。我想,的確需要有一些開源的東西,也需要更多人參與進來一起推進某些創新。但對我來說,這并不是一個‘要么開源,要么閉源’的二選一。就像在很多開源技術中,若要把它們應用到企業級別,你還需要再加一層東西。因為你不可能直接把它從GitHub拉下來就投產,這涉及安全、合規、可靠性等一系列問題,都需要額外的解決方案。所以對我而言,這是一個生態圈,雙方會并行存在,并在彼此的互動中加速發展,給我們帶來多樣化,也讓每個人都能加入進來、推動邊界的拓展。
六、AI能源消耗與數據效率
Fatma(主持人):好。那我想再轉向另一個議題,就是Volker還有Sam之前都提到過的‘數據效率’以及‘能源消耗’。我覺得這是在場很多人也非常關心的話題。直到最近,很多AI公司在訓練時還在追求更大規模的模型和數據集。大家也在討論,數據可能逐漸變成瓶頸。我們現在看到的一個趨勢,也是在你們之前簡短提到的,就是出現了更多‘推理模型’的概念。為了得到更好的答案,這些模型在推理階段的計算需求在增加。那么,我第一個問題是:相比傳統的預訓練方法,這些‘推理模型’能帶來哪些新的能力?
Sam Altman:這些模型正在變得極其高效。如果你看看‘每個token(或每個推理)所需的瓦特數’,為了得到一個高質量的回答,其實可能已經比讓一個人來回答更節能——畢竟人類還需要吃東西來維持機體運轉(笑),而且機器只需要電力,而且用量越來越少。它們現在真的是越來越高效了。我記得很久之前,谷歌剛出現時,人們也有過道德恐慌,說‘你發出一次搜索請求就會耗費數據中心大量電力,太糟糕了’。但我當時想,這實際上取代的是人們開著車跑15分鐘去圖書館查資料,再開車回來。如果是這樣,那顯然數據中心用的電跟跑車相比反而要少得多。哪怕你因為搜索更方便而多搜索100次,也還是比開車去圖書館消耗的能源更低。目前AI所占全球能源的比例非常小,而且從‘每次查詢’的能耗上看也很高效。要是我們真的擔心能源過度使用,有一種極端做法是禁止AI,順便把計算機和電燈泡也都禁止了,大家都坐在黑暗里。不消耗任何能源,這是一個可選擇的世界。但還有另一種選擇:我們使用AI,就算它可能需要幾百兆瓦甚至上千兆瓦的電力,如果這能讓AI幫助我們研究出如何做高效且廉價的聚變,并且能夠快速大規模部署在世界各地,那么對解決氣候問題將是巨大的推動。我相信這是AI能帶來的希望。當然,我也可以在這里跟你分析AI有多么能效高,但我更想說的是:如果我們找不到新的科學方案來應對氣候危機,那我們就真的完蛋了。顯然,僅憑我們過去幾十年的努力進展不夠快,那不如試試AI吧。
Fatma(主持人):那么你認為,現在國家電網等能通過可再生能源來滿足AI的用電需求嗎?
Sam Altman:我覺得在未來幾十年里,‘核聚變’將成為地球上主要的能源來源。所以我相信我們最終會完全沒問題。
Fatma(主持人):Volker,也許在這個背景下,我想聽聽你對于高質量數據、以及高效數據管道在AI應用中重要性的看法?
Volker Markl:當然。我同意Sam的看法,我們必須考慮如何更高效地使用數據和模型。但這里有一個問題,那就是:我們能否在訓練過程中通過算法上的改進把能耗降下來?因為也許有新的算法可以讓訓練復雜度從目前的二次方級別降低到N log N,甚至更低。另外,硬件也可能會不斷改進,對能耗的降低也會起作用。這也正是科學的意義所在:推動我們在各方面前進。這也是我們研究的內容,很多研究團隊在探索如何降低訓練復雜度。當然我不是硬件專家,但硬件的進步同樣重要,可能會進一步降低能耗。所以這是一個整體性的過程。就像Sam說的,我們應該從整體上看待能耗問題:AI確實會消耗一些能源,但也帶來潛在益處。它的‘碳排放/能耗’成本和收益應當放在一起衡量。我們現在所處的時代面臨氣候變化、能源等很多嚴峻挑戰,要確保AI能幫助解決問題,而不是讓問題更糟。所以我們需要非常負責任地對待這些風險。
Fatma(主持人):是的,所以我們需要以一種非常負責任的方式來處理這一切,并時刻牢記潛在風險。好的,那在我們進入Q&A環節之前,我想再問一個更科幻一點的問題:如果我們借用《太空漫游2001》里HAL的場景,你們認為第一個真正達到‘AGI’的基礎模型,會不會出現類似‘自我復制’、‘自我改進’、‘自我修改’這樣的能力,也就是根據某種‘涌現的需求’自動演化?如果會,你覺得OpenAI或者其他公司會不會覺察到這種行為?在這種情況下,你們會承擔什么責任去報告或應對這種社會影響?」
Sam Altman:有些人覺得AGI一定得能自我復制、自我改進、還要造太空探測器之類。可我個人會在它到達那個階段之前就把它稱為AGI。當然,如果我們真的快要靠近那個水平了,我們有責任告訴公眾。我們肯定會這么做。
Fatma(主持人):你們會怎么告訴公眾呢?怎么去監測到AI有這種‘意愿’?
Sam Altman:嗯,我覺得這個過程會是漸進的,不會說‘嘩’一下就發生。大家經常把‘自我改進’想象成一個非此即彼的東西,其實它更像是逐漸演化:先是AI幫科學家加快一點進度,然后是幫助更大程度,然后又能做更多。所以我認為它不會是一個清晰的二元切換,而更像一種速率上的變化。
問答環節
問題1:第一道問題來自Oliver。他說:‘我想聽聽嘉賓對這樣一種觀點的看法:我們正用一些類似“魔法”的產品來推動經濟和社會發展,而我們自己并不真正了解它們的內部工作原理。打個比方,如果汽車是從一個黑箱工廠出來的,那我們怎么能成功造出可靠的汽車呢?也就是說,我們如何信任這些“黑箱”模型,尤其是當前它們對我們而言確實不透明?
Sam Altman:我每天都在使用一些我并不真正明白其原理的產品。只要我知道某種輸入會得到某種輸出,我就可以用它。我可以使用一些極其復雜的系統,也許我可以大致解釋它是怎么運作的,但我造不出來。比如我知道顯微鏡是怎么回事,大概能在紙上畫個示意圖,但要真讓我造一臺電子顯微鏡,那我就無能為力了。不過我還可以用它,這對我來說已經足夠。當然,我們確實需要確保AI系統達到高水平的可靠性、可預測性和公認的安全標準。但使用者也很聰明,他們大多都懂什么時候該信任,比如ChatGPT在某些事情上的確能幫他們很多,而在另外一些時候則不一定能信。不過大部分用戶并不需要自己去訓練模型——這就像我們用其他技術產品一樣,并不需要知道所有細節。這正是技術產品在經濟上帶給我們的價值:有人搭建了它,理解或掌握了足夠多的原理;雖然我們對它不可能是百分之百的理解,但至少有相當高的理解度。我們的工作就是讓它變得非常易用,讓你一用就能從中獲益,而不用糾結于訓練過程中的每一個細節。
Volker Markl:是的,但從系統安全的角度,或者說在傳統工程中,我們是通過設計來確保安全和可靠性,還會盡量去證明某些方面是正確的,比如做形式化驗證之類。這樣我們才放心地去使用它。而對AI來說,目前還遠沒有達到這種程度。對于那些有‘關鍵性風險’的場合,比如核電站里的控制系統,這時候出一點誤差就可能導致嚴重事故——我覺得以目前的AI水平,還是不適合用在這些特別極端的領域里。當然,在沒那么嚴苛的領域,我們就可以做權衡。這是社會層面的一種選擇:對于某項AI在特定使用情境下可能帶來的風險,我們要衡量它是否可接受。就我個人而言,我會認為某些領域目前還是不宜使用AI,至少還不到那種可以徹底放心的程度。
Nicole Büttner:對,我認為這非常依賴具體使用場景。當我們談可解釋性時,也要問自己:‘我們到底要解釋什么?’是要知道模型在圖像中看到了哪個像素點?還是更關注‘它是否確實在看腫瘤本身,而不是看著腫瘤后面那片組織?’我不確定我們是否需要對所有事都做到‘100%可解釋’。我同意前面說的:我們需要先想明白自己真正需要的是什么。在很多場景下,尤其是在安全或健康相關的領域,如果人們不知道模型是怎么得出結論的,他們就會更猶豫是否接受這個結果。所以在這些地方,可解釋性就顯得更加關鍵,至少是影響他們的使用意愿。不過我覺得,就像人類一樣,我們自己做決策時也沒有100%透明的可解釋性。所以,目前如果要說對模型提出‘百分之百可解釋’的要求,恐怕也是一種幻想。
問題2:好的,下一個問題來自Veronique。她問:我們該如何確保AI只使用‘可信賴’的數據來進行訓練,并且遵循FAIR數據原則(Findable可檢索,Accessible可訪問,Interoperable可互操作,Reusable可復用)呢?
Volker Markl:這涉及到數據集成的問題,需要保證所使用的數據源符合這些原則,并且有一定的驗證機制。當然也可以通過半自動化的方式進行,比如在信息抽取和信息集成領域有很多研究,一些方法同樣基于機器學習。我們需要真正去應用這些研究成果,并且建立檢查與平衡來驗證數據。比如,在為特定領域(如病理學)構建某種‘基礎模型’時,我們就會注意選擇高質量、符合FAIR原則的數據源。簡單來說,就是要對這些原則做實實在在的落實。」
問題3:好,我繼續下一個問題。Daniel問:‘讓AI變得更強大的最大技術挑戰是什么?’
Sam Altman:更好的算法、更大的計算機,以及更難的數據集……還有能幫我們更好地從用戶反饋中學習‘哪里還有不足’的產品設計。這些都是關鍵。我想說的是,在未來兩年里,我們會看到非常非常巨大的進展。我們已經知道如何讓這些模型變得更好,而且目前沒有看到明顯的路障攔在面前。我們只需要把Stargate建起來,做很多高水平的工程,同時我們的研究人員繼續努力探索就行。總的來說,我對從2025年2月到2027年2月之間的進步速度寄予厚望——我覺得這段時間給人的震撼感會比從2023年2月到2025年2月更大。
Volker Markl:是的。我想再補充一點,如何將多模態數據,以及那些在特定應用領域里相對稀疏的數據,以一種有意義的方式結合到模型里,這將會是個非常有意思的挑戰。對某些特定領域來說,這可能能大幅提升AI的能力。
Sam Altman:這真是令人興奮。你們將親身經歷并參與一個‘最快速的技術躍升’,很可能是人類歷史上前所未見的。如果我們的預測正確,那么在未來幾年里,你們在2027年就能做的事情,遠遠超出幾年前我們所能想象的——不管是你們要做的研究項目、科學發現,還是新創業公司,這些都幾乎難以置信。
Nicole Büttner:我們也非常興奮。我所在的機構也在運營一只基金,投資那些把AI與具體領域相結合的初創公司,例如生物技術(TechBio)、醫學領域等等。我認為這是一個特別棒的時代,能看到這一切的演進實在振奮人心。作為投資人,我非常期待!
問題4:好啊。這正好是下一個問題:如果你們現在還是學生,會如何準備好迎接這個未來?
Nicole Büttner:那我先來。我覺得保持‘批判性思考’會非常重要,學會持續思考。近期我了解到一個詞叫“Liminality”(過渡狀態),指的是介于過去與未來之間、即將發生但未完全成形的一種狀態。我覺得我們現在可能就在這種狀態里——過去的經驗似乎無法再提供足夠的選項,而我們感覺到未來正在逼近,但又不確定它確切會是什么樣子。所以,要能在這種模糊和不確定的狀態下繼續前行,并且保持建設性與行動導向,這就意味著擁抱變化,也意味著巨大的機會。我認為這也和心態有關。
Sam Altman:比較顯而易見的戰術層面是‘熟練使用AI工具’。我念大學時,學編程是很重要的事情;而到了2025年年初和2025年年底之間,編程的形態又會發生巨變。你要站在這個趨勢的‘正確一邊’,所以要學會使用AI工具,學會如何讓自己比以前做得更多、更快,這個非常直接。但還有一些不太明顯,但同樣重要的技能,比如‘適應力’和‘韌性’,這些可以通過練習來提高,而且會非常關鍵。此外,‘理解他人需要什么’也是一種可以培養的能力。等AI可以做任何事情、創造任何東西的時候,決定該做什么以及什么東西對人有價值就非常重要了。人類本能地關心別人的需求和別人創造的東西,我覺得這點不會變。有些人會說‘最關鍵的是提出正確的問題’,但我認為更重要的是弄清楚別人真正想要什么、什么能產生價值、以及如何讓AI朝那個方向前進。我過去在Y Combinator做投資時,其中一個最深的體會就是:人們對這項技能的‘可學習程度’比我想象的要高。我們其實可以把它納入教學中。
Volker Markl:我讓你們兩個先回答是因為這是個常見問題。我的答案其實一直都一樣:過去有一個‘T型人才’(T-shaped)概念,相信很多人都聽說過,即你需要既有廣度又有深度。我認為這在今天依然很重要。舉例來說,如果你學的是計算機科學,那么基礎的編程能力就像Sam說的,同時你也需要一個深入的專業方向,比如機器學習算法、數據系統、機器人等。哪怕你在那個領域里學到的具體知識將來會過時,但你依然能保留‘如何快速適應和遷移’的能力——也就是剛才提到的適應力。所以,要在深度和廣度上都投入。而當年我們請Eric Schmidt來這里時,也討論過同樣的問題。最后他得出的結論是‘不要只學市場營銷’,因為那僅僅是廣度方面。當然,懂一點市場營銷也不錯,但更重要的是你一定要有某種技術深度。所以我個人認為,遵從‘T型人才’的思路,會是個不錯的指導方針。
問題5:這是對在座學生很好的建議。我再問一個最后的問題,請幾位簡短回答:你們對于‘2025年的AI’最期待的是什么?或者說最讓你興奮的是什么?
Sam Altman:我還是堅持‘加速科學進展’這個答案。
Volker Markl:對,我也覺得未來的科學研究會有劇烈的變化,AI會在科研過程中提供強有力的支持。我對這一點非常興奮。我也很期待在‘新系統’層面上的發展。對現在從事AI和數據領域研究的我們來說,這是非常激動人心的時代,各種機會層出不窮。比如說創業的機會。同時在基礎研究方面也有很大空間。雖然AI發展很快,但仍有很多開闊領域可以去探索。所以我也鼓勵大家,要么在學術界,要么創業,要么去工業界,都可以投身進來,因為這就是未來,而這也令人非常興奮。
Nicole Büttner:我非常期待比如在TechBio和醫學上的應用。通過對人體和疾病的更深入理解,能開發出更有效的療法,這讓我覺得特別棒。我也對制造業和物流領域的應用感到好奇。有太多有趣的事情會發生,而AI會真正深入到核心業務層面,創造新商業模式。我覺得我們會從目前的‘知識檢索’層面逐步深入到業務最核心的部分,而這將非常令人期待。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
原文鏈接:https://www.youtube.com/watch?v=McuO7Osgzqo&ab_channel=TUBerlinTV
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編:圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.