# 前言
在人工智能一次又一次的“飛躍”背后,究竟是什么在驅動它不斷演進?AI演進的靈魂代碼藏在哪里?
本篇訪談特邀復旦大學大數據學院的魏忠鈺副教授,從基礎研究到產業落地,為我們層層揭示AI崛起與迭代的內在邏輯。希望這場深度對話,能為讀者提供新的思考角度與靈感,共同見證AI時代的蓬勃脈動。
相關追問:
1. AI發展這兩次熱潮有何意義?
2. 初創公司應該如何入局?
3. DeepSeek做對了什么?
4. 企業和學術做AI研究的優劣如何?
5. 硅基智能是否將會超越人類智能?
Q
魏老師好,能否為我們介紹一下您實驗室的情況,以及您在復旦的主要研究職責和關注領域嗎?
魏忠鈺:我是來自復旦大學的魏忠鈺。我本人是2016年加入復旦大學大數據學院,也成立了數據智能與社會計算實驗室(Fudan DISC)。課題組的研究重點是如何發展更好的自然語言處理技術,或者更廣義地說,大模型的基礎技術和能力。并探索如何將大模型的能力應用到不同的下游場景中,與老百姓的日常生活和所獲得的服務相連接。
當前,我們主要關注兩個研究方向。第一個是基礎的多模態大模型能力的構建。雖然大語言模型的能力在不斷提升,但在多模態場景下,大模型的能力仍然處于較初級的發展階段。目前,多模態大模型的構建仍然以大語言模型為中心,許多能力依賴于大語言模型本身。當結合視覺、聲音、其它豐富模態場景時,模型的多模態理解和深度推理的表現仍然不盡如人意。因此,我們希望能夠在多模態大模型技術能力的構建上做出一些貢獻。
第二個研究方向是將前沿的人工智能技術與實際生活場景相結合。我們更關注那些能夠產生社會價值,與應用場景強連接的課題。目前,我們正在探索如何使用大模型驅動的智能體完成社會模擬,構建更好的特定領域智能體、社會仿真環境,提升下游應用的模型性能,構建智慧醫療服務、或者面向融媒體領域的智能方法。
?復旦大學數據智能與社會計算實驗室。圖源:http://www.fudan-disc.com/
Q
我們知道,人工智能的發展在國內已經進入了第二次浪潮。第一次浪潮以視覺領域的算法突破為代表,而現在的這一批企業則與通用大語言模型的興盛和應用密切相關。您能否從學術或技術卡點的角度,為我們解讀人工智能發展這兩次熱潮的意義?同時,您能否預測一下,未來還會有哪些關鍵的技術賽點?
魏忠鈺:要回答這個問題,我們需要回顧過去十年中推動AI發展的核心技術驅動點。從語言模型的角度來看,過去十年發生了顯著的變化。
(1)文字表征方法轉變
第一個標志性工作是2013年谷歌提出的Word2Vec。這篇論文提出了一種規模化的將語言表征從稀疏向量轉換為稠密向量的方法。在Word2Vec之前,文字的表征通常需要幾千維的向量,其中很多位次是零,信息密度很低。盡管神經網絡在視覺領域已經取得了成功(以2012年提出的AlexNet為代表),但由于神經網絡在處理低信息密度數據時能力有限,它并未很快在自然語言處理領域產生影響。Word2Vec通過將文字表征為稠密向量(如50維、100維或300維),更適合使用神經網絡進行處理,這開啟了自然語言處理領域的神經網絡時代。
(2)語言的長程依賴建模
接著是對于文本長程依賴建模。語言是一個文字序列,對于語言的建模需要考慮序列中文文字的依賴關系。這里有一個例子:
“我今天早上出門,看到一塊石頭,長得很丑,踢了它一腳。”
那么請問,是誰踢了這塊石頭?我們可以很快反應出是“我”踢了“石頭”,但在文字序列里,“我”和“石頭”這兩個詞的距離很遠。要回答這個問題,就需要在建模這段文字的過程中,建構我跟石頭之間的關系。之前不管是卷積神經網絡,還是循環神經網絡,對長程的文字依賴,建模能力都有限。
直到 2017 年谷歌的Transformer(Attention is All You Need)橫空出世。Transformer在建模中引入了自注意力機制。它會考慮文本中任意兩個位置之間可能發生的關系。這時不管你輸入的序列有多長,任何兩個位置之間的關系都會被考慮到,給語言文字的長程建模提供了解決方案,徹底改變了語言建模的基礎結構。
(3)低成本可規模化的標注
接下來的故事和數據有關,有一句當時很流行的說法“人工智能背后的人工”。因為模型的能力建構,依賴于人工標注的數據。比如要教模型去做情感識別的任務,需要很多相關的樣本,并且告訴模型,什么是正標簽,什么是負標簽。這樣的標注很是耗費人力。如何去規模化、低成本地產生標注信息,是模型能力進一步提升的瓶頸。
于是,第三個技術支撐點,自監督訓練方法應運而生,代表性的工作是谷歌的BERT和OpenAI的GPT。“自監督方法”在對于文本進行建模的時候,不額外引入人工標注,而是利用文本本身的信息來訓練。GPT的自監督訓練方法,就是現在被大家熟知的“next token prediction”,一個詞、一個詞得去產生一個原本存在的句子。預測的目標是原本在句子中本來就存在的,這樣的標注信息可以規模化。這個時間點是2018年。
在這三個技術要素的支撐下,我們看到了GPT系列模型從2018年的1億參數增長到2020年的1700億。并在多種任務上進行泛化學習,使得語言模型能夠在真實場景中落地應用。集大成的產品ChatGPT也再22年11月問世,引起了一股熱潮。
?圖源:LM Po / Datawhale
(4)未來展望:多模態與深度推理
2022年,ChatGPT的推出引來了技術爆發點。隨后的GPT-4和O1模型,分別展示了語言模型在多模態建模和深度推理能力上的拓展。未來三到五年,我們還會看到基礎模型能力的提升,不管是在多模態方面,還是在深度推理方面。而不斷提升的基礎模型能力,也將推動智能體在落地場景中的應用,帶來更多令人驚艷的產品形態。
此外,OpenAI首席科學家伊爾亞(Ilya Sutskever)在2024年NeurIPS會議上提到,當前的“Scaling Law” 已經走到盡頭,因為互聯網上的文本數據幾乎被耗盡。然而,現實生活中的知識不僅以非結構化文本的形式存在,還以服務流程、技術規范等形式存在。如何學習和利用這些知識,可能是未來的一個重要方向。通過多智能體之間的交互機制來建構這些知識,或許是一種可行的學習方式。
Q
您如何看待大語言模型和智能體之間的關系?現在,做大模型的入場券越來越高,特別是對于初創公司來說,想要與大廠或已經獲得充分資源支持的新銳科技公司競爭,難度非常大。那么,對于初創公司而言,智能體是否是一種比較好的入局方式?
魏忠鈺:首先,我認可這個基本論斷。對于初創公司來說,如果現在再去開發基礎模型能力,一方面很難與已經建立技術基礎或數據基礎的公司競爭,另一方面也難以獲得足夠的資源來進行基礎模型的開發。因此,選擇一些特定領域的應用,可能是一個相對明智的方向。
在2023年下半年,我們課題組就開始推出一些領域大模型,主要面向醫療和社會媒體處理領域。我們的主要技術手段是針對特定領域構建高質量的微調訓練樣本,并將場景能力注入到基礎大模型中,從而提升其在特定領域的能力。
在這個過程中,我們遇到了一些合作方的質疑。他們擔心,隨著底座大模型能力的快速提升,領域所需的特定能力,基礎大模型可能很快就會具備,從而導致我們在領域中所做的工作變得徒勞。對此,我們也進行了深入思考。
我認為,針對特定領域的專有化能力建構始終是必要的。
首先,數據是關鍵。許多專業化場景的數據都涉及隱私保護,無法在網絡上或通用場景中輕易獲取。模型能力建構很大程度依賴于數據,如果這些數據無法被通用模型獲取,那么擁有這些數據的領域從業者就具備了獨特的優勢。
其次,現實生活中的知識并不都存在于非結構化的文本序列中。它們可能是一些服務流程或指南,僅從文字上理解可能不夠深入。因此,我們需要通過場景搭建、場景優化以及高質量數據的合成,才能構建出專業能力。對于特定領域來說,專家的積累和特定場景的經驗也是一種護城河。
Q
春節期間,DeepSeek的進展對全球人工智能產業界產生了不小的沖擊和啟發。從您的角度來看,DeepSeek做對了什么?他們的這次發布有什么樣的意義?
魏忠鈺:在ChatGPT提出之初,我們回溯了OpenAI在2022年發布的介紹InstructGPT*的文章。這篇文章揭示了ChatGPT的訓練包含的三個步驟:預訓練、指令微調以及人類反饋的強化學習(RLHF)。然而,在2023年和2024年,許多研究(包括我們自己的嘗試)都開始質疑,強化學習的訓練方式是否真的對模型能力有實質性的提升,或者說,有不可替代的作用
在開源社區,關于強化學習在大模型能力提升方面的探索,很多也都回到了對數據樣本的學習上,而不是行為模式的學習上。這種基于樣本的學習,或者說基于專家提供的序列的學習,被稱為模仿學習(Imitation Learning)。模仿學習的特點是,模型只能學習數據中已有的模式。但只是依賴模仿學習,和現有的指令微調訓練實際上沒有本質的區別。那怎樣才能充分發揮強化學習作為行為主義的優勢呢?
核心是要讓模型進行更多探索,尋找數據中原本不存在的模式,并在訓練過程中評估這些探索的結果是好是壞。在DeepSeek R1的技術報告中**,我們看到他們成功地大規模應用了強化學習的訓練方法來提升語言模型在復雜問題求解方面的能力,并取得了顯著效果。
強化學習的訓練方式讓模型自己生成了一些樣本,而不是僅僅依賴于已有的數據積累。通過這個探索過程,模型可以產生新的樣本,并通過結果的好壞來評估這些樣本的價值。這實際上是對現有數據的不同維度的一種擴充。
雖然類似的方法在學術界也有人嘗試,但此前并沒有如此規模化的成功先例。DeepSeek的實踐證明了這種訓練方式的可行性,并為整個社區提供了一個很好的示例。在DeepSeek之后,我們看到開源社區中已經出現了許多復現版本。可以預見,在未來幾個月內,會有更多成功的復現已經推廣的出現。
總的來說,DeepSeek的這次發布是在公開信息中,首次對使用大規模強化學習訓練語言模型的一次成功示例,在語言模型的發展歷程中有里程碑的意義。
* Ouyang, Long, et al. "Training language models to follow instructions with human feedback." Advances in neural information processing systems 35 (2022): 27730-27744.
**https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
Q
這是不是我們現在所說的“端到端”訓練?
魏忠鈺:其實,“端到端”這個概念在神經網絡學習時代就已經存在了。DeepSeek的這種訓練方式更側重于在多步決策的情況下,僅依靠最后一步的結果來完成整個長程模型的訓練。這種方式不僅簡化了訓練流程,還提高了模型的探索能力和適應性。
Q
您認為現在大家討論的強化學習、推理等技術,與人工智能的理性和人類意識之間有什么關系?或者說,到什么狀態可以認為AI是有意識的?
魏忠鈺:這個問題非常有意思,也是我們一直以來非常關注的問題。網上流傳著一種說法,稱ChatGPT的核心團隊成員之一、首席科學家伊爾亞曾表示,語言模型可能會有意識。但如果我們回溯他發表這一觀點的時間點,會發現這甚至是在ChatGPT發布之前。因此,可以推測,伊爾亞說這句話時,可能是在訓練ChatGPT的過程中,發現語言模型的能力有了顯著提升,那一刻給他帶來了震撼。
然而,即使是從現在的角度來看,像GPT-4這樣的模型,雖然表現非常強大,但大多數人仍然不會認為它具有意識。我自己也持相同觀點。盡管語言模型的能力非常強,但它距離有意識或所謂的通用人工智能(AGI)仍然有一段距離。
關于“意識”這一概念,我曾與復旦大學的哲學學院老師進行過交流。從他們的角度來看,意識的核心在于對自我的認知,以及擁有自主性的價值觀或目標。如果回歸到意識的最原始定義,那么當前的人工智能模型,無論是其訓練初衷、訓練過程,還是其表現,都離這一定義有很長的距離。
Q
有用戶在網上分享了他與AI的對話,他問AI是否認為自己已經超越了人類。AI回答說,“它很羨慕人類,因為它永遠無法體會在大雨中狂奔的感覺,也無法聞到雨后泥土的芬芳”。您如何看待AI這種浪漫化的表達?它是否真正理解了中文語境中那些詞語的浪漫意味?它是如何做到這一點的?
魏忠鈺:在回答這個問題之前,我想先探討一下人類智能與機器智能之間的關系。人工智能這一概念最早于上世紀中葉提出,通常我們會提到1950年圖靈發表的那篇著名文章*。他在文章中提出了一個問題:機器是否會思考?并設計了一種測試方法,即圖靈測試,或者說模仿游戲(Imitation game)。在圖靈測試中,機器需要表現得像人類一樣,甚至在回答復雜計算問題時,會故意停頓幾秒,以模仿人類的反應速度。
*TURING, A. M. I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind. 1950-10-01, LIX (236). ISSN 0026-4423. doi:10.1093/mind/LIX.236.433
直到今天,我們在評價機器智能時,仍然習慣于使用類似的標準,即機器是否能夠像人類一樣表現,或者是否能夠理解人類的情感。然而,我認為機器智能與人類智能可能是兩條不同的軌道。如果我們接受這一前提,那么討論機器是否能夠理解人類社會的浪漫主義表達或詩意性表達,可能并不是一個核心問題。
我們更應該關注的是,在希望機器智能發揮作用的場景下,它是否能夠做得很好。例如,如果我們希望機器智能在情緒撫慰方面發揮作用,有了這個可衡量的目標,我們就可以評估它是否能夠滿足我們對浪漫追求的需求。至于機器自身是否真正理解浪漫的定義,可能并不重要。
如果我們真的想打破砂鍋問到底,去探討機器智能的產生本源,是否與人類智能相同?或是說它是否具有意識或情感?在當前階段,這可能是一個難以回答的問題。因為我們連人類大腦的結構、意識如何產生、情感如何形成都還沒有研究清楚,更不用說機器的智能和情感是如何產生的了。
Q
赫拉利這樣的未來學家提出了一些假設,認為未來硅基智能可能會超越人類智能,甚至成為一種新的生命形態。您從嚴謹的科學角度,如何看待這樣的預測和表達?
魏忠鈺:這類問題我也時常思考。但坦白說,這個問題超出了我現有的科學訓練和知識儲備。非要說的話,我認為這種可能性是存在的,畢竟地球上的“霸主”已經更換過好幾輪了。從很長的時間線來看,人類被取代的可能性也不小。
然而,站在當前的角度,我認為智能技術的發展,應該以“為人類創造更大福祉”為目標。我記得Hinton在去年的一個報告中提到,在生物學發展的歷史上,從未出現過一種社會形態,是由低階智能領導高階智能的。因此,如果人工智能未來發展到遠超人類智能的形態,對人類顯然是不利的。這是我認同的一個前提。
基于此,我們在人工智能技術的發展過程中,確實需要對其安全性及其對社會的影響進行充分評估。在技術發展路徑的選擇上,應該優先考慮如何用技術創造更大的社會價值,而不是單純追求智能的超越。
Q
您的工作中有很多與醫療等領域相關,因為這些領域更容易為人類創造福祉。能否舉兩個例子,說明您正在做的工作如何與老百姓的日常生活相關聯?
魏忠鈺:我們在社會醫療領域的工作,主要是將智能化手段引入醫療服務場景中。這些場景的服務對象既包括患者,也包括醫生。中國的現狀是人口基數大,醫療資源相對不足。通過將智能化手段引入醫院等醫療機構,可以減輕醫生的負擔,同時提升患者的服務體驗。
目前,我們與復旦附屬眼耳鼻喉科醫院合作,開發了一款智能導診助手PIORS。由于眼耳鼻喉科醫院是專科醫院,科室設置非常復雜,患者往往難以快速找到對應的科室。這款導診助手就可以幫助患者快速定位到能夠提供服務的科室。
另一方面,我們也為醫生提供服務。醫生的工作壓力非常大,除了為患者提供診療服務外,還需要承擔科研、病程管理和病歷記錄等任務。我們通過智能化手段,幫助醫生生成問診總結的草稿、住院記錄的草稿等,從而減輕他們的工作負擔。
在大模型出現之前,這類需求雖然存在,但由于模型能力的限制,相關技術的研發和落地顯得遙不可及。現在卻是一個非常好的時間節點。基礎模型的能力正在不斷提升,即使當前產品的需求滿足度尚未達到100%,未來仍有很大的提升空間。同時,產品設計、服務模式設計以及場景數據的積累都需要時間推進。因此,場景智能化技術的探索應與基礎模型能力的研究同步進行,這樣才能更快、更好地將智能化技術帶入實際應用場景。
Q
我們是否可以預見,未來AI醫生也能正式上崗?如果AI成為某種角色,如何界定其發揮作用的邊界以及它需要承擔的責任?
魏忠鈺:在重大決策場景中使用AI技術時,其倫理問題非常值得探討,同時也需要制定相應的政策。就我個人而言,我并不支持拋開人類、完全依賴智能化的服務,尤其是在醫療場景中。現在有一個非常流行的詞叫“情緒價值”。在就醫過程中,除了獲得專業的醫療建議外,從專業人士那里獲得情緒價值是醫療服務中不可或缺的重要環節。如果我們將醫療服務完全從人類轉移到機器上,那么這部分情緒價值的提供就會被削減,我們所獲得的醫療服務也會大打折扣。
因此,我更看好的是智能化手段與人類醫生的配合。這涉及到醫療資源不平衡的問題。在大城市,醫療資源集中,我們可以很容易找到高水平的醫生專家,獲得精準的醫療建議。但在一些偏遠或經濟欠發達地區,醫療從業人員的專業水平與大城市醫生相比存在差距。在這種情況下,我們能否通過AI技術與人類醫生的結合,提供高質量且具有溫度的醫療服務,是一個值得探索的路徑。
關于責任承擔的問題,如果是人與機器協同工作,那么醫療責任可以由人類醫生及其使用的工具共同分擔。
Q
現在的大模型已經非常擅長語言表達,甚至可以隨時開啟“夸夸模式”。您認為未來機器是否可以幫助醫生分擔一部分情緒價值,滿足患者對情緒價值的更多需求?
魏忠鈺:在文字和語言方面,機器當然可以提供一定的情緒價值。然而,人與人之間的親近感所蘊含的情緒價值,是機器無法提供的。因此,我仍然支持AI技術作為人類能力的延伸,輔助人類提供更好的服務,而不是完全取代人類。
Q
在大模型訓練過程中,可能會帶入人類的偏見。我們如何規避這一問題?
魏忠鈺:大模型的偏見問題目前是學術社區廣泛關注的課題。許多學術機構成立了倫理委員會,旨在評估相關研究和學術成果是否會加重智能技術的偏見,從而對社會產生負面影響。
從技術手段來看,價值對齊的模型訓練是一些學者關注的方向。他們希望通過訓練讓語言模型對齊某些價值觀,例如友愛、平權、減少歧視等。在訓練過程中,可以使用符合主流價值觀或目標價值觀的數據對模型進行訓練,以達到預期效果。
在模型應用過程中,可能需要對使用場景進行限定。例如,在招聘、司法等敏感場景中,應減少對模型輸出結果的依賴,引入更多人類監督,從而緩解大模型偏見對社會不公帶來的負面影響。
Q
您作為人工智能產業界的學者,同時與醫療機構和許多產業界伙伴合作。您如何看待企業側和學術側在不同環境中進行人工智能研究的優劣勢?如何調配資源以推動研究進程?
魏忠鈺:在ChatGPT發布后,學術社區曾引發過廣泛討論,甚至有人開玩笑說“自然語言處理已經不存在了”,后來類似的表述也出現在計算機視覺等領域。這種說法雖然帶有調侃成分,但也反映了一個真實的現象:在這一波人工智能前沿探索中,高校團隊由于資源(如算力和數據)的不足,能夠做出的貢獻和影響力正在逐漸減少。
在這種背景下,學術團隊,特別是從事相關研究方向的團隊,如何找到自己的價值并做好定位,是我們一直在思考的問題。對此,我的答案是兩個方面:
第一,高校學術機構除了學術創新外,他一個重要職責是人才培養。
人才培養的目標是讓學生具備邏輯思考能力、嚴謹分析能力以及對前沿技術的掌握。這些目標可以通過一些資源依賴較小的項目來實現。高校學術團隊的重要責任是為產業界和未來的學術社區培養更多訓練有素的科研人才。這一責任不會因科技前沿的變化而受到太大影響,只不過人才培養可能會變成高校與企業界共同合作完成的任務。例如,學生的基礎學術素養可以在高校科研團隊中培養,而產業界落地能力和科技創新能力的培養,則可以在博士生中后期通過與企業的聯合推動來實現。
第二,高校學術團隊仍需而且也仍然會承擔學術前沿探索和科技創新探索的責任。
在當前背景下,我們面臨的困境是如何保持定力。當產業界和社會的關注點不斷變化時,學術團隊需要堅持對某些學術方向的判斷。例如,在以人類反饋作為模型訓練指標的范式出現之前,強化學習領域的學者坐了很長時間的“冷板凳”。即使在ChatGPT發布后,強化學習的作用也并未立即凸顯,直到DeepSeek-R1的出現,才真正證明了強化學習的價值。那些在過去幾年堅持強化學習前沿技術和理論探索的學者,他們的堅持非常重要。從更長線來說,持續探索強化學習理論的學者也居功至偉。
?3月5日,美國計算機協會(ACM)宣布,Andrew G. Barto(左)和Richard S. Sutton(右)因開發強化學習的概念與算法基礎,榮獲 2024 年 ACM A.M. 圖靈獎。Andrew G. Barto,馬薩諸塞大學阿默斯特分校信息與計算機科學系榮譽退休教授。Richard S. Sutton,阿爾伯塔大學計算機科學教授、Keen Technologies 公司研究科學家及Amii研究員。圖源:quantamag
對于大語言模型或自然語言處理領域的學者來說,由于我們所關注的前沿技術已經進入產業階段,如何調整學術和科研重心是當前需要做出的判斷。在做出判斷后,我們還需要進行長期的理論積累,以迎接下一波技術浪潮。
當然,也有許多學術從業者選擇在當前階段擁抱科技創新大潮,這也是一個可行的選擇。
Q
對于神經科學領域的從業者,您有什么建議?
魏忠鈺:在我看來,我非常羨慕現在從事神經科學或腦科學研究的學者,因為相關的研究條件正在不斷成熟。在不久的將來,科技創新的前沿陣地或者叫活躍區域會轉移到他們的領域,屆時他們將迎來屬于自己的爆發時刻。因此,如果我現在是神經科學或腦科學領域的學者,我會告訴自己,要專注于定位場景中的真問題,找到那些能夠發揮實質性作用的關鍵點,并不遺余力地去突破它們。無論是大語言模型領域還是強化學習領域,都有許多成功的先例可以借鑒。
Q
您認為在這個過程中,人工智能會參與到神經科學的進程中嗎?還是說神經科學的學者們需要主動去擁抱人工智能?
魏忠鈺:我認為人工智能的發展高潮尚未結束,未來一段時間內,它在其他領域的成果會逐漸顯現。因此,在神經科學和腦科學領域,人工智能也必將產生實質性的影響。關注人工智能相關技術對下一步的發展至關重要。
一個好消息是,隨著開源社區的興起,大語言模型和多模態模型的技術門檻正在降低。這為非相關領域的從業者使用人工智能技術提供了便利,大大減少了入門所需的時間和精力投入。此外,隨著國家推動的人工智能教育和人才培養政策的落地,神經科學和腦科學的年輕從業者在學習和培訓過程中,人工智能已經成為其中的一個重要環節。因此,未來進入神經科學和腦科學領域的學者,很可能已經具備了AI技能。
監制:陳天橋 雒芊芊 | 策劃:楊揚
采訪:韓云蕓 | 統籌:邴立東
導演:鄭明鍵 | 內容策劃:范存源 鄭明鍵 | 編輯:范存源
聲音制作:章江南 | 后期剪輯:任櫻超 鄭明鍵 呂子豪
攝影指導:陳光 |攝影助理:王志茂 寶龍 | 燈光助理:蒲均
出品:天橋腦科學研究院、追問nextquestion、大圓鏡工作室
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.