(關注公眾號設為標,獲取AI深度洞察)
全文 8,000字 | 閱讀約28分鐘
在昨日的一場備受關注的專訪中,Meta首席人工智能科學家、圖靈獎得主Yann LeCun拋出了一個可能讓許多AI投資者感到不安的觀點:當前的大型語言模型技術已接近收益遞減,未來突破需要全新的技術范式。
就在Anthropic完成35億美元融資、OpenAI估值攀升至近萬億的背景下,這位被譽為"AI教父"的深度學習先驅直言不諱地指出,通過簡單擴大模型規模和增加訓練數據來實現通用人工智能的路徑可能行不通。"如果你認為我們僅僅通過訓練更多數據和擴展LLMs就能達到人類水平的AI,你就錯了,"LeCun在采訪中表示,"這絕對不可能。"
這一觀點與當前AI行業的投資熱潮形成鮮明對比。僅去年一年,OpenAI就獲得了66億美元融資,Anthropic先后獲得40億和35億美元,而包括Elon Musk在內的眾多投資者仍在向大型語言模型技術投入巨資。然而,LeCun認為,真正的智能突破不會來自更大的語言模型,而是需要一種能夠形成抽象思維、理解物理世界并進行真正推理的全新架構。
文稿整理
主持人:歡迎來到Big Technology Podcast,這是一個關于科技世界及更廣泛話題的冷靜、細致入微的對話節目。我是Alex Cans,非常高興歡迎Meta的首席人工智能科學家、圖靈獎得主、被譽為“AI教父”的Yann LeCun來到Big Technology Podcast。Yann,很高興再次見到你,歡迎來到節目。
嘉賓Yann LeCun:很高興來到這里。
一、生成式AI的局限性
主持人:讓我們從一個關于科學發現的問題開始,以及為什么AI到目前為止還無法自己做出科學發現。這個問題來自 Patel,他在幾個月前提出的。他問:為什么AI,尤其是生成式AI,基本上已經記憶了人類的全部知識庫,但卻未能建立起任何新的聯系來推動發現?而即使是一個智力中等的人,如果記住了這么多東西,他們也會注意到,比如,這個東西導致了這個癥狀,另一個東西導致了這個癥狀,可能會有一種醫療上的治愈方法。所以,我們不應該期待AI也能做到這種事情嗎?
Yann LeCun:對于AI來說,是的;但對于LLMs來說,不是。你知道,有幾種類型的AI架構。當我們談論AI時,我們會想到聊天機器人。聊天機器人和LLMs是基于大量文本訓練的,它們被訓練來基本上復述、檢索,并生成符合它們所訓練文本統計特征的答案。它們能做的事情令人驚嘆,非常有用,這是毫無疑問的。我們也知道它們會產生不真實的幻覺。但在最純粹的形式中,它們無法發明新事物。
二、創新與AI的未來
主持人:讓我提出Hugging Face的Tom Wolf在過去一周于LinkedIn上分享的觀點,我知道你也參與了相關討論,這很有趣。他說,要在數據中心創造一個愛因斯坦,我們需要的不僅僅是一個知道所有答案的系統,而是一個能夠提出別人從未想過或敢于提出的問題的系統,一個在所有教科書、專家和常識都建議相反時,寫下“如果每個人都錯了呢”的系統。是否有可能教會LLM做到這一點?
Yann LeCun:不,不行,不是以目前的形式。我的意思是,未來可能會有能夠做到這一點的AI形式,但不會是LLMs。LLMs可能作為其中一個組件很有用。LLMs在將抽象思想轉化為語言方面很有用。在人腦中,這由一個叫做布羅卡區的小腦區完成,大約這么大。那是我們的語言模型。但我們不是用語言思考的,我們是用心理表征來思考的。我們對思考的每件事都有心理模型。即使我們能說話,我們也能思考。這發生在我們的大腦中,那是真正的智能所在,而這正是我們還沒有用LLM重現的部分。所以問題是,我們最終會有能夠不僅回答已有問題,還能為我們指定問題提供新解決方案的AI架構和系統嗎?答案是最終會有的,但不是用當前的LLMs。然后,下一個問題是,它們能否提出自己的問題,比如,弄清楚什么是值得回答的好問題?答案是最終會有的,但這需要一段時間。在人類中,我們有各種特點:有些人記憶力極好,能夠檢索大量信息,積累了大量知識;有些人是問題解決者,你給他們一個問題,他們就能解決。Tom實際上談到了這一點,他說,如果你擅長學校,你就是一個好的問題解決者,你能解決給定的問題,在數學或物理等方面表現良好。但在研究中,最困難的是提出正確的問題,什么是重要的問題。這不僅僅是解決問題,還包括以正確的方式構建問題,這樣你就能有新的洞察力。之后,你需要將其轉化為方程式或實用的模型。這可能需要不同的技能。提出正確問題的人不一定是解決方程式的人,也不一定是記得100年前的教科書中有類似方程式的人。這些是三種不同的技能。LLMs非常擅長檢索,但不擅長解決新問題,找到新問題的解決方案。它們可以檢索現有的解決方案,但絕對不擅長提出正確的問題。
主持人:LLM 指的是像 GPT 這樣的技術,已嵌入 ChatGPT。Yann,我想問,AI 領域正從標準 LLM 發展到具備推理能力的模型。我們能否通過輸入‘質疑指令’,讓其產生反直覺或異端思考?
Yann LeCun:我們需要弄清楚推理的真正含義。當前,LLM 試圖在一定程度上進行推理,甚至檢查自身答案的正確性。人們正嘗試在現有范式上做些調整,而非徹底改變它。那么,能否為 LLM 添加某種機制,使其具備基本的推理能力?許多推理系統正是這樣做的。例如,‘思維鏈’(Chain of Thought)方法要求 LLM 生成比實際需要更多的 token,希望在此過程中投入更多計算,從而提升回答質量。盡管這種方法在某些情況下有效,但非常有限,無法實現真正的推理。在經典 AI 中,推理往往涉及搜索解空間。我們提出問題,判斷是否解決,然后在解空間中搜索,直到找到符合約束的答案。這是推理的基本形式,而 LLM 并不具備這種搜索機制,必須額外添加。一種方法是讓 LLM 生成多個答案序列,再由獨立系統篩選最佳答案。這類似于隨機生成代碼并測試其有效性,但這種方式既不是編寫正確代碼的好方法,也不是良好的推理方式。最大的問題在于,人類和動物推理并非在 token 空間中進行。我們不會依次生成多個表達解決方案的文本再挑選最佳答案,而是在頭腦中構建心理模型,對情況進行操作,找到可行方案。例如,規劃造一張桌子的步驟時,我們在腦海中構思行動序列,而非通過語言表達。當想象一個立方體沿垂直軸旋轉 90 度時,我們可以在心里模擬這一過程,并確認旋轉后的立方體仍然符合原本的形態。這種推理發生在抽象的連續空間中,與語言無關。人類和動物一直在這樣做,而機器尚未能真正復現。
三、“思維鏈”的局限
主持人:“這讓我想起你提到‘思維鏈’無法產生太多新穎見解。DeepSeek 發布時,流傳的一張截圖顯示有人請求其提供關于人類狀況的新見解。讀起來像是 AI 在玩聰明伎倆,遍歷各種有趣觀察,比如如何將暴力引導向合作而非競爭,以促進建設。但當你再看‘思維鏈’,會感覺它像是讀了《人類簡史》等書后的總結。
Yann LeCun:是的,很多內容都是復述。我想把我們后來談到的‘墻’提前。訓練標準 LLM 是否正在接近瓶頸?過去,只要增加數據和計算,模型就會變得更好。但正如我們討論的,你似乎認為情況并非如此。我不確定是否該稱之為‘墻’,但收益遞減是顯而易見的。我們已幾乎用盡所有自然文本數據來訓練 LLM,總數據量達 1013 至 101? 個 token,涵蓋整個公開互聯網,并額外許可非公開內容。有人提出用合成數據或雇傭專家生成更多數據,但許多系統連基本邏輯都難以掌握。這種方法進展緩慢,成本上升,回報卻有限。因此,我們需要新的范式和架構,核心是能夠搜索、驗證方案,并規劃行動以達成目標的代理系統。目前,人人都在談代理系統,但沒人知道如何真正構建它們,只能復述已有知識。計算機科學中的挑戰在于,如何讓系統在未經訓練的情況下解決新問題。人類和動物可以做到這一點。面對新情況,我們要么能立即解決,要么能快速學習。例如,開車時,最初需要全神貫注(系統 2),但經過幾十小時練習,就變成了直覺反應(系統 1),甚至能一邊駕駛一邊交談。這種轉變適用于幾乎所有技能:最初需要高度專注,熟練后進入潛意識。我曾在研討會上見過國際象棋大師同時對弈 50 人。他走到我面前,看了一眼棋局,瞬間落子,不假思索。他的系統 1 足以應對我這樣的對手。人類和動物的核心能力在于,面對新情況時,我們能運用常識,推理出解決方案,而不依賴海量訓練數據。這正是當前 AI 系統所缺失的。
主持人:你說 LLM 已到收益遞減的階段,我們需要新范式。但問題是,這個新范式尚未出現,而你正在研究它。我們稍后會討論可能的新方向,但現在有一個現實的時間線問題,對吧?資金仍在大量流入 LLM。去年,OpenAI 獲得 66 億美元,幾周前 Anthropic 又融資 35 億,去年籌集了 40 億,馬斯克也投入巨資開發 Grok。這些公司仍專注于 LLM,未真正尋找新范式?;蛟S OpenAI 在嘗試,但他們之所以獲得 66 億美元,是因為 ChatGPT。那么,AI 領域將走向何方?如果資金持續涌入收益遞減的技術,而突破需要新范式,這顯然是個關鍵問題。
Yann LeCun:我們對新范式有一些想法,我正在努力推動它落地,但這并不容易,可能需要數年時間。問題在于,這個新范式是否會足夠快地出現,以證明當前的投資合理?如果它來得不夠快,投資仍然合理嗎?首先,僅靠擴展 LLMs 絕不可能達到人類級 AI。這根本不會發生,無論你從更激進的聲音那里聽到什么,未來兩年內都不可能。認為數據中心里會有一群‘天才’完全是胡說八道。真正的問題在于,我們或許能訓練出一個系統,能回答任何合理的問題,就像你身邊坐著一個記憶力驚人的博士,但它不會像真正的博士那樣為新問題發明解決方案。Tom Wolf 也提到,發明新事物需要 LLM 無法提供的能力。現在的投資并不是為了明天,而是未來幾年。至少在 Meta,大部分資金投入在推理基礎設施上。Meta 的計劃是到年底通過智能眼鏡、獨立應用等觸達 10 億 AI 用戶。要服務這些用戶,需要大量計算資源,因此基礎設施投資至關重要,微軟、谷歌、亞馬遜等公司也在做同樣的事。即使新范式在三年內沒有到來,市場依然存在,基礎設施會被廣泛使用。因此,這是合理的投資。建設數據中心需要時間,必須提前布局,否則未來風險更大。
四、AI投資與部署挑戰
主持人:回到你的觀點,當前 AI 仍有明顯缺陷,有人質疑其實際用途。Meta 正押注消費者市場,這有道理——OpenAI 有 4 億 ChatGPT 用戶,而 Meta 觸達 30-40 億人,Messenger 也有 6 億用戶,雖然使用頻率不及 ChatGPT,但 Meta 仍有可能覆蓋 10 億消費者用戶,這是合理的。 問題在于,許多投資是基于 AI 對企業也有用的假設。然而,正如我們討論的,它還不夠成熟。例如,Benedict Evans 提到的 DeepResearch,盡管表現不錯,但可能有 5% 結果是幻覺。如果一份 100 頁的研究報告中 5% 是錯的,而你不知道是哪部分,這就是問題。當前企業也在嘗試生成式 AI,但只有 10%-20% 的概念驗證能進入生產,原因是成本高或可靠性不足。如果我們已接近 AI 的當前極限,而投資仍建立在它會繼續改進的前提上,你預計會發生什么
Yann LeCun:這是一個時間線問題,系統何時才能足夠可靠和智能,以便更容易部署?在 AI 領域,令人印象深刻的演示與實際部署之間往往存在巨大鴻溝。計算機技術,尤其是 AI,一直面臨這一挑戰。這也是為什么 10 年前我們看到驚艷的自動駕駛演示,但仍未實現 L5 級自動駕駛。關鍵在于最后幾個百分點的可靠性,以及如何整合現有系統,使其更高效、更實用。回顧 IBM Watson,最初計劃通過學習醫學并在醫院廣泛部署,以創造巨額收益,但最終失敗,被拆分出售,甚至影響了 IBM 高層決策。這表明,只有在系統足夠可靠,并真正提升效率的情況下,才能克服行業的保守性,實現大規模應用。這種情況并不新鮮。AI 發展曾經歷類似周期,比如 1980 年代的專家系統熱潮。當時,知識工程師被認為是未來熱門職業,他們將專家知識轉化為規則,供推理引擎使用。日本政府甚至推出“第五代計算機”項目,專門優化此類系統。但最終,只有少數特定應用取得成功,廣泛行業變革并未發生。這種模式一直伴隨 AI 發展。當前,LLM 即便增加各種高級功能,其主要作用仍是信息檢索。大多數公司希望擁有一個內部專家,能理解所有企業文檔,供員工隨時查詢。Meta 內部就有這樣一個系統,叫 Metamate,非常有用。
主持人:我并不是說 AI 或生成式 AI 沒用,而是質疑當前大量資金投入是否基于對其達到神級能力的過高預期。我們談論收益遞減,如果時間線不匹配,會發生什么?這也是我最后的問題。我覺得時間線不匹配對你來說可能是種個人經歷。我們九年前第一次交談時,你有 AI 該如何構建的想法,但連會議座位都找不到。后來,隨著計算能力提升,這些想法開始生效,AI 領域才真正起飛,基于你、Bengio、Hinton 等人的研究發展起來。歷史上,當 AI 期望過高但未能兌現時,比如專家系統時代,行業陷入“AI 冬天”。如果我們正接近類似時刻,你擔心會再度迎來 AI 冬天嗎?尤其是考慮到當前巨額投資、收益遞減的風險,以及股市的低迷?
Yann LeCun:這確實是時機問題。但正如我所說,僅靠更多數據和擴展 LLMs 達到人類級 AI 是錯誤的。如果投資者相信某家公司能靠數據和技巧實現這一目標,那可能不是個好主意。真正的突破在于讓 AI 具備智能動物和人類的核心能力:理解物理世界、持久記憶、推理和規劃。AI 需要常識,并能從視頻等自然傳感器學習,而不僅依賴文本數據。這是巨大挑戰,我和團隊,以及其他研究者,如 DeepMind 和高校團隊,都在探索這一方向。我們已有早期成果,比如 AI 通過視頻訓練理解世界,并利用物理世界的心理模型規劃行動。關鍵是,這些研究何時能轉化為大規模實用架構,使 AI 能在未訓練的情況下解決新問題?這不會在未來三年內發生,但 3-5 年內可能實現,與當前投資趨勢一致。此外,不會有某家公司或個人突然找到“AGI 的魔法子彈”。突破將來自全球研究社區的持續積累,而非某個單一實體。那些共享研究的團隊,比封閉開發的團隊進展更快。因此,如果有人認為某個五人創業公司掌握了 AGI 的秘密,并投入 50 億給他們,那將是巨大的錯誤。
五、理解物理世界
主持人:Yann,我想談談物理學。在 Big Technology Podcast 上,有個聽眾熟知的時刻。你讓我寫信給 ChatGPT:‘如果我雙手水平拿著紙,松開左手,會發生什么?’ 它回答:‘物理作用下,紙會向左飄動。’ 我讀出來,深信不疑,你卻說:‘它剛剛產生幻覺,而你相信了?!瘍赡赀^去了,今天我再次測試 ChatGPT,它回答:‘松開左手時,重力使紙的左側下降,右側仍由右手托住,形成樞軸效應,紙圍繞右手旋轉?!?現在,它答對了。
Yann LeCun:是的,很可能OpenAI雇傭的某個人來解決這個問題,輸入了那個問題和答案,系統被微調了答案。顯然,你可以想象有無數這樣的問題,這就是所謂的LLM后期訓練變得昂貴的地方。你需要覆蓋多少這類問題風格,才能讓系統覆蓋人們可能提出的90%或95%的問題?但這是一個長尾問題,你無法訓練系統回答所有可能的問題,因為問題的數量本質上是無限的,系統無法回答的問題遠遠多于它能回答的問題。你無法在訓練集中覆蓋所有可能的訓練問題。
主持人:在我們上次的談話中,你提到,像‘松開手中的紙會發生什么’這樣的動作,因文本數據覆蓋不足,模型無法理解現實世界的物理規律。我一直是這樣理解的。后來我想,不如試試生成 AI 視頻。我注意到 AI 視頻對物理世界有一定理解。九年前,你說最難的問題之一是問 AI:‘如果垂直拿著筆松手,會發生什么?’ 由于排列組合過多,AI 無法推理,因為它并不固有地理解物理學。但現在,用 Sora 生成‘一個男人坐在椅子上踢腿’的視頻,它能正確表現:人坐著、踢腿,關節正常彎曲,沒有多余的腿。這是否說明大型模型的能力已經提高?
Yann LeCun:不,為什么?因為你仍然有那些視頻生成系統生成的視頻,比如你灑了一杯酒,酒漂浮在空中,或者飛出去,或者消失了。所以,當然,對于每種具體情況,你總是可以為那種情況收集更多數據,然后訓練你的模型來處理它,但這并不是真正理解底層現實,這只是通過越來越多的數據來補償缺乏理解。孩子們用驚人少的數據就能理解像重力這樣的簡單概念。事實上,有一個有趣的計算你可以做,我之前公開談過。如果你拿一個典型的LLM,訓練了30萬億個token,大約是3×10^13個token,一個token大約是3字節,所以是9×10^13字節,我們四舍五入到10^14字節。那段文本我們任何人可能需要大約40萬年才能讀完,每天12小時。現在,如果一個四歲的孩子總共醒了1.6萬小時,你可以乘以3600得到秒數,然后你可以計算有多少數據通過視神經進入你的視覺皮層。每個視神經大約每秒傳輸1兆字節,所以是每秒2兆字節,乘以3600,再乘以1.6萬,大約是10^14字節。所以在四年里,一個孩子通過視覺或觸覺看到的數據量和最大的LLM一樣多,這清楚地告訴你,我們不會僅通過訓練文本就達到人類水平,文本不是一個足夠豐富的信息來源。順便說一下,1.6萬小時的視頻并不多,只是YouTube上傳的30分鐘。我們可以很容易地得到這些?,F在,一個九個月的嬰兒看到了,比如說,10^13字節,這也不多,在那段時間里,嬰兒基本上學會了我們知道的所有直覺物理學,比如動量守恒、重力、物體不會自發消失、即使你隱藏它們它們仍然存在。有各種各樣的東西,非常基礎的東西,我們在生命的前幾個月就學會了關于世界的東西,這就是我們需要用機器重現的,這種學習類型,弄清楚世界上什么是可能的,什么是不可能的,你采取的行動會產生什么結果,這樣你就可以計劃一系列行動來達到特定目標。這就是世界模型的想法。現在,與關于視頻生成系統的問題聯系起來,解決這個問題的正確方法是訓練越來越好的視頻生成系統嗎?我的回答是絕對不是。理解世界的問題并不是通過在像素級別生成視頻的解決方案。我不需要知道,如果我拿這個水杯把它灑了,我不能完全預測水在桌子上的確切路徑和形狀,以及它會發出什么噪音。但在某種抽象層次上,我可以預測水會灑出來,可能會把我的手機弄濕。所以我不能預測所有細節,但我可以在某種抽象層次上預測,我認為這是一個關鍵概念。如果你想要一個系統能夠學習理解世界并了解世界如何運作,它需要能夠學習世界的抽象表示,使你能夠做出這些預測。這意味著這些架構不會是生成式的。
主持人:我想稍后談談你的解決方案,但我也想說,我們的對話怎么能沒有演示呢?所以我想給你看,我會在視頻中把這個放在屏幕上,這是一個我很驕傲的視頻。我讓一個家伙坐在椅子上踢腿,腿還附著在他的身體上,我想,好的,這些東西真的在進步。然后我說,能不能給我一個汽車撞進干草堆的視頻?結果是兩個干草堆,然后一個干草堆神奇地從一輛靜止的汽車引擎蓋上冒出來,我就對自己說,好的,Yann又贏了。
Yann LeCun:是的,那些系統是用大量人類數據微調的,因為那是人們最常要求視頻的內容,所以有很多人類做各種事情的數據來訓練這些系統,所以這就是為什么它對人類有效,但對于訓練系統的人沒有預料到的情況就不行。
六、JEPA:一種新的AI架構
主持人:所以你說,模型不能是生成式的才能理解現實世界。你正在研究一種叫做V-JEPA的東西,JEPA,對嗎?V代表視頻,你還有I-JEPA用于圖像,還有用于文本的JEPA。所以解釋一下這將如何解決讓機器抽象地表示現實世界中發生的事情的問題。
Yann LeCun:AI 的成功,尤其是自然語言理解和計算機視覺,主要得益于自我監督學習。自我監督學習的核心是損壞輸入數據(文本、圖像或視頻),然后訓練神經網絡恢復原始版本。例如,在文本中刪除一些詞,讓系統預測缺失部分;在圖像或視頻中遮擋部分內容,讓系統重建。這種方法使 LLM 僅通過重現輸入文本進行訓練,不需要人為標注,形成因果架構,所有聊天機器人都是基于此構建的。然而,自我監督學習在圖像和視頻上的效果不如文本。預測下一個單詞相對簡單,因為詞匯量有限,可以通過概率分布建模。但視頻是高維連續空間,我們無法有效表示其概率分布,因此傳統方法難以奏效。我嘗試多年在視頻上復現 LLM 的訓練方式,但始終不理想。替代方案是 JEPA(聯合嵌入預測架構),它不同于生成式方法,不是重建輸入,而是學習抽象表示。具體而言,系統對完整和損壞的圖像進行編碼,訓練預測器從損壞的圖像表示預測完整圖像的表示。這種方法比傳統生成模型更有效。我們也將其應用于視頻,訓練系統預測視頻表示,而非具體幀,從而學會視頻的內在結構。例如,在檢測物理一致性時,系統可識別不可能的視頻(如消失的物體),誤差會飆升,表明它已學到某種常識。更進一步,我們開發了動作條件 JEPA,訓練系統理解世界狀態如何隨行動變化。給定 T 時刻的世界狀態及一個動作,系統預測 T+1 時刻的狀態。這樣,它可以在抽象空間中模擬行動結果,進而推理并規劃達到目標的最佳行動序列。這是真正的推理和規劃。
主持人:我必須在這里結束,因為我們超時了,但你能給我60秒對DeepSeek的反應,以及開源是否已經超過專有模型了嗎?我們得限制在60秒,否則你的團隊會殺了我。
Yann LeCun:不好說 DeepSeek‘超過’其他模型,但開源進展更快,這是肯定的。專有公司同樣受益于開源進展,因為信息對所有人開放。開源的優勢在于,它匯聚全球人才,催生更多創新,任何公司都無法壟斷好主意。DeepSeek 證明,一個自由的小團隊,在少有約束的環境下專注開發下一代 LLMs,能提出新穎想法,甚至重新定義方法。如果他們分享成果,全世界都會受益。這說明開源推動創新,專有模式可能難以跟上。此外,開源運行成本更低,許多企業在原型階段使用專有 API,但產品部署時轉向 Llama 或其他開源引擎,因為它更便宜、安全、可控,可本地運行。過去一些人擔心開源會幫助中國,但 DeepSeek 證明,中國不需要外部幫助就能提出出色的想法。中國有許多優秀科學家,比如 ResNet 論文(2015 年)是全科學領域被引用最多的論文之一,作者何愷明當時在北京微軟研究院,之后加入 FAIR,再后來成為 MIT 教授。 全球科學家都在推動進步,硅谷并不壟斷創新。Llama 1 誕生于巴黎的 FAIR 實驗室,僅由 12 人開發。這表明,要加速科技進步,就必須利用全球的多樣性、背景和創造力,而開源正是實現這一點的關鍵。
主持人:Yann,和你交談總是很愉快。感謝你參加我們的節目,這是我們的第四或第五次交談,追溯到九年前。你總是幫助我看透所有的炒作和喧囂,真正弄清楚發生了什么,我相信對我們的聽眾和觀眾也是如此。所以Yann,非常感謝你參加,希望我們很快再次這樣做。
Yann LeCun:謝謝。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:https://www.youtube.com/watch?v=qvNCVYkHKfg&t=1827s
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.