3月19日,群核科技在GTC2025全球大會上宣布開源空間理解模型SpatialLM,這是一個基于大語言模型的3D場景語義生成框架。它突破了傳統大語言模型對物理世界幾何與空間關系的理解局限,賦予機器類似人類的空間認知和解析能力。這相當于為具身智能領域提供了一個基礎的空間理解訓練框架,企業可以針對特定場景對SpatialLM模型微調,降低具身智能訓練門檻。
群核科技SpatialLM模型開源頁面
據悉,該模型僅通過一段視頻即可生成物理正確的3D場景布局。基于從視頻中提取的點云數據,SpatialLM模型能夠準確認知和理解其中的結構化場景信息。目前,SpatialLM已在HuggingFace、GitHub、魔搭社區等平臺面向全球開發者開源。據群核科技相關技術負責人稱,此次開源僅是開始,接下來SpatialLM模型將繼續迭代如自然語言和場景交互等功能。
SpatialLM運行原理
“我們希望打造一個從空間認知理解到空間行動交互閉環的具身智能訓練平臺。本次開源的SpatialLM空間理解模型旨在幫助具身智能機器人完成在空間認知理解上的基礎訓練。而去年群核科技發布的空間智能解決方案SpatialVerse,則希望進一步通過合成數據方案為機器人搭建最接近物理真實的‘數字道場’,實現機器人在仿真環境中的行動交互訓練。”群核科技董事長黃曉煌在接受采訪時表示。
據了解,群核空間智能平臺SpatialVerse是本次亮相GTC的另一個重頭戲,它與SpatialLM模型之間“協同合作”,打通了"現實 - 虛擬 - 現實" 的閉環路徑,共同為具身智能架起一座數字仿真與物理現實之間的橋梁。例如,SpatialLM模型通過從視頻到結構化場景的轉化,將現實世界的數據轉化為虛擬環境中的豐富場景,而基于SpatialVerse的合成數據引擎,一個結構化場景又可泛化生成億萬級新場景。這也意味著,現實世界將成為SpatialVerse“數字道場”的原料來源。
"我相信全球很快會迎來具身智能機器人的爆發性發展,在具身智能背后,是算力、算法、工程和訓練數據四個板塊的協同進化,這需要全行業合力推動。群核科技希望通過空間模型和數據開源一起推動技術基座建設,為這個技術奇點的來臨貢獻一份力量。”黃曉煌提到。據悉,在空間和具身智能訓練上,目前群核科技已與硅谷頭部科技企業等在內的一批國內外具身智能企業達成合作。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.