昨日(9月29日),元戎啟行CEO周光在2024全球智能汽車產業大會(GIV)上表示,該公司已與多家主機廠合作,共同推進十余款智能駕駛汽車的量產。
“目前,我們與多家主機廠的多款車型都開始了合作,已有超過萬輛車下線。”同時他預計,五年后這一數量將達百萬級。
而同時,元戎啟行(以下簡稱「元戎」)也在積極探索Robotaxi的規模化運營。
周光表示,搭載元戎方案的其中一款量產車型,在近期登上了周銷榜首。該車型銷量最好的區域主要在二三線城市,而越是像這種復雜、少圖的場景,越能體現出元戎方案的優勢。
“各家企業的端到端方案都有所不同,其中有兩段式也有一段式,但端到端只是進入智駕下個階段的入場券。”
據他介紹,目前元戎啟行正基于Thor芯片研發VLAM(Vision-Language-Action Model,視覺-語言-動作模型),該系統將于明年推出。
通過VLAM,元戎啟行的智能駕駛系統可以連接視覺、語言、動作,能識別和描述道路環境、交通標志、道路參與者等,理解交通場景中復雜的交互事件、隱藏的語義信息和邏輯推理。
也就是說,即便碰到罕見路標跟邊緣場景,系統也能有高效的場景泛化能力和穩定的駕駛表現。
在今年3月,元戎發布了端到端無圖方案,4月份推出了高階智駕平臺DeepRoute IO,僅需一顆Orin X就可做到「全國都可開」。
“現在,不管是幾線城市,還是國道鄉道,都能激活我們的智能駕駛系統。”
周光指出,早在2017年,元戎就提出了感知的前融合,感知能力一直是其強項之一。如今,經過端到端的數據訓練,使得系統可以處理大量非規則、非結構化的場景,例如弱車道線、施工場地、異形障礙物等物體場景的識別,都是通過端到端系統的訓練達成。
不過周光也透露稱,上半年,在做端到端的泛化過程中,其實也遇到了很多問題。
“目前的一段式端到端,在處理原始數據的過程中,還是存在結構化的抽象。這是一個BEV架構帶來的問題,因為將3D事件投映到2D平面上,會產生大量的信息損失。”
他表示,元戎基于英偉達的Thor開發了Vision Transformer架構下的VLAM,上限會更高,也會更加擬人。
同時他也指出,針對新的架構,元戎的數據采集形式也有所變化——從單純做感知標注,一直延伸到行為級層面的標注,這意味著整個技術棧的巨大變化。
“這可以讓系統由傳統的Debug形式,變成了嵌入Thor的技術棧,這是非常大的提升。我們搭載Thor平臺的軟件會在明年上車,會實現質的飛躍。”
周光透露,明年,這套VLA模型的端到端方案就會上市,同時預計元戎的歐洲運營中心也會開啟,屆時也希望幫助車企進行海外布局。
“我們期待5年以后,能夠有百萬臺的AI汽車搭載元戎系統。我認為這是真正的基點,也是下一個端到端階段的入場券。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.