智駕的“達摩克利斯之劍”終究還是落下了。
近日,安徽銅陵德上高速一場致命事故讓公眾和媒體關注的一切焦點都指向了智能駕駛。之后,有網友途經安徽高速時發現警示牌改成了“高速路況復雜,勿用智能輔助駕駛”。
智駕技術的迅猛發展,正在改變人們的出行方式。2024年,中國乘用車L2級及以上自動駕駛的滲透率達55.7%,中國電動汽車百人會副理事長兼秘書長張永偉預計這一數字到2025年可能會接近65%。
然而,當智能汽車駛入千家萬戶,技術的“烏托邦”承諾卻在現實中一次次被擊碎,也給被熱炒的全民智駕澆了一盆冷水。
全球智駕第一命案
很多人或許早已經忘了,距離全球智駕第一次命案發生,已經過去了足足9年。
2016年5月7日,在美國佛羅里達州,40歲的Joshua Brown在駕駛特斯拉Model S時啟用了Autopilot系統,但在陽光直射下,Autopilot未能識別到一輛橫穿馬路的白色大貨車,導致車輛以約117公里/小時的速度撞上了卡車,低矮的車身直接鉆到卡車掛車底部,Joshua Brown不幸身亡?。
這是美國首例涉及汽車智能駕駛功能的交通死亡事故,也是全球智駕第一命案。美國國家公路交通安全管理局(NHTSA)的調查報告顯示,發生撞擊時,車輛的Autopilot自動駕駛系統正處于開啟狀態,由于受到強烈光照干擾,系統未能正確識別出白色車身的卡車,誤將卡車判定為路標,剎車功能沒有及時啟動,車主也沒有采取剎車、轉向或其他動作避免撞車,從而導致事故發生。這次事件促使特斯拉對Autopilot系統進行了改進,并加強了相關功能的測試和驗證?。
而國內,由智駕引發的安全風險也不在少數。今年2月,浙江溫州車主曾發文稱,在高速上使用智駕時,系統未識別路障桶撞上施工車險些側翻。3月20日,高速交警高密大隊接到報警稱,駕駛員駕車行駛至青銀高速青島方向84公里處發生事故。經調查,該車駕駛員開啟了車輛的智駕功能,而車輛智能駕駛功能對于錐桶的識別能力較弱,同時該駕駛員分心駕駛,疏于觀察路面,致使該車輛行駛至該施工路段時撞上施工單位的錐桶。
中國電動汽車百人會副秘書長師建華表示,2024年L2級輔助駕駛滲透率超過了55%,NOA滲透率達到11%,消費者對汽車智能化的需求不僅是“有沒有”,而轉向了“好不好用”的階段。從未來看,端到端的智能駕駛(城市NOA)也會加速普及,預計今年滲透率將達到20%。
智能駕駛的萌芽可以追溯到1920年代,但商業化始于特斯拉,其于2014年推出了Autopilot系統,這是首款量產車搭載的L2級智能駕駛系統。
智駕系統首先是通過多種傳感器實時收集周圍環境信息,一般包括激光雷達、毫米級光波雷達、可見光攝像機、加速度傳感器等,以獲取車輛周圍的圖像、聲音、深度和距離等信息。
基于環境感知結果,智駕系統運用高級算法進行路徑規劃,并在不同情境下做出決策,這些決策包括但不限于避障、遵守交通規則、變換車道、停車或加速等,并最終轉化為具體的車輛動作指令,通過電子控制系統,發送給汽車的動力系統、制動系統、轉向系統等,從而完成智能駕駛輔助。
輔助駕駛商業化至今時間并不長,雖然它正成為很重要的競爭力,但不可否認的是,其智能化程度距離人們的期望還有較大差距,效率與安全的天平仍難平衡,這也是全球各國政策對輔助駕駛仍持保守態度的重要原因。
智能駕駛的灰區和死角
當智駕技術被車企賦予“完美”的光環,人們往往會忽略技術的本質仍然只是操作工具。目前,智駕技術存在的主要局限包括算法局限、感知局限以及人機交互的響應時差等問題?。這些局限導致了智駕系統在復雜場景下的表現不如預期,甚至可能引發安全事故。
首先,算法缺陷?是智駕系統面臨的一個重要問題。當前大多數智駕系統仍處于L2-L3級別的輔助駕駛階段,主要依賴高精地圖和固定規則進行決策,對于臨時施工、極端天氣等動態場景的處理能力有限。
此次交通事故正是由于施工修繕,自車道用路障封閉,車輛需改道至逆向車道,由于在施工改道場景下未能識別逆向車道的水泥隔離墩?,導致碰撞事故?。這類非常規路況的“長尾”場景正是當前L2級智駕的短板。
其次,?感知局限?也是一個顯著問題。智駕系統主要依賴攝像頭和雷達進行感知,但在復雜環境下可能無法準確識別障礙物。
目前,智駕環境感知的主要手段是純視覺算法或視覺+激光雷達。
純視覺算法將攝像頭作為主要硬件設備,相對激光雷達而言成本低廉,這使得搭載純視覺算法的智能駕駛方案在大規模應用時更具成本效益。視覺系統能夠捕捉到豐富的紋理、顏色等信息,對于識別交通標志、車道線、行人面部表情和車輛外觀等具有天然的優勢,可以為自動駕駛車輛提供大量的語義信息。
但是,純視覺算法受環境影響較大,在特定天氣條件下,如暴雨、濃霧、大雪、強光直射、反光等,圖像質量會嚴重下降,導致識別精度降低甚至失效,以及在出隧道、地下車庫等光線劇烈變化的場景下需要復雜的光學號處理,影響對道路和周圍物體的識別。
有數據顯示,智駕系統在雨霧天氣的障礙物識別準確率下降42%,AEB(自動緊急制動)響應距離縮短37%。
深度感知能力有限和對遮擋敏感也是純視覺的短板。當物體被部分遮擋時,純視覺算法可能無法準確識別整個物體,從而影響對場景的理解和判斷。
激光雷達是一種用于精確獲得三維位置信息的傳感器,通過發射和接收激光束,獲 取空間的位置點信息(即點云),并根據這些信息進行三維建模,可以確定目標的位置、 大小、外部輪廓等。
它與其它傳感器互為補充,可以很好地彌補純視覺方案下的缺點,直接獲取三維信息,同時純視覺方案仍具有瓶頸,且需要大量數據積累和處理,以及強大的算力算法支持,激光雷達則可以大幅提升車輛對于周圍環境感知的準確度,降低高等級智能駕駛對算法的要求,是智能駕駛融合感知方案不可缺少的一環。
不過,常規激光雷達在側向感知方面仍然存在不足。以常規激光雷達水平視場角為120°計算,相鄰車道車輛超車切入在車頭超過3.5m時才能探測到,極易發生剮蹭。
其次,激光雷達對低矮物的探測感知不足,由于主激光雷達垂直視場角的限制,存在著前向3m~7m的視覺盲區,對于側面矮小障礙物和移動物體,智駕系統無法感知。此外,激光雷達對道路周邊靜態物識別不足,在車道線模糊的路段,容易規劃出波動較大的軌跡線,影響駕駛體驗。
此次事故中的車型采用雙目純視覺智駕方案,目前業界主流的雙目視覺智駕方案最大可探測距離約在200米左右,顯著低于三目攝像頭視覺方案(約300米-350米)或激光雷達(約250米-500米)的有效探測距離,這也導致事故中從智駕報警提示駕駛員接管到車輛僅有短短2秒。
異形障礙物識別缺陷也是智駕的一大挑戰。對于臨時路障、水馬、消防栓等非標準物體的識別,智駕系統容易存在盲區。純視覺方案依賴圖像語義分割,對不規則物體的特征提取存在誤差;而多傳感器融合則可能因數據時空對齊問題導致誤判。
?人機交互的響應時差?也是一個重要問題。德國全德汽車俱樂部的測試結果表明,駕駛員平均需2.3 秒才能完成有效接管,高速公路場景下這一時間甚至延長至2.6秒。不同駕駛人員情況也不相同,部分駕駛員可能因疲勞、分心或注意力不集中而導致接管延遲。
清華大學車輛學院教授李升波也指出,駕駛員從“感知異?!钡健巴瓿赊D向+制動”的平均反應時間為2.6秒,而當前主流L2級自動駕駛在突發場景下留給用戶的接管時間僅有1.5秒-2秒。
現在有針對L3級自動駕駛的TTC(碰撞時間,計算車輛與前方障礙物發生碰撞所需的時間)國際標準,要求智駕系統從發出預警到駕駛員成功接管應有10秒的TTC時間。但對于L2+輔助駕駛沒有強制性要求。
不過,要在高速場景實現10秒的TTC時間相當困難,這意味著智駕系統需要提前10秒就檢測到障礙物并告知駕駛人,十分考驗車企的感知能力。假如時速達到100km/h以上,智駕系統要提前300到400米識別到障礙物才能滿足要求,目前只有高線束激光雷達能實現300米以上的探測距離,普通乘用車一般不會搭載。
同時,田豐指出,目前大多數車企的智駕系統都未能達標——以120km/小時的時速計算,僅依賴毫米波雷達的系統從識別到剎停的理論極限時間僅6秒,存在4秒的安全缺口。
從智能駕駛主要的兩種技術路線看,一些技術缺陷目前仍然難以有效根除。
一種是“規則派”。汽車的感知、決策、執行都依賴人類工程師預先編寫好的規則,這些規則存在于一行行代碼中,代碼數量會多達數十萬行。
這個流派的主要缺陷有兩種。一是會面臨無窮無盡的“長尾問題”。在現實環境中開車,會面對各種各樣的場景,就算模型中預設好了99.9%的規則,剩下的0.1%罕見場景還是無法合理應對,導致智駕仍有大量潛在風險。
二是代碼錯誤。人類工程師編寫代碼難免出錯,在幾十萬行的代碼中不可能沒有錯誤代碼,你不知道那些隱藏著的錯誤代碼什么時候會“爆雷”,引發車輛失控等嚴重后果。
另一個流派是Transformer。在過去5年中,Transformer深度學習構架徹底改變了人工智能。Transformer開啟了生成式AI新時代,現在那些備受推崇的AI模型和產品——聊天機器人ChatGPT、圖像生成工具Midjourney、視頻生成工具Sora等等,都是基于Transformer構建的。
在智能駕駛領域,視覺Transformer也公認是最有前途的研究方向,特斯拉2021年發布的FSD應用了Transformer架構,國內很多廠商也隨后加入這一賽道。
Transformer看上去前途無量,但也遠談不上完美。它效率更高,擴展性和通用性更好,但訓練模型需要消耗巨量的算力,特斯拉擁有的算力已經是其它車企的數倍,但這遠遠不夠,成為智能駕駛一道難以逾越的門檻。
另一個障礙是“黑盒問題”?;赥ransformer的模型都是“黑盒”,它們的內部運作過于復雜和不透明,人類無法準確理解它們的行為方式。這也就意味著,如果模型偶爾輸出了一個異常結果,人類也束手無策。
“黑盒問題”可能會讓ChatGPT說出一句不著四六的話,也可能讓Midjourney輸出一張古怪的圖像,你可以對這個結果付之一笑。但如果汽車智駕系統突然出現幽靈剎車、意外加速、錯誤轉向,誰能笑得出來?
Transformer也許能把汽車自動駕駛帶上金光大道,也許它也只是個過渡性技術,一切尚未明了。
這些現實技術缺陷折射出當前智駕落地的共性風險——系統和算法在99%常規場景表現穩定,卻在1%的邊緣場景突然失效,而這1%的系統誤判或功能失效可能導致100%的風險。
技術神話的祛魅與反思
為了強化智能駕駛的科技感,很多車企拋棄了國際標準中的級別宣傳,故意模糊或混淆了“智能駕駛”“自動駕駛”“輔助駕駛”的概念邊界,另辟蹊徑找到了諸如NOA(導航輔助駕駛)、NOP(領航輔助)、NGP(自動導航駕駛)、NCA(城市智能駕駛)等花樣繁多的智駕系統名稱。
更有甚者,不少車企為了彰顯自家品牌產品應對復雜路況的能力,創造了“車位到車位”“L2.999/L2++”等技術賣點營銷詞語,并刻意營造出“全程零接管”“解放雙手”等假象,以塑造品牌在智駕技術上的領先形象。
事實上,這類宣傳本質上是在規避智駕級別的嚴格定義。包括特斯拉FSD在內的諸多系統命名,實際上既不符合國際慣例,也不符合行業標準,本質上都是車企的市場營銷手段。
根據國際汽車工程師協會(SAE)的自動駕駛分級標準,L2級屬于“人機共駕、駕駛員全程主導”。也就是說,L2級系統借助全速自適應巡航、車道保持、自動泊車等功能輔助駕駛,但駕駛員需全程監控路況,雙手不能長時間離開方向盤,屬于部分自動駕駛。
而L3級是“系統主導,駕駛員有限脫離”。在特定環境(如封閉的高速公路)下,L3級系統可完全接管駕駛任務,不過一旦系統發出接管請求,駕駛員必須立即響應??梢?,L3級自動駕駛并非完全自動駕駛,而是“有條件的自動駕駛”,它與L2級的核心差異體現在駕駛任務的主導權上。
值得注意的是,在自動駕駛各級別中,L3正是車輛駕駛權變更的關鍵分水嶺。根據工信部《汽車駕駛自動化分級》,L3級僅允許在特定場景下由系統接管,駕駛員仍需隨時準備接管。北京等地通過立法明確,未配備駕駛員或安全員的L4級車輛,事故責任由車輛管理者承擔,但L3級仍以駕駛員為主責。
從人類駕駛到智能駕駛是一個漸進的過程,而我們現在正處于這個過渡期。這種過渡期的特殊性,導致了嚴重的認知錯位——技術尚未成熟,消費者卻誤以為已經實現;個別企業的突破,被誤解為行業的普遍水平。此次事故正是這種認知混亂的典型寫照。
對于智駕技術,各家車企只重點強調它的正面功能,而不談其邊界在哪里,以及在什么場景下不推薦使用智駕。比如這次事故,純視覺方案加上時間在半夜,還是高速上,這種情況下不太適合使用智駕,如果要用的話就要一直盯著前方,雙手也不能離開方向盤。但是對于普通消費者來講,可能并不知道這些使用細則。
值得注意的是,德上高速的道路修繕改道,并非突發狀況。倘若能將這類路側信息傳遞給車輛,讓車輛提前了解前方路況,而非等到傳感器探知后在緊迫環境下才做出反應,那么這類悲劇或可避免。
對于如何優化接管時間,當前智駕對于障礙物的響應速度一方面取決于更好的硬件(如更高清的攝像頭、更好的激光雷達)以及算法迭代,例如占用網絡等技術使用,從而提升對異形障礙物識別能力。
另一方面,探索物理AI、感知大模型、多傳感器融合等技術的綜合應用,以及有效的路側信息發送機制意義重大。通過將路側攝像頭、車載雷達、激光雷達等多種傳感器的數據進行整合,并對交通環境動態數據進行實時分析,從而提供更全面、更精準的交通環境感知,有助于車輛根據當前交通態勢做出合理決策。同時,通過把路障位置、作業改道等信息上傳至云端平臺,并推送至車輛,實現車輛、路側與云端的三端聯動,可以大幅降低交通事故發生概率 。
過去9年間,隨著智駕技術越來越先進,不僅能夠適應更多路況,也能夠展現出更類似于真人的駕駛能力。但我們要清楚的是,智駕系統只是看到了龐雜交通體系中的“局部真相”,難以覆蓋所有長尾場景,不時也會發生誤判、失效等風險。作為一個理性駕駛者,應該懂得如何把握技術便利性與安全性之間的尺度。
這場悲劇讓人想起《流浪地球》里的一句臺詞:“沒有人類的文明毫無意義”。如今,再回看王傳福的那句:“安全是電動車最大的豪華,智駕是安全出行最強的守護”,或許有了更多的意味。汽車的根本屬性是交通工具,把乘客安全送達目的地是終極目標。當安全這個“1”蕩然無存,后面再智能的系統也將變得毫無價值。
真正的智能駕駛革命,不在于參數競賽與資本游戲,而在于對生命的敬畏,唯有將生命權置于技術敘事之上,智駕才能真正從營銷噱頭進化為社會福祉。否則,每一次事故,都在擊穿公眾對智駕的信任底線,最終將演變成壓垮行業的最后一根稻草。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.