美國汽車安全監管機構又對特斯拉展開了調查,這次是針對FSD。
當地時間10月19日,美國國家公路交通安全管理局(NHTSA)公開的文件顯示,該機構已經正式對特斯拉FSD(Full-Self Driving,完全自動駕駛)啟動調查。
NHTSA表示,在接到四起事故報告(包括2023年的一起致命事故)后,他們決定展開調查?!?strong>這些事故發生時,道路能見度都較低(如陽光刺眼、起霧或空中揚塵),且FSD系統都處于運行模式?!?/p>
因此,NHTSA缺陷調查辦公室(ODI)將評估FSD的工程控制檢測和適當應對道路能見度降低情況的能力。此次調查涉及約241萬輛汽車,包括2016-2024年款Model X(參數丨圖片)、Model S;2017-2024年款Model 3;2020-2024年款Model Y等。
NHTSA正式對特斯拉FSD啟動調查
在這次調查之前,NHTSA已經與特斯拉的駕駛輔助系統Autopilot“糾纏”了多年。今年4月,在對特斯拉進行了長達三年的調查后,NHTSA剛剛宣布,特斯拉Autopilot存在關鍵安全缺口,并進行新一輪的調查。
在特斯拉想要推廣“自動駕駛”的路上,NHTSA始終“伴”其左右。
01
ODI已對特斯拉FSD進行了初步評估
FSD是特斯拉完全自動駕駛系統的簡稱,于2020年推出,目前處于測試版階段,部分用戶可以參與特斯拉的“FSD Beta計劃”,該計劃允許有限的用戶在實際駕駛中使用FSD功能,但駕駛員需要始終保持對車輛的控制和注意力。
根據特斯拉的描述,該系統通過車載攝像頭、傳感器陣列等設備實現對周圍環境的實時解析、道路與障礙物的精準識別,以及路徑規劃和行駛決策。最終目標是實現車輛在沒有人為干預的情況下,自主識別路況、規劃路線、控制速度和方向,完成從起點到終點的行駛。
馬斯克乘坐Cybercab入場
而就在不久前的10月11日,在特斯拉“WE,ROBOT”發布會上,特斯拉創始人馬斯克剛剛表示,Model 3以及Model Y的無人駕駛技術會大幅提升,將實現無人駕駛的完全自動駕駛技術,預計在明年,所有新車型將在加利福尼亞州和德克薩斯州上路,并配備無人監督的全自動駕駛軟件。
馬斯克對FSD的自動駕駛水平表現出了高度自信,并表示FSD的安全水平可以超過人類駕駛十倍左右。
但顯然,NHTSA對其并不認可,至少目前還不認可。
NHTSA的缺陷調查辦公室發現了四起交通事故報告,這些案例都是特斯拉車輛在啟用FSD功能后發生的事故。事故中,特斯拉汽車在道路能見度降低的情況下未能有效應對環境,導致了碰撞事故的發生。
其中一起事故甚至造成了人員死亡。2023年11月,一名行人在美國亞利桑那州被一輛2021款特斯拉Model Y撞死。
這不是唯一的一起涉及FSD技術的致死事故。今年4月,在美國西雅圖地區,一輛特斯拉Model S汽車在FSD模式下撞死了一名28歲的摩托車手。
據悉,ODI已經對特斯拉FSD進行了初步評估,并將評估該技術在道路能見度降低的情況下進行檢測和適當響應的能力。
今年以來,特斯拉在全球銷量表現疲軟,馬斯克正試圖通過自動駕駛技術和Robotaxi來獲得市場進一步認可,如果一旦被認為FSD存在風險,無論是對其技術的推進,還是市場價值都會有比較大的負面影響。
02
NHTSA認為特斯拉Autopilot有安全缺口
這不是NHTSA第一次對特斯拉智能駕駛進行調查。
正如開頭所言,NHTSA曾對特斯拉Autopilot進行過調查。
特斯拉Autopilot是L2級別自動駕駛,在車輛智駕時需要駕駛員“始終監控交通環境”,并隨時準備接管控制權。由于產品的名字里有自動(Auto)一詞,使得不少特斯拉駕駛員認為這車能“自動”開。
2021年8月中旬,NHTSA對外表示,已經對特斯拉的自動輔助駕駛系統啟動正式調查。調查涉及大約76.5萬輛特斯拉Model Y、Model X、Model S、Model 3車輛。NHTSA稱,這一問題此前已引發11起事故或火災,導致17人受傷和1人死亡。
2021年8月一輛特斯拉Model 3在奧蘭多撞上佛羅里達州公路巡邏車
同年,8月底,隨著美國佛羅里達州奧蘭多市“第12起事故”的發生,NHTSA又給特斯拉發送了一封長達11頁的信件,要求其給出所有車輛信息,并具體闡述自動駕駛模式下車輛如何應對緊急事故。
據 NHTSA 稱,在這11 起事故中,特斯拉汽車均啟用了自動駕駛儀或交通感知巡航控制系統。大多數事件發生在天黑后,涉及急救人員燈光、照明彈、發光箭頭板或路錐。
它希望弄清楚,Autopilot缺陷或設計問題是否與一系列撞車事故有關,甚至是直接原因。
然而當時特斯拉并沒有給出相應回應,反而于2021年9月通過無線軟件更新方式向客戶推送了“應急燈檢測更新”。
緊接著,當年10月中旬,NHTSA在官網又發布“致特斯拉的一封信”,要求其就上述采取的行動提供更多信息。
有意思的是,信件發布后不久,特斯拉沒有回應置評請求,反而在Twitter上發文表示:“安全將通過無線更新繼續提高?!?/p>
與此同時,圍繞11起事故展開的PE21020升級成了正式的EA22002號工程分析(engineering analysis)。
NHTS認為,“關鍵安全缺口”造成467起事故
雙方的“拉鋸戰”一直持續到今年4月底,算是階段性的結束。NHTSA宣布,調查結果顯示,在涉及的956起事故中,“關鍵安全缺口”造成了467起事故。
其中,在211起事故中,特斯拉車輛在有足夠反應時間的情況下,正面撞上其他車輛或障礙物;另外還有256起事故與駕駛員誤操作Autosteer(自動轉向)系統,或該系統在雨天等低摩擦力環境下被錯誤激活有關。
與車企強調“沒有輔助駕駛馬路上也會有大量致死事故”不同,NHTSA的視角則是這些系統的設計,是否會造成駕駛員“過分自信”,從而導致一系列本可以避免的事故。
在NHTSA看來,目前自動駕駛系統的發展水平,并不值得人類完全的信任,而特斯拉的設計可能導致“可預見的錯誤使用和可避免的碰撞”。
盡管此次探查結束,但NHTSA透露,它正在啟動一項新調查,以評估特斯拉去年12月對超過200萬輛汽車實施的召回修復,是否確實足以解決圍繞其Autopilot駕駛員輔助系統的安全問題。
實際上,去年10月,特斯拉也曾表示,美國司法部發出了與其FSD和Autopilot系統相關的傳票。
03
純視覺或是多起事故的“元兇”
無論是特斯拉的Autopilot,還是FSD,采用的都是純視覺方案,有業內人士認為,純視覺在光照條件不好的時候,比如逆光、黑夜、大霧或者是攝像頭遭到遮擋,會出現感知能力下降的問題,導致事故的發生。
今年7月底,《華爾街日報》也曾發布一段針對特斯拉Autopilot事故的深度調查視頻,通過對這些視頻的逐幀解讀以及向專家咨詢,認為特斯拉的自動駕駛系統導致的碰撞和特斯拉的純視覺方案有關。
視頻中特斯拉與側翻卡車發生事故
《華爾街日報》指出,在一些情況下,特斯拉的Autopilot系統在面對障礙物時表現不佳,并暗示該系統在啟用時,車輛可能會偏離道路。“這些事故中,不少案例顯示特斯拉車輛在使用Autopilot時撞上了已經亮起警示燈的緊急車輛”。
它認為,這些事故中的細節似乎被隱藏了起來,特斯拉和NHTSA都未公開一些關鍵信息,包括“事故描述”以及事件發生的具體日期等細節。原因是特斯拉認為,這些數據是專有的,因此大部分數據對公眾隱藏。
報道采訪了2022年因發布特斯拉Autopilot功能失效視頻而被特斯拉解雇的約翰·貝納爾,后者發現一些特斯拉車型上使用的攝像頭沒有正確校準,導致不同的攝像頭識別到的東西不一樣。而當不同攝像頭識別到的東西不一樣時,Autopilot就可能在識別障礙物上出現問題。
《華爾街日報》從一名匿名黑客那里獲得了一組罕見的特斯拉因使用Autopilot功能導致撞車事故原始數據,而數據驗證了約翰·貝納爾的說法。
《華爾街日報》從匿名黑客處獲得事故原始數據
當一輛被撞壞的車出現在路上時,特斯拉Autopilot系統中的其中一個攝像頭識別到了它,但另一個攝像頭沒有識別。然后,隨著障礙物越來越近,特斯拉Autopilot系統沒有做出動作,全速撞了上去。
今年以來,伴隨著體驗的升級,特斯拉FSD在北美已經開始廣泛推送,甚至傳出即將落地中國。
盡管最新消息顯示,據《中國日報》報道,中國政府支持其在遵循現有法律法規的前提下,先行先試部分FSD功能,但FSD入華尚未得到監管部門批準,相關評估工作還在進行中。
但顯然,特斯拉FSD入華是遲早的事情。在新技術落地上車,涉及人身安全的時刻,有NHTSA對特斯拉不斷敲打,也不失為一件幸事。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.