我原來在海軍航空兵戰機機械和質控等崗位干了十年,各種莫名其妙的故障都見過,也參與了大小幾百起故障的研究和排除。
小米SU7事故本質上就是一個事故,但是事故并不一定是故障引起的。
我是蔚來車主,24年8月份駕駛蔚來在西北旅游,夜間開啟智能駕駛,車輛忽然向鄰道大車靠攏,緊急接管,十秒鐘逃出生天,老婆孩子都在車上,嚇出一身冷汗。
我自己事后反復分析,應該是在這個高速路段出現了雙白線,地上同時出現了新舊白線,車輛只能識別白線,無法判斷哪個是有效的,為了在領航階段下保持車道居中,所以出現了方向擺動。
我當時和蔚來出現了較大的爭議,事情最后不了了之,這是我的訴求和疑問:
蔚來別覺得自己冤枉,蔚來的領航狀態及車道居中非常依賴車道線,是不是?在路上開車,兩車道變三車道的時候,你們的車會不會往中間鉆,有沒有測試過?高速路段有車道線的跳躍、缺失,你們怎么處理?城區道路的車道線更是復雜,有的就看不見了,有的打成一團了,有的交叉了,你們怎么處理?
我們現在看小米事故:
根據小米公開的車輛信息,事發前車輛處于NOA智能輔助駕駛狀態,以116km/h時速持續行駛。22時44分24秒(夜間),車輛發出風險提示“請注意前方有障礙”并請求減速;1秒鐘后(緊急接手),作為司機的羅某接管車輛,踩下剎車,向左打方向盤22.0625度;在接下來的1—3秒之間,車輛撞上了水泥護欄。碰撞前,系統最后可以確認的時速約為97km/h。車輛隨后開始燃燒。
作為從智駕智障中死里逃生的一個車主以及前飛機機械師,我個人的一個判斷:除非經過專業培訓,普通人無法在極短時間內逃避本次事故,無非是不同處置下的后果不一樣罷了。
1、智能駕駛是一個統稱,有不同的等級,核心差異在于對系統責任和適用場景的界定。
L2:輔助駕駛。
L3(有條件自動駕駛):系統在特定條件下全權控制,但需駕駛員響應接管請求。
L4(高度自動駕駛):限定區域內完全自主,責任歸屬廠商(如小鵬XNGP)。
L5(完全自動駕駛):目前處于研發階段。
L3以下(含L3):駕駛員始終為最終責任人。但是在L3存在接管悖論,系統請求接管時,人類可能因分心無法及時反應。
L4及以上:廠商承擔主要責任(限定場景內)。
當前絕大多數商用車都是L2,問題是絕大多數車企過分宣傳了自己的智能駕駛,甚至存在有意誤導。如圖是一個視頻的截圖,全車的人都在睡覺,注意司機的姿勢,如果出現類似小米SU7事故,絕對來不及任何有效操作。
2、海恩法則
海恩法則是德國飛機渦輪機發明者帕布斯·海恩提出的航空安全法則,核心觀點是:每一起嚴重事故背后,必然有29次輕微事故、300起未遂先兆和1000起事故隱患。其精髓在于強調事故是量的積累結果,即使技術再完美、規章再完善,也無法替代人的素質和責任心。
3、墨菲定律
墨菲定律常被表述為:“任何可能出錯的事情最終都會出錯”,其內涵強調事故的必然性,即只要存在風險,即使概率極低,事故也遲早會發生。
對于事故管控來說,三分技術,七分管理,這里的七分就是人的作用,不能說發生了事故就認為技術不行,我們可以看看具體的指標比較:
如果是人在開車,百萬公里的事故是多少次數,嚴重事故的占比是多少。
如果是智能駕駛,百萬公里的事故是多少次數,嚴重事故的占比是多少。
如果人機共駕,百萬公里的事故是多少次數,嚴重事故的占比是多少。
4、責任劃分
事故的發生是多因素共同造成的,比如我死里逃生的那次,就是因為夜間+道路標線不規范,這次小米SU7事故,同樣是夜間+路況復雜。
如果一切正常,就不會有事故,但是真實的世界,一定會出現“不正常”因素,而系統在設計和訓練的時候只能做優化,不可能做到完美應對一切意外,否則意外就不再是意外了。
現在的中國新能源汽車技術進步非???,但是心態非常浮躁,出事故也是預期之內的,當然也可以說我是在裝。
前面說了我用蔚來智能駕駛的案例是為了提醒大家,道路上面總是會出現各種汽車廠家想不到的意外因素,大家注意安全,并不是抹黑蔚來,這里說明一下還是挺喜歡蔚來的,原因有兩個:
第一、蔚來的車用料扎實,最壞情況下安全系數較高。
第二、蔚來的產品設計、宣傳以及智能駕駛的應用方面,我能感覺到對安全邊際要求比較高。
如果再買車,我大概率還是會選擇蔚來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.