288萬輛特斯拉被查!“全自動駕駛”再陷安全風暴:紅燈照闖、逆行上路?
- Emma Thompson
- Oct 11
- 3 min read
Updated: Oct 27
新聞來源自 “洛杉磯華人資訊網”
據路透社10月9日報道 特斯拉的“全自動駕駛”(Full Self-Driving,簡稱FSD)系統再次成為輿論焦點。美國國家公路交通安全管理局(NHTSA)近日表示,對288萬輛配備FSD系統的特斯拉車輛展開調查,原因是系統被指“違反交通法規、引發事故與傷害”。

多起事故與違規報告引發監管警示
據NHTSA發布的公告,該機構已收到超過50份關於FSD系統異常行為的正式報告,內容涉及車輛在紅燈狀態繼續行駛、逆向行駛、未禮讓行人等違法操作。這些異常行為已造成至少14起交通事故,並導致23人受傷。
監管方指出,這些事件表明FSD系統“在識別復雜交通場景與執行交通規則時存在嚴重漏洞”。調查範圍包括特斯拉的Model 3、Model Y、Model S 和 Model X等主力車型。一名NHTSA發言人在聲明中強調:“我們不反對自動駕駛技術,但當技術威脅到公眾安全時,監管部門有義務介入。”
“全自動駕駛”≠無人駕駛?FSD命名再惹爭議
FSD一直是特斯拉最具爭議的賣點之一。該系統被宣傳為“全自動駕駛”,但實際上仍處於L2級別駕駛輔助階段——意味著駕駛員必須始終保持注意,隨時准備接管車輛控製。NHTSA指出,系統名稱可能誤導駕駛員,讓他們誤以為車輛已具備完全自主駕駛能力,從而過度依賴系統、減少注意力。
事實上,監管機構早在2022年和2023年就多次要求特斯拉在廣告和系統說明中“明確其自動化等級”。然而,特斯拉CEO埃隆·馬斯克(Elon Musk)多次表示,FSD“比人類駕駛更安全”,並計劃在未來實現真正的無人駕駛。這一表態進一步加劇了公眾與專家間的分歧。

系統缺陷:紅燈照闖、逆行轉彎、識別錯誤頻發
根據NHTSA收集的案例,一些FSD車輛在復雜交叉路口中表現異常——
在紅燈狀態下繼續行駛;
左轉時進入錯誤車道或逆行;
無法識別限速或行人過街信號;
遇到警車、救護車時反應遲緩或停頓過久。
監管方稱,這些問題表明FSD在實際道路環境中的算法穩定性不足,尤其在多變量交通信號下“存在決策延遲與邏輯混亂”。更引人關注的是,部分用戶在車禍發生前,系統並未發出任何接管提示。這意味著,駕駛員在毫無預警的情況下,可能無法及時糾正車輛行為。
調查規模:覆蓋全美288萬輛車,或成史上最大FSD審查
此次調查規模空前,涵蓋了自FSD推出以來幾乎所有已激活該功能的車輛,總計約288萬輛。NHTSA表示,將對FSD系統的信號識別、自動製動、路徑規劃和駕駛員監督機製進行全面技術審查。調查結果可能影響特斯拉未來的軟件更新批准,甚至引發召回。
業內分析認為,這將是美國自動駕駛監管史上規模最大、影響最廣的一次系統性調查。一旦確認存在普遍安全隱患,特斯拉可能面臨強製軟件召回或高額罰款。
特斯拉回應:軟件可更新,“數據證明更安全”
面對質疑,特斯拉在一份簡短聲明中回應稱,FSD系統“仍在持續改進”,並強調“真實世界數據表明,使用FSD輔助駕駛的車輛事故率低於人工駕駛”。特斯拉同時表示,將配合NHTSA調查,並通過OTA(Over-the-Air)遠程更新的方式修復潛在問題。
然而,這一“軟件可修復論”並未平息外界擔憂。許多安全專家指出,FSD的根本問題並非代碼漏洞,而是“算法責任模糊”——當系統作出錯誤決策時,駕駛員與企業之間的法律責任界限依然不清。
目前多個州政府已在考慮修改交通法規,以明確自動駕駛責任認定與事故報告機製。NHTSA表示,未來幾個月內將公布更多與自動駕駛系統安全標准相關的新規。
轉載於洛杉磯華人資訊網,轉載請註明來源,切勿侵犯。
2025/10/12 下午 12:35



