288万辆特斯拉被查!“全自动驾驶”再陷安全风暴:红灯照闯、逆行上路?
- Emma Thompson
- 7 days ago
- 3 min read
新聞來源自 “洛杉磯華人資訊網”
据路透社10月9日报道 特斯拉的“全自动驾驶”(Full Self-Driving,简称FSD)系统再次成为舆论焦点。美国国家公路交通安全管理局(NHTSA)近日表示,对288万辆配备FSD系统的特斯拉车辆展开调查,原因是系统被指“违反交通法规、引发事故与伤害”。

多起事故与违规报告引发监管警示
据NHTSA发布的公告,该机构已收到超过50份关于FSD系统异常行为的正式报告,内容涉及车辆在红灯状态继续行驶、逆向行驶、未礼让行人等违法操作。这些异常行为已造成至少14起交通事故,并导致23人受伤。
监管方指出,这些事件表明FSD系统“在识别复杂交通场景与执行交通规则时存在严重漏洞”。调查范围包括特斯拉的Model 3、Model Y、Model S 和 Model X等主力车型。一名NHTSA发言人在声明中强调:“我们不反对自动驾驶技术,但当技术威胁到公众安全时,监管部门有义务介入。”
“全自动驾驶”≠无人驾驶?FSD命名再惹争议
FSD一直是特斯拉最具争议的卖点之一。该系统被宣传为“全自动驾驶”,但实际上仍处于L2级别驾驶辅助阶段——意味着驾驶员必须始终保持注意,随时准备接管车辆控制。NHTSA指出,系统名称可能误导驾驶员,让他们误以为车辆已具备完全自主驾驶能力,从而过度依赖系统、减少注意力。
事实上,监管机构早在2022年和2023年就多次要求特斯拉在广告和系统说明中“明确其自动化等级”。然而,特斯拉CEO埃隆·马斯克(Elon Musk)多次表示,FSD“比人类驾驶更安全”,并计划在未来实现真正的无人驾驶。这一表态进一步加剧了公众与专家间的分歧。

系统缺陷:红灯照闯、逆行转弯、识别错误频发
根据NHTSA收集的案例,一些FSD车辆在复杂交叉路口中表现异常——
在红灯状态下继续行驶;
左转时进入错误车道或逆行;
无法识别限速或行人过街信号;
遇到警车、救护车时反应迟缓或停顿过久。
监管方称,这些问题表明FSD在实际道路环境中的算法稳定性不足,尤其在多变量交通信号下“存在决策延迟与逻辑混乱”。更引人关注的是,部分用户在车祸发生前,系统并未发出任何接管提示。这意味着,驾驶员在毫无预警的情况下,可能无法及时纠正车辆行为。
调查规模:覆盖全美288万辆车,或成史上最大FSD审查
此次调查规模空前,涵盖了自FSD推出以来几乎所有已激活该功能的车辆,总计约288万辆。NHTSA表示,将对FSD系统的信号识别、自动制动、路径规划和驾驶员监督机制进行全面技术审查。调查结果可能影响特斯拉未来的软件更新批准,甚至引发召回。
业内分析认为,这将是美国自动驾驶监管史上规模最大、影响最广的一次系统性调查。一旦确认存在普遍安全隐患,特斯拉可能面临强制软件召回或高额罚款。
特斯拉回应:软件可更新,“数据证明更安全”
面对质疑,特斯拉在一份简短声明中回应称,FSD系统“仍在持续改进”,并强调“真实世界数据表明,使用FSD辅助驾驶的车辆事故率低于人工驾驶”。特斯拉同时表示,将配合NHTSA调查,并通过OTA(Over-the-Air)远程更新的方式修复潜在问题。
然而,这一“软件可修复论”并未平息外界担忧。许多安全专家指出,FSD的根本问题并非代码漏洞,而是“算法责任模糊”——当系统作出错误决策时,驾驶员与企业之间的法律责任界限依然不清。
目前多个州政府已在考虑修改交通法规,以明确自动驾驶责任认定与事故报告机制。NHTSA表示,未来几个月内将公布更多与自动驾驶系统安全标准相关的新规。
轉載於洛杉磯華人資訊網,轉載請註明來源,切勿侵犯。
2025/10/12 下午 12:35