美国将调查288万辆特斯拉汽车,啥情况?

点击关注不迷路

美国将调查288万辆特斯拉汽车,啥情况?-有驾

最近,一条新闻刷屏了:美国国家公路交通安全管理局(NHTSA)宣布,将对288万辆配备“完全自动驾驶”系统的特斯拉汽车展开调查。

原因听起来有点吓人,这些车在启用FSD(Full Self-Driving,即“完全自动驾驶”)功能后,出现了闯红灯、逆行变道、甚至在铁路道口附近行为异常的情况。截至目前,已有58起相关报告,其中14起导致碰撞,23人受伤。

消息一出,特斯拉股价应声下跌,舆论也迅速分化。

有人觉得这是监管机构对新技术的过度干预,也有人认为早就该查了。

毕竟,一辆车在红灯前不停车,光靠一句“驾驶员要随时接管”显然不够说服力。

这事到底怎么看?

咱们今天就掰开了、揉碎了,用大白话聊聊这场风波背后的真实逻辑。

先说一个基本事实:特斯拉的FSD,其实并不“完全自动驾驶”。

很多人被名字误导了。FSD虽然叫“完全自动驾驶”,但官方说明里写得清清楚楚:

它仍然属于“高级辅助驾驶”范畴,驾驶员必须全程保持注意力,随时准备接管车辆。

换句话说,它不是无人驾驶,而是“帮你开车,但你不能睡觉”的那种系统。

可问题恰恰出在这里——名字太唬人,体验又太流畅。

当你坐在一辆Model 3里,看着方向盘自己转动、车辆自动变道、识别限速牌、甚至在复杂路口转弯,你会不由自主地放松警惕。

尤其是系统连续几天、几十次都表现得很“聪明”,人就会产生一种错觉:

它已经足够可靠了。

这种心理,心理学上叫“自动化信任偏差”:

越顺手的东西,越容易让人掉以轻心。

而特斯拉的FSD,恰恰在某些极端场景下“翻车”了。

比如红灯识别。

有车主反馈,车辆在接近红灯路口时,系统没有减速,反而加速通过;

还有案例显示,车子在左转时误判对向车道为空,直接驶入逆向车道。

更离谱的是,有车辆在铁路道口附近出现异常行为:

要知道,铁路道口一旦出事,后果往往极其严重。

NHTSA这次调查的重点,正是这些“违反交通法规的行为”。

他们不是反对技术,而是质疑:

这套系统在真实道路环境中,是否真的安全可控?

是否对公共安全构成了潜在风险?

这已经不是第一次了。

就在2024年10月,NHTSA就曾对约240万辆特斯拉展开过类似调查,原因是FSD在雾天或低能见度条件下未能正确应对,导致多起碰撞。

如今不到一年,又一轮更大规模的调查启动,说明问题可能比想象中更普遍。

值得注意的是,这次调查覆盖的车辆数量高达288万辆——几乎涵盖了近年来所有搭载FSD软件的特斯拉车型。

这意味着,这不是个别车辆的偶发故障,而是系统性风险的集中暴露。

那么,特斯拉有没有责任?

从法律角度看,特斯拉一直在免责声明里强调“驾驶员需全程监控”。

但现实中,很多用户确实把FSD当成了“代驾”。

更有甚者,在社交媒体上直播“双手离开方向盘穿越城市”,这种行为不仅危险,还可能误导更多人。

更关键的是,有报告指出,部分车主曾向特斯拉反馈FSD在红灯识别上的问题,但公司“没有解决问题,甚至不承认存在问题”。

如果属实,这就不是技术局限的问题,而是企业对安全风险的态度问题。

当然,我们也不能一棍子打死特斯拉。

客观来说,特斯拉在电动车和智能驾驶领域的探索,确实推动了整个行业的发展。

它的电池技术、充电网络、软件迭代速度,都是实打实的领先。

而且,特斯拉自己发布的安全数据显示,在启用Autopilot的情况下,每百万英里的事故率低于人类驾驶平均水平。

但数据是一回事,现实是另一回事。

统计数据可以掩盖个体悲剧。

哪怕事故率只有0.01%,一旦发生在你身上,就是100%的灾难。

监管机构的职责,不是看平均值,而是防止任何一起本可避免的伤亡。

这次调查还有一个背景不容忽视:

特斯拉正全力推动“无人出租车”(Robotaxi)的落地。

马斯克多次公开表示,将在2025年推出无需人类干预的自动驾驶出租车服务。

而NHTSA的调查,某种程度上是在给这种激进路线“踩刹车”:

在基础功能尚未完全可靠之前,贸然推进更高阶的无人化,风险太大。

不止美国,全球都在收紧对自动驾驶的监管。

今年9月,韩国交通运输部也启动了对特斯拉Model 3的安全性能调查。

虽然官方未说明具体原因,但有分析认为,这与特斯拉在韩国市场份额快速上升、挤压本土车企有关。

更早之前,德国法院甚至裁定特斯拉不得在广告中暗示Autopilot具备“完全自动驾驶”能力,认为这属于误导消费者。

这些动作传递出一个清晰信号:

各国监管机构正在从“鼓励创新”转向“审慎监管”。

技术可以快,但安全不能让步。

回到普通消费者身上,这件事给我们什么启示?

第一,别被名字忽悠。

FSD不是“无人驾驶”,它只是辅助工具。就像你用导航软件,它可能带你走错路,但最终决定权在你手里。

第二,再信任系统,也要保持警惕。

哪怕系统连续100次都做对了,第101次也可能出错。

开车不是玩游戏,没有“重来”按钮。

第三,关注官方通报,别轻信网红演示。

社交媒体上那些“FSD全程无干预”的视频,往往经过剪辑或发生在特定路段,不具备普遍参考价值。

最后,我们也要理解监管的难处。

自动驾驶技术发展太快,法律和标准却跟不上。NHTSA这样的机构,既不能扼杀创新,又必须守住安全底线。

他们的调查,不是要“搞垮”特斯拉,而是希望整个行业在狂奔的同时,别忘了系好安全带。

说到底,技术的本质是为人服务。

如果一项技术让人更焦虑、更危险,那它再先进也没意义。

特斯拉的FSD或许代表了未来的方向,但通往未来的路上,不能拿公众安全当试验品。

这次288万辆车的调查,或许会成为智能驾驶发展史上的一个转折点。

它提醒所有车企:在追求“更聪明”的同时,别忘了“更可靠”才是根本。

而对于我们普通人来说,最好的自动驾驶,永远是你自己清醒的大脑和握紧方向盘的双手。

(全文完)

0

全部评论 (0)

暂无评论