点击关注不迷路
最近,一条新闻刷屏了:美国国家公路交通安全管理局(NHTSA)宣布,将对288万辆配备“完全自动驾驶”系统的特斯拉汽车展开调查。
原因听起来有点吓人,这些车在启用FSD(Full Self-Driving,即“完全自动驾驶”)功能后,出现了闯红灯、逆行变道、甚至在铁路道口附近行为异常的情况。截至目前,已有58起相关报告,其中14起导致碰撞,23人受伤。
消息一出,特斯拉股价应声下跌,舆论也迅速分化。
有人觉得这是监管机构对新技术的过度干预,也有人认为早就该查了。
毕竟,一辆车在红灯前不停车,光靠一句“驾驶员要随时接管”显然不够说服力。
这事到底怎么看?
咱们今天就掰开了、揉碎了,用大白话聊聊这场风波背后的真实逻辑。
先说一个基本事实:特斯拉的FSD,其实并不“完全自动驾驶”。
很多人被名字误导了。FSD虽然叫“完全自动驾驶”,但官方说明里写得清清楚楚:
它仍然属于“高级辅助驾驶”范畴,驾驶员必须全程保持注意力,随时准备接管车辆。
换句话说,它不是无人驾驶,而是“帮你开车,但你不能睡觉”的那种系统。
可问题恰恰出在这里——名字太唬人,体验又太流畅。
当你坐在一辆Model 3里,看着方向盘自己转动、车辆自动变道、识别限速牌、甚至在复杂路口转弯,你会不由自主地放松警惕。
尤其是系统连续几天、几十次都表现得很“聪明”,人就会产生一种错觉:
它已经足够可靠了。
这种心理,心理学上叫“自动化信任偏差”:
越顺手的东西,越容易让人掉以轻心。
而特斯拉的FSD,恰恰在某些极端场景下“翻车”了。
比如红灯识别。
有车主反馈,车辆在接近红灯路口时,系统没有减速,反而加速通过;
还有案例显示,车子在左转时误判对向车道为空,直接驶入逆向车道。
更离谱的是,有车辆在铁路道口附近出现异常行为:
要知道,铁路道口一旦出事,后果往往极其严重。
NHTSA这次调查的重点,正是这些“违反交通法规的行为”。
他们不是反对技术,而是质疑:
这套系统在真实道路环境中,是否真的安全可控?
是否对公共安全构成了潜在风险?
这已经不是第一次了。
就在2024年10月,NHTSA就曾对约240万辆特斯拉展开过类似调查,原因是FSD在雾天或低能见度条件下未能正确应对,导致多起碰撞。
如今不到一年,又一轮更大规模的调查启动,说明问题可能比想象中更普遍。
值得注意的是,这次调查覆盖的车辆数量高达288万辆——几乎涵盖了近年来所有搭载FSD软件的特斯拉车型。
这意味着,这不是个别车辆的偶发故障,而是系统性风险的集中暴露。
那么,特斯拉有没有责任?
从法律角度看,特斯拉一直在免责声明里强调“驾驶员需全程监控”。
但现实中,很多用户确实把FSD当成了“代驾”。
更有甚者,在社交媒体上直播“双手离开方向盘穿越城市”,这种行为不仅危险,还可能误导更多人。
更关键的是,有报告指出,部分车主曾向特斯拉反馈FSD在红灯识别上的问题,但公司“没有解决问题,甚至不承认存在问题”。
如果属实,这就不是技术局限的问题,而是企业对安全风险的态度问题。
当然,我们也不能一棍子打死特斯拉。
客观来说,特斯拉在电动车和智能驾驶领域的探索,确实推动了整个行业的发展。
它的电池技术、充电网络、软件迭代速度,都是实打实的领先。
而且,特斯拉自己发布的安全数据显示,在启用Autopilot的情况下,每百万英里的事故率低于人类驾驶平均水平。
但数据是一回事,现实是另一回事。
统计数据可以掩盖个体悲剧。
哪怕事故率只有0.01%,一旦发生在你身上,就是100%的灾难。
监管机构的职责,不是看平均值,而是防止任何一起本可避免的伤亡。
这次调查还有一个背景不容忽视:
特斯拉正全力推动“无人出租车”(Robotaxi)的落地。
马斯克多次公开表示,将在2025年推出无需人类干预的自动驾驶出租车服务。
而NHTSA的调查,某种程度上是在给这种激进路线“踩刹车”:
在基础功能尚未完全可靠之前,贸然推进更高阶的无人化,风险太大。
不止美国,全球都在收紧对自动驾驶的监管。
今年9月,韩国交通运输部也启动了对特斯拉Model 3的安全性能调查。
虽然官方未说明具体原因,但有分析认为,这与特斯拉在韩国市场份额快速上升、挤压本土车企有关。
更早之前,德国法院甚至裁定特斯拉不得在广告中暗示Autopilot具备“完全自动驾驶”能力,认为这属于误导消费者。
这些动作传递出一个清晰信号:
各国监管机构正在从“鼓励创新”转向“审慎监管”。
技术可以快,但安全不能让步。
回到普通消费者身上,这件事给我们什么启示?
第一,别被名字忽悠。
FSD不是“无人驾驶”,它只是辅助工具。就像你用导航软件,它可能带你走错路,但最终决定权在你手里。
第二,再信任系统,也要保持警惕。
哪怕系统连续100次都做对了,第101次也可能出错。
开车不是玩游戏,没有“重来”按钮。
第三,关注官方通报,别轻信网红演示。
社交媒体上那些“FSD全程无干预”的视频,往往经过剪辑或发生在特定路段,不具备普遍参考价值。
最后,我们也要理解监管的难处。
自动驾驶技术发展太快,法律和标准却跟不上。NHTSA这样的机构,既不能扼杀创新,又必须守住安全底线。
他们的调查,不是要“搞垮”特斯拉,而是希望整个行业在狂奔的同时,别忘了系好安全带。
说到底,技术的本质是为人服务。
如果一项技术让人更焦虑、更危险,那它再先进也没意义。
特斯拉的FSD或许代表了未来的方向,但通往未来的路上,不能拿公众安全当试验品。
这次288万辆车的调查,或许会成为智能驾驶发展史上的一个转折点。
它提醒所有车企:在追求“更聪明”的同时,别忘了“更可靠”才是根本。
而对于我们普通人来说,最好的自动驾驶,永远是你自己清醒的大脑和握紧方向盘的双手。
(全文完)
全部评论 (0)