Notebookcheck Logo

被黑客入侵的特斯拉 FSD 计算机披露了令人震惊的自动驾驶致命事故原始数据

特斯拉 FSD 计算机系统板(图片来源:《华尔街日报)
特斯拉 FSD 计算机系统板(图片来源:《华尔街日报)
一项涉及拆解特斯拉 FSD 电脑并入侵其芯片以提取 Autopilot 原始数据的重大调查揭示了有问题的自动驾驶系统决策是如何导致致命事故的。
E-Mobility

虽然最新的特斯拉 FSD 12.5更新向公众推出的同时,两家主要商业刊物发布了关于特斯拉驾驶辅助系统的负面报道。

彭博社的报道引用了一位卖方分析师的传闻,他在给客户的一份说明中详细介绍了自己在特斯拉 FSD 演示驾驶中的体验。在一些特殊情况下,比如遵守交通警察的手势,他不得不进行了几次干预,但在一些更普通的情况下,他也不得不进行干预。

例如,特斯拉 Model Y 屡次越过不间断的车道标线,或者因为计算机误读了另一辆车右转只进行到一半的情况,而飞速驶入十字路口。不过,Model Y 使用的是 FSD 12.3.6,分析师确实注意到,与他们今年早些时候测试的前一版本相比,Model Y 有了一些明显的改进。

然而,另一篇关于特斯拉自动驾驶汽车野心的负面文章则提出了更为严重的指控,并充斥着独家证据。华尔街日报》的调查人员从报废的特斯拉中找到了 FSD 计算机,并将其交给黑客,以提取自动驾驶汽车的原始数据。

特斯拉将这些数据列为商业机密,因为这些数据显示了特斯拉的驾驶辅助算法是如何进行思考和做出反应的,因为这些算法完全依赖于对一些输入数据的解读。 特斯拉视觉摄像头的输入。

从原始自动驾驶决策数据中获取的信息随后与特斯拉汽车摄像头拍摄的事故录像进行了比对。华尔街日报》还将各州的报告与美国国家公路交通安全管理局(NHTSA)为自己的车祸调查而维护的联邦事故数据库进行了比对。 调查并成功重现了 222 起特斯拉车祸。

在其中的 44 起事故中,特斯拉自动驾驶汽车 "突然转向",而 31 起则发生在车辆 "未停车或让行 "的情况下。调查发现,后者导致的特斯拉自动驾驶汽车事故最为严重。

专家们在看过此类车祸的录像以及自动驾驶系统的算法工作方式后表示,需要时间来训练它应对道路上发生的一切。例如,其中一起致命事故就是因为没有识别到一辆翻倒的双挂车挡住了高速公路。

系统不知道这是什么东西,于是全速撞向拖车。自动驾驶汽车被紧急车辆的灯光迷惑的例子还有很多 紧急车辆并撞向它们的例子也很多。

总之,研究结果表明,自动驾驶特斯拉汽车撞车既有硬件方面的原因,也有软件方面的原因。提到的问题包括算法更新缓慢、摄像头校准不足等。不过,在这次自动驾驶数据泄露事件挑战埃隆-马斯克的主要假设--特斯拉的自动驾驶功能最终比人类驾驶员更安全--之前,可能还需要独立消息来源进行更深入的报道。

在亚马逊上购买带 24 英尺电缆的 80A 特斯拉第 2 代墙壁连接器

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 07 > 被黑客入侵的特斯拉 FSD 计算机披露了令人震惊的自动驾驶致命事故原始数据
Daniel Zlatev, 2024-07-30 (Update: 2024-09- 8)