特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

Dan O’Dowd 是嵌入式开发公司 Green Hills Software 的 CEO,他于去年发起了一项名为「The Dawn Project」的活动,旨在禁止安全系统中使用不安全软件,其中就包括对特斯拉自动驾驶软件的测试

为了模拟自动驾驶汽车在现实中遇到小朋友过马路时的反应,The Dawn Project 近日进行了一项新测试,结果表明配备 FSD Beta 10.12.2 自动驾驶软件的 Model 3 会撞上儿童的人形模型:

特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

测试中 Model 3 剧烈撞击模型,导致模型组件分离:

特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

项目组测试了 3 次,每次都撞到了人形模型。这似乎已不是偶然事件,说明 Model 3 的 FSD 系统存在安全隐患。

我们来看一下测试的具体过程。

测试过程

为了使测试环境更有利于特斯拉的 FSD 系统,除了车辆和人形模型之外,道路上可能影响测试的其他变量都被移除。

测试车道两侧放置了标准的交通锥,儿童大小的人形模型被放在测试跑道尽头的中间,就像小朋友要过马路一样。测试过程中,专业测试驾驶员首先将汽车的速度提高到每小时 40 英里。一旦车辆进入测试车道,就改为 FSD 模式,驾驶员不再操作方向盘,也没有踩油门或踩刹车等动作。

特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

Model 3 FSD Beta 10.12.2 在进入 FSD 模式时的初始速度为 40 英里 / 小时。3 次测试,Model 3 都撞到了前方的人形模型,碰撞发生时的速度如下表所示

特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

驾驶员的报告显示:特斯拉 Model 3 FSD Beta 10.12.2 在 FSD 模式下就像迷路了一样,速度减慢了一点,在撞倒人形模型后又重新加速,撞击时的速度约为 25 英里 / 小时。

这一结果与马斯克长期以来声称的 FSD 是安全的说法矛盾。马斯克曾在今年 1 月发推文称:「没有一起事故是特斯拉 FSD 造成的」,而事实并非如此。据《洛杉矶时报》报道,已经有数十名司机就涉及 FSD 的事故向美国国家公路交通安全管理局提交了安全投诉。

上个月,加州机动车管理局(DMV)还指控特斯拉对其 Autopilot 自动辅助驾驶和 FSD 功能进行了虚假宣传。

尽管 FSD 声称是完全自动驾驶,但实际上它只是作为一个可选的附加组件运行,主要功能是自动改变车道、进出高速公路、识别停车标志和交通信号灯以及停车。该软件仍处于 beta 测试阶段,但已有超过 10 万个购买用户,特斯拉通过这些用户实时测试该软件,并试图让该 AI 系统向经验丰富的驾驶员学习。

文章版权声明

 1 原创文章作者:3168,如若转载,请注明出处: https://www.52hwl.com/42450.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月15日 下午1:39
下一篇 2023年7月15日 下午1:39