【转】Tesla autopilot 引起致命车祸
Tesla autopilot 引起致命车祸
好一段时间没关心 Tesla 了,今天才发现他们的 autopilot 终于引起了致命的车祸。这场 Model S 撞上18轮大卡车的车祸,发生于5月7号,距今已经两个月了。 Tesla 把这事隐瞒了两个月之久,直到现在美国国家公路交通安全管理局(NHTSA)开始调查此事,才迫不得已公之于众。由于 Tesla 没有及时向政府监管部门报告事实,政府正在考虑对 Tesla 公司采取法律行动。
本来都懒得再提 Tesla 这公司的名字,但是由于 Tesla 对于这起车祸态度极不端正,不但隐瞒事实,而且继续找各种借口为 autopilot 开脱罪名,让这玩具级别的技术继续危害无辜开车人的安全,很多人(包括新闻机构)对此的分析很多都抓不住关键,所以我不得不再出来说几句。
死者名叫 Joshua Brown,40岁,曾作为炸弹专家,服役美国海军11年之久。退役以后成立了自己的技术公司,近段时间热衷于 Tesla 的电动车技术,还建立了一个 YouTube 频道,用于演示自己的 Tesla 车子。所以可以说,Joshua 对 Tesla 的 autopilot 使用方法已经很熟悉了。然而这不幸的事件,恰恰就发生在这个专家用户和热心人身上。
Tesla 方面称,那天 Joshua 行驶在佛罗里达州一条中间有隔离带的公路上,符合规定的启用了 autopilot。行车途中,前方有一辆18轮卡车左转,由于卡车车厢是白色的,后面的天空也是白色,所以 autopilot 没发现这个卡车,没有进行刹车,最后 Model S 撞上卡车,车主身亡。白色卡车衬托在白色天空上,所以 autopilot 就把卡车当成空气,这是个什么情况……
先不说这技术有什么问题,出了这种事情,Tesla 对此反应让人非常的失望。不但没有基本的自我检查,反而各种狡辩,把责任全都推到用户身上。首先,他们从统计的角度,说明 Tesla 车引起死亡的比例,比其它车子小很多。然后旁敲侧击地想说明,就算是那人自己开车,也不能避免这种车祸。最后他们再三的强调,autopilot 的说明书已经声明,功能还不成熟,如果看到要出事而没有及时接管,你们自己负责!
这些都是 Tesla 老一套的诡辩方法。首先,Tesla 的死亡比例比其它车要小,并不能掩盖 autopilot 存在严重问题的事实。死亡比例小可能跟 Tesla 的技术没有很大关系,Tesla 是新公司,车都很新所以不容易出机械故障,而且买 Tesla 的都是有钱人,受过良好的教育,懂技术,所以一般不会乱开。那这种死亡比例,跟老牌子的车比是不公平的。其他牌子的车总数比 Tesla 多太多了,很多车子都十几二十年老掉牙,开车的各种人都有,酒鬼也有,老汉也有,罪犯也有,当然事故比例就上去了。如果你只看其它牌子最近几年的新车和豪华车,死亡比例拿来算一下,就很小。
如果你光看 autopilot 导航的总里程数,事故比例恐怕就上去了,因为很多 Tesla 用户可能没有启用 autopilot,或者用的很少。Autopilot 不是第一次引起车祸了,之前我的另一篇文章已经提到,由于它的视觉技术不成熟,引发了许多险些发生车祸的情况,而且最近引起了好多次真正的车祸。要知道微小的比例落在一个人头上,就等于100%的不幸。等你因为 autopilot 而受害,才会发现 Tesla 摆出来的那些统计数字,对你其实毫无意义。也许,它确实造福了全人类,可惜死伤的人是你或者你的家人,而且那是因为 autopilot 极其弱智的判断错误…… 你会因为统计数字很安全而饶了 Tesla 吗?
另外 Tesla 喜欢旁敲侧击的指出 autopilot 的驾驶能力高于人类,而事实并不是那样。你怎么能证明人开车不能避免这车祸?Tesla 说:“驾驶员和 autopilot 都没有看到卡车。” 你们怎么知道驾驶员没有看见卡车?那可是18轮的大卡车!说白色的侧面车厢映在白色的天空,所以人看不见它,这不是搞笑吗。
一个东西是白色的,不等于它是看不见的,一个不透明的东西会挡住后面的景物,这一点人是很清楚的。白色的物体也会有反光,纹理会跟天空不一样,人可以通过这种反光感知它的存在。卡车不止有白色的侧面,还有黑色的轮子,车头上有烟囱,车窗,油箱,…… 各种其它颜色的附件。为了让其他人在夜间能看到车厢的大小,大卡车必须在车厢的八个角上都安装红色的警示灯,这些灯在白天不亮的时候也看得见的。就算天空是白色,人也是不可能看不见它,把卡车当成空气的。所以我猜真实情况是,驾驶员发现 autopilot 判断错误,想接管过来,但已经来不及了。要知道这个反应时间也许不到一秒!人死了,当然死无对证。
从多次的事故现象中,我分析出这样一个规律,虽然 Tesla 声称 Model S 上装备了雷达和声呐,但是 autopilot 的操作却似乎仅靠摄像头的“像素”,通过神经网络进行图像分析,所以它才会连18轮大卡车这么巨型的东西都没有发现,在路上看到个树影还以为是障碍物…… 这些都是人根本不会犯的奇葩错误。我请大家不要对自动驾驶技术过于乐观,急于求成。机器视觉在某些地方是很有用的技术,然而它要能被用于自动驾车,还有非常长的路要走。
Tesla 确实警告过人们,说这个技术还不成熟,你必须把手一直放在方向盘上,准备随时接管,然而这并不能免除 Tesla 的责任。首先,Tesla 根本就不应该把不成熟的技术发布出来,而且大肆宣传,搞得大家以为它很先进很可靠似的,争相试用。其次,说明书上的警告,在法律上也许是没有效力的。你要求别人随时接管,那么你必须在可能判断错误的时候给出警示,而且给人足够的响应时间,才能算是合理。
Autopilot 的设计是有严重问题的。它操纵着车子,却不给人解释自己看见了什么,准备进行什么操作,在道路情况超越了自己能力的时候,也不给人提示,以至于人根本不知道它出了问题,不能及时接管。要知道,车在直走的时候,autopilot 是否判断正确,人往往是看不出来的。一辆没有 autopilot(只有普通 cruise control)的车子,跟一辆启用了 autopilot 的车子,在匀速直线运动的时候,人是无法察觉出任何区别的。可是人知道 autopilot 会自动刹车,而普通的 cruise control 不能,所以人就会期望有 autopilot 的车子会刹车。等你发现它一声不吭,前面有障碍物却没有刹车,才会知道它有判断错误,可是那个时候就已经晚了。
所以在这种情况下,Tesla 虽然事先有“免责声明”,把责任全都推在用户头上,在法庭上其实仍然可以败诉,因为他们对用户提出的要求是不切实际的,没有人能够在上述 autopilot 判断错误情况下及时的接管过来。我建议这起车祸死者的家属把 Tesla 告上法庭,要求巨额赔偿。我也建议所有 Tesla 的车主,为了对自己和他人的生命负责,请关闭 autopilot 这个功能!Tesla 根本就不懂如何设计自动驾驶系统,技术不过硬,设计有缺陷,基本就是个玩具。生命很宝贵,用自己的生命来给所谓的“新技术”做试验品,是不值得的。
珍爱生命,远离 autopilot!
【转】Tesla autopilot 引起致命车祸的更多相关文章
- 【转】Tesla Autopilot
Tesla Autopilot 以下内容是<Tesla Model S的设计失误>一文中新加入的小节.由于写作时间相距太远,而且由于它的时效性,现在也把它单独提出来,独立成文. 两个月前, ...
- Uber无人驾驶致命车祸翻案:6秒前已侦测到死者
此前有消息称,今年三月 Uber 无人驾驶汽车致命车祸是软件失误导致的.现在,美国运输安全委员会的事故初步调查报告给出了不同的说法. 从图中可见,黄色线以米为单位显示,橙色线显示了地图线路的中心,紫色 ...
- 【转】Tesla Model S的设计失误
Tesla Model S的设计失误 这幅美丽的图片,就是红极一时的Tesla电动车Model S的内景.然而你有没有发现,其中有一些不大对劲的地方?虽然我看好电动汽车,它们环保,安静,运动敏捷,然而 ...
- AIOps 平台的误解,挑战及建议(下)— AIOps 挑战及建议
本文篇幅较长,分为上,中,下,三个部分进行连载.内容分别为:AIOps 背景/所应具备技术能力分析(上),AIOps 常见的误解(中),挑战及建议(下). 前言 我大概是 5,6 年前开始接触 ITO ...
- 为什么今天的L4无人驾驶无法到达终局(转)
本文来自于公众号驭势未来,是驭势科技的微信公众平台,本博客收录的这篇文章版权作者吴甘沙,博客中仅对部分内容进行编辑. 作者:吴甘沙 原文链接:here 声明:文中的观点只代表版权作者的观点,本转载不涉 ...
- AI-Info-Micron-Insight:通往完全自主之路
ylbtech-AI-Info-Micron-Insight:通往完全自主之路 1.返回顶部 1. 通往完全自主之路 自动驾驶汽车正在从未来梦想演变为当代现实,随着技术成熟,个人和公共交通将永远转变. ...
- Google Waymo自动驾驶安全技术报告(二)
Waymo的技术在公开道路上.封闭测试场.仿真器进行了广泛的测试,所以可以保证自动驾驶系统的每一部分在其ODD内都有强大.可靠.安全的处理能力. Waymo的自动驾驶系统由三个相互独立.严格测试的子系 ...
- 【转】Tesla Model X的车门设计问题
Tesla Model X的车门设计问题 Tesla即将推出的SUV(Model X),不但继承了以上提到的Model S的各种问题(触摸屏,门把,……),而且还制造了新的问题.Model X具有一个 ...
- 致命id(就是一个神经病精神分裂的故事---但讲述方式真的很不错)
电影开头是一段审讯的录音(我听着像),一直在问那个精神分裂的人一件谋杀案,镜头然后转向了一个场景(这个场景中设定是一个被大雨围困的汽车旅馆,到后半部分我才明白这是那个精神分裂者的精神世界,这个地方的所 ...
随机推荐
- ArcMap工具箱参数名称的Bug
已经忍了很久了,今天一定要说一说,强大的 ArcGIS居然还存在这种Bug问题.如下图所示:使用了追加工具,有三个要素图层,且三个数据与目标数据不是同一数据,但它们的名称一致,这样执行,将会出现&qu ...
- android studio中为项目添加依赖包的方法
右键项目,Open Module Settings 打开后选择Dependencies选项卡,点最右边的加号: 选择Libriay dependencies,从下拉列表里面选择就可以了.
- C#中将DLL文件打包到EXE文件
1:在工程目录增加dll目录,然后将dll文件复制到此目录,例如: 2:增加引用,定位到工程的dll目录,选中要增加的dll文件 3:修改dll文件夹下面的dll文件属性 选中嵌入式资源,不复制. 4 ...
- html转译字符 字符实体
http://www.w3school.com.cn/html/html_entities.asp http://www.w3school.com.cn/tags/html_ref_entities. ...
- updateFilter
$.fn.updateFilter = function(filterType, paramVal) { // filter="DATE|GREATERTHANEQUALS|LESSTHAN ...
- infobright系列三:数据导入乱码
1:目前在用的是社区版的infobright,不支持DML功能,只能用LOAD DATA方式导入数据. 如果元数据中有特殊控制字符,导入过程中经常会报错 2: 设置Reject File导入之前,设定 ...
- Python学习笔记五:错误与异常
一:常见异常与错误 BaseException 所有异常的基类SystemExit 解释器请求退出KeyboardInterrupt 用户中断执行(通常是输入^C)Exception 常规错误的基类S ...
- Linux下使用logrotate实现日志切换
运维过程中经常会发现一些 C 程序,每天会生产这样的日志: /home/admin/app_name/logs/access_log 那么天长地久,如果这个程序不会自动去轮转这个日志,那么这个日志文件 ...
- static_cast<void>(0)的意义及NDEBUG assert的使用
查看ace代码时发现如下代码 #define ACE_TEST_ASSERT(X) \ ((X) \ ? static_cast<) \ : ACE_VERSIONED_NAMESPACE_NA ...
- oracle 拼接字符串的两种方式
方式一:使用管道符||进行拼接 方式二:使用concat()函数 区别: 方式一可以拼接多个字符串:方式二只能将2个字符串拼接到一起. 写在最后 哪位大佬如若发现文章存在纰漏之处或需要补充更多内容 ...