外链代发包收录,纯手工外链代发就找老客外链吧

站长新闻

您的位置:老客外链吧 > 站长新闻 > 科技 >

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

文章来源:老客SEO 作者:老客SEO 人气:13 时间2019-08-13 16:22:42

今年6月网友爆料了一段Model S无人驾驶『自杀』的视频,这刚过去两个月,又出现了一起撞车后燃烧的事故:近日美国一家汽车新闻网站报道,在莫斯科的道路上,一辆特斯拉Model S撞上了一辆拖车,之后这辆车发生了起火和爆炸。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

8月11日Model S 撞车后起火

而根据事故检测报告,事故发生时,这辆特斯拉Model S正处于「半自动驾驶」的模式,可能由于没有成功探测到前方的车辆,导致车辆撞上了拖车。而之后不久,这辆Model S立刻起火,并且发生了爆炸。事故发生时,除了司机本人之外,他的两个孩子也在车上。这起事故导致三人严重受伤,尚无生命危险。

「自动驾驶」真的只能『背锅』?

相信面对这样的新闻,大部分的观点会一边倒的偏向『看吧,「自动驾驶」就是个概念』。包括我也认为目前谈「自动驾驶」也算『为时过早』,不过转念一想,这就好像『汽车和飞机』的关系:大家觉得坐汽车安全呢?还是坐飞机安全?从事故数据来看,坐飞机的安全性大大高于汽车。而大家都知道飞机的操作大部分是依靠「自动驾驶」来完成。于是,你就会发现,这其实就是一个『锅』谁背的问题。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

Model 3连撞11根隔离桩桶

当我们回顾多起特斯拉由于「自动驾驶」而撞车的事故,不得不否认『人为因素』无处不在。比如2018年7月发生的『Model 3连撞11根隔离桩桶』,当风波停息,事故调查结果跃然而出:司机在驾驶过程中睡着了……

面对这种现象,我们应该认识到,目前对于「自动驾驶」有太多与『责任』和『法律』相关的概念还没有被拆分清晰,而且这也不是一个公司或一国政府的就能盖棺定论,还要更深地讨论『人性』。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

推荐一本不错的《无人驾驶》读物(图片源自网络)

在《无人驾驶:人工智能将从颠覆驾驶开始,全面重构人类生活》一书中曾经以谷歌在2012年的一次「自动驾驶」实验为例,得到如下结果:

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

谷歌在自动驾驶方面做了很多努力(图片源自网络)

[…]12名参加者的年龄在25~34岁之间,均是从密歇根州底特律市的普通市民中招募的,并提供80美元的参加补贴。研究者要求驾驶员假装要做长途旅行,并且对他们带手机进行测试驾驶也不加阻拦,还为其提供触手可及的读物、食物饮料以及娱乐媒体

[…]开启车道保持辅助系统时,多达58%的驾驶员会在开车时看DVD。还有25%的驾驶员会利用空当找些东西阅读,这些行为将车祸的风险提升了3.4倍。同时,驾驶员的视觉注意力也会下降。当车道保持辅助系统接手方向盘时,驾驶员的注意力就会完全游离。 总体来看,在三小时的行程中,驾驶员的注意力有33%的时间没有集中在道路上。更为危险的是,驾驶员经常会做出长达两秒以上的『目光远眺』,这种可能带来致命危险的行为在整个研究过程中发生了3325次。还算庆幸的是这些危险性的目光远眺总共占用的时间只有8%。

不过当我们抛开这些『法理』和『人性』的因素,又该如何去评论「自动驾驶」是否靠谱呢?

是实现「自动驾驶」的方法错了?

目前,我们看到无论是特斯拉,还是国内的特斯拉模仿者,采用的都是一种『让汽车智能起来』的方法来实现「自动驾驶」即『车联网』(『物联网』)。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

特斯拉的Autopilot(动图)

目前主流的「自动驾驶」技术背后有多个细分功能,例如ACC自适应巡航、AEB自动紧急制动、LKA车道保持辅助等,不同的功能有不同的工作条件,像是AEB跟ACC或者ICA(智能巡航)系统的功效是有重叠的,不能同时工作。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

特斯拉2代Autopilot硬件对比(图片源自网络)

比如Model 3传感器有三种,车头一个前置77G毫米波雷达,一个3目摄像头,以及遍布四周的十几个超声波雷达。从硬件上,「自动驾驶」应该已经没问题了,为什么也看不到这些障碍呢?

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

特斯拉Autopilot2.0低速驾驶实拍(源自车云网)

现阶段靠各类摄像头的「视觉技术」来识别物体,而在后台逻辑上主流做法是运用「深度学习」的算法,即大量的给「神经网络」系统『喂』大量的数据,让计算机学会识别某一物体,并在此基础上推测与物体的距离。

对于特斯拉来说,其主要依靠视觉来做「自动驾驶」技术,因此其最重要的是先识别车辆、路灯、路牌、行人等这些物体,对于非关键物体,其很难有精力去训练模型来做识别。

说白了,导致不能识别物体发生事故原因大致如下:

1. 数据『喂』得还不够,一下没认出来;

2. 识别物体还不精准,一下没看到。

当你看到这里,是否愈发感到「自动驾驶」的道路可谓是『路漫漫其修远兮,数据还靠人命喂』。其实除了这种『点测点,点对点,智能化』方法,我们还有一种更为高端的方法。

一直被人『嫌弃』的第二种方法

那就是『让道路智能起来』即『智能路网』。然而这个概念也并非什么新概念,不过在几十年的发展过程中却处处被人唾弃。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

智能路网的一些基本功能(源自依图网)

所谓的「智能路网」 (或「智能公路」、「自动化公路系统」、「电子化高速公路」、「智能交通系统」等),是通过交通资讯信息的收集和传递,实现对车流在时间和空间上的引导、分流。旨在避免公路堵塞,加强公路用户的安全,以减少交通事故的发生。并改善了高速公路交通运输环境,使车辆和司乘人员在高速公路上安全、快速、畅通、舒适地运行。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

未来世界:公路与地平线(Futurama: Highways & Horizons),1939年

早在1939年,通用汽车公司的市场部人士就设想出了第一代「无人驾驶」汽车,并在世界博览会上公之于众。但有趣的是,通用汽车的「未来世界」并非由工程师构思设计,而是由舞美设计师出身、工业设计界的传奇人物诺尔曼·贝尔·盖迪斯(Norman Bel Geddes)设计出来的,对于最后悲惨的结局也就不足为怪了。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

自动化公路系统测试,20世纪50年代(来源: 美国无线电公司,大卫·沙诺夫图书馆David Sarn

对于汽车和「电子化高速公路」的发展,20世纪五六十年代都是一个黄金时代。美国无线电公司(Radio Corporation of America, RCA)与通用汽车的工程师团队经过几年的研究,两组团队拼凑出来一个他们称之为「电子化高速公路」的创意解决方案(尽管以今天的标准而言,还是略显粗糙)。他们结合了无线电技术、电子电路以及基于历史悠久的电磁学理论而创建的逻辑门电路。1958年,他们完成了「电子化高速公路」的一次最全面的展示,在内布拉斯加州林肯市郊区一条400英尺长、专门改造过的高速公路上,装有俏丽垂直尾翼和双摄前大灯的两辆1958年款雪佛兰参与了测试。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

以涡轮动力驱动的通用公司火鸟概念车驶入一条自动导航车道,来自1956的通用汽车展览会(来源:通用汽

「自动化高速公路」的美梦最终破灭的主要原因之一就是成本。安装必备的电缆和路边控制系统是一项耗资巨大却又见效缓慢的工程,装配一条短小的测试跑道所需的成本还算合理,但是对于美国或欧洲那些横跨各州的浩大公路网系统而言,方案就显得不切实际了。即使在20世纪60年代,政府划拨了大量的公路建设预算,但考虑到埋设线缆、晶体管以及其他电子设备组成的这一套脆弱的基础设施,想要装配并维护数万英里州际公路的成本也太过高昂了。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

「智能路网」的进阶道路一直走得不顺畅

此外,还有一个尚未解决的难题就是安全问题。在过去几十年中,美国联邦交通运输机构筹资成立的大部分研究所都致力于发展车对车通信系统(vehicle-to-vehicle,V2V)与车与基础设施(vehicle-to-infrastructure,V2I)。从广义上来说,车对外界的信息交换(vehicle-to-everything,V2X)越来越趋向V2V与V2I计划。最后,像所有的点到点(peer to peer,P2P)无线网络一样,V2X系统对防御黑客入侵、系统干扰和诈骗等风险能力极其微弱。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

电影《我是谁:没有绝对安全的系统》探讨了一个很严肃的问题(图片源自网络)

软件行业再三汲取的深刻教训是,任何分散型通信机制都无力抵御黑客入侵和破坏的风险。任何制造系统都存在漏洞和不到位之处。无论有多少专家学者、工程师团队参与设计,研制出的交互系统多么万无一失,总会防不胜防。V2X基础设施一天内需要顺利完成上百万辆个人轿车之间的上千次交互,而黑客入侵系统只需要一次得手便能大肆破坏。

特斯拉又出事故了?!自动驾驶到底靠不靠谱?

2017年12月山东济南国内首段光伏高速公路南绕城高速正式通车(图片源自网络)

即便「智能路网」还存在着很大的隐患,但全世界各大国家都没有停止对它的研究和实验,比如瑞典的E4公路,日本使用ITS应用系统的智能公路,荷兰的实验智能高速公路等。而中国在这方面也正全面出击:

联系我们

在线服务 外链咨询 二维码

扫码添加微信:juxia_com