国内外研究现状和发展动态
近几年,无人驾驶与AI并列为大热话题,关于无人驾驶应用于实际的道路行驶的相关问题一直以来都颇有争论。上个月,美国亚利桑那州州长Doug Ducey签署了一份关于无人驾驶的行政命令:无驾驶员的纯无人驾驶汽车允许在公共道路上通行;无独有偶,美国加利福尼亚州行政法规办公室批准了一项新规定:美国加州同样允许无驾驶员操控的“完全自动驾驶汽车”在公共道路上进行测试。而在国内,上海发放了全国首批智能网联汽车开放道路测试号牌,这意味着无人驾驶汽车走出封闭园区正式进入路测阶段。
而无人驾驶车辆必不可少的就是计算机视觉技术,计算机视觉是应运时代而生的产物,用于计算机对外界图形的信息处理,它由运用广泛的CNN的方法,运算速度快,其运用的车道检测是大多数人面临的主要问题,运用的Laplacian边缘检测技术所需内核小,但易被噪声干扰,而谨慎的检测器尽管运用一些方法为更多的研究提供了额外的方法,但也限制了其本身的性能[1]。
自2003年起,就有各种无人驾驶车辆的研究,比如清华大学研制成功THMR-V(Tsinghua Mobile Robot-V)型无人驾驶车辆,能在清晰车道线的结构化道路上完成巡线行驶,最高车速超过100km/h。
追溯无人驾驶技术的发展历史,由国防科技大学自主研制的红旗HQ3无人车,2011年7月14日首次完成了从长沙到武汉286公里的高速全程无人驾驶实验,创造了中国自主研制的无人车在复杂交通状况下自主驾驶的新纪录,标志着中国无人车在复杂环境识别、智能行为决策和控制等方面实现了新的技术突破,达到世界先进水平,而其采用的就是人工智能的神经网络技术。
说到神经网络对自动驾驶汽车的作用,重点之一是其运用了反褶积图,以显示影响网络输出的图像区域。其二是运用建立数学模型和使用数学公式的方法检验因果关系。但总而言之实现的关键方法包含三个步骤:(1)编码器:卷积特征提取;(2)通过视觉注意机制的粗粒度译码器;(3)细粒度的解码器[2]:因果视觉显著性检测和注意力地图的细化。
2013年,百度开始研发自动驾驶汽车。百度方面证实,百度已经将视觉、听觉等识别技术应用在无人汽车系统研发中,负责该项目的是百度深度学习研究院。2015年年末,百度无人驾驶车在北京进行全程自动驾驶测跑,可根据不同场景切换状态,最高时速达100km/h。2016年,北京理工大学设计了一款无人驾驶赛车,百公里加速仅3秒,使用双目摄像头用于行人侦测、避障及路线规划。70年代开始,美国、英国、德国等发达国家开始进行无人驾驶汽车的研究,在可行性和实用化方面都取得了突破性的进展。美国最为发展前景好的是谷歌和特斯拉。
2014年12月21日,谷歌宣布,其首款成型的无人驾驶原型车制造完毕,将会在2015年正式进行路测。谷歌拥有先进的软件和算法基础,其自动驾驶汽车拥有摄像头、GPS、雷达与激光传感器,可以极为灵敏地获取周围环境的信息。自2009年起,谷歌自动驾驶汽车已在自主模式之下行驶了超出120万英里。在这样的磨练中,系统对于应对各类状况已经积攒了丰富的经验。谷歌的自动驾驶车可以识别各类物体甚至是交警的手势,谷歌强大的软件算法能力由此得以体现。
那么究竟无人驾驶的事故率和传统驾驶的事故率孰高孰低,从警方给出的事故率和Google报告中的事故率来看,结果是无人驾驶高于传统驾驶一倍,但是有一些导致结果不稳定的因素,如路面刮蹭的小事故警方根本不会报道,但是我们可以用统计学的方式来计算论证,最终得到结果:无人驾驶的事故率确实小于传统驾驶的事故率。到目前为止,Google汽车在自主模式下发生的最常见的碰撞事件类型是Google汽车在停止或几乎不动时被另一辆车追尾,而在所有碰撞事故中,Google汽车并没有参与任何单一车辆的事故,且在所有碰撞事故中只有一次撞车涉及可能的伤害且伤害程度低于预期值。但由于事故数量较少,所以只能大致得出Google汽车自主模式下的碰撞率低于人类驾驶车辆[3],且在无法避免的碰撞事故中能够减轻碰撞程度的结论。
特斯拉的优势则在于其速度之快,在其他企业对自动驾驶技术尚处研究阶段之时,特斯拉已经投入量产并创造出一定的规模了。特斯拉本身在自动驾驶方面就具备技术层面的优势,并且对自动驾驶技术又存在一种特别的执著。其车型拥有用以识别周围环境的超声波传感器、辨别前方物体的前置摄像头与雷达,以及无数次路测累积的高精度卫星地图。
但这个领域还有一些问题,比如:如何提高无人驾驶领域中改进消失点的方法。相较于传统的RANSAC算法,Moon等提出的harmory算法可以提高消失点检测的准确率,从RANSAC算法的本质阐释出RANSAC算法具有随机性[4],最后通过数据对比的方式,说明了HS算法在准确率这一方面优于RANSAC算法。
无人驾驶技术的不断发展和更新,是建立在对我们手动驾驶的过程中发生过的各类问题和情况的大量研究的基础上的,是大量数据统计分析进而得出结论的结晶。而日益增长的数据库与信息库给我们提取帮助自动驾驶了解和预测复杂交通场景的任务提出了愈来愈大的挑战,现有的文献还没有提供从大规模数据中自动学习交通原语的方法,而最近引入的一种非参数贝叶斯学习方法[5],实验结果表明,非参数贝叶斯学习方法能够从二元和连续事件共存的流量场景中提取交通原语。
无人驾驶技术继续迅猛发展,英国第一辆无人驾驶汽车于2015年2月亮相,它是旨在帮助乘客,购物者和老年人短距离出行。新的无人驾驶汽车将于本周在英国格林威治亮相,被称为Lutz Pathfinder。
而几乎同时在德国汉堡的Ibeo公司应用先进的激光传感技术把无人驾驶汽车变成了现实:这辆无人驾驶智能汽车在车身安装了6台名为“路克斯”(LUX)的激光传感器,由普通轿车改装而成,可以在错综复杂的城市公路系统中无人驾驶。这归功于车内安装的无人驾驶设备,包括激光摄像机、全球定位仪和智能计算机。
无人驾驶技术还有广阔的应用平台,可以想到的是,目前无人驾驶地面作战平台越来越适应现代化战争的需要,较高的雷达测量精度能帮助准确识别出作战恶劣环境的周围目标,其中一个重要问题就是考虑确保无编队碰撞事故,而这取决于无人作战地面平台控制算法的设计,这个设计的难点在于,恶劣的作战环境下,道路上并没有车道标志,因此,车的前行路线不能太过于依赖于车道线,算法应该可靠地识别包括静态物体和动态车辆在内的目标[6],从而确保各自安全行驶。
最近人们还通过研究汽车共享业务模型的共享无人驾驶出租车体系后得出结论,共享自主车辆(SAV)车队可有效地减少停车位,节约城市空间,减少温室气体和有害物质地排放,一个无人驾驶车队可以基本替代一个城市中的所有私家车,并满足所有人的出行需求,因为无人驾驶车辆拥有更好的安全性能,更方便和优化的旅行,而且能减少拥堵,降低总体成本,降低停车空间要求等。具体来说可以采取类似于出租车服务或点对点实时乘车分享的形式[7]。与基于应用程序的汽车共享一样,这些形式的乘坐共享已被证明非常受欢迎。
在2016年的CVPR会议上重点讲述了运用视觉注意力的神经网络模型来处理无人驾驶汽车的问题。它比起一般的难以寻踪的神经网路模型,有着易查看的特点。用于无人驾驶汽车,它能将热力图传达给CNN判断,使车辆安全驾驶。该模型的实现方法共三大步骤:三个步骤:(1)编码器:卷积特征提取,(2)通过视觉注意机制的粗粒度译码器,以及(3)细粒度的解码器:因果视觉显著性检测和注意力地图的细化。三大步骤后也存有检验步骤以确保正确。模型建立完成后,需要在天气晴朗时拍摄大量视频作为练习数据,花不到24小时在NVIDIA Titan X Pascal GPC上训练,尝试了三个不同的惩罚系数来理解模型决策的原理,使模型能够注意道路的要素如车道标记、护栏和前方车辆。最后得出结论,他们与相同的基础CNN相比,(i)在没有注意的情况下,对注意力的控制不能降低控制的准确性。(ii)原始的注意突出了图像中的可解释特征,而(iii)因果过滤通过去除对输出没有显著影响的特征[8],达到了解释复杂性的有效降低的效果。
2017年的ICCV等权威会议都强调了自动无人驾驶的研究重心。我们基于Winograd的最小滤波算法引入了一类新的卷积神经网络快速算法。由于这些算法计算量最小,因此这些算法在小型滤波器和小型设备方面表现优异。与直接卷积相比,这些算法可以将convnet层的算术复杂度降低4倍。几乎所有的算术运算都是通过足够大的密集矩阵乘法来进行计算的,即使批量很小时也可以进行有效计算,对于自行驾驶汽车的行人检测数据计算分析非常有帮助。与传统的FFT卷积算法相比,存储器要求也很轻。这些因素使实际实施成为可能。我们对NVIDIA Maxwell GPU的实施实现了所有批量测量的最先进的吞吐量,从1到64,同时使用大约16MB的工作空间内存。深度卷积神经网络(convnets)在图像识别问题上达到了最先进的结果。网络需要几天的GPU时间来训练,并且在分类过程中也需要大量的计算资源。数据集较大的和模型导致更高的准确性,但同时也增加了计算时间。因此,在神经网络中进行神经网络分析时,如何快速地计算网络成了关键。
而且在无人驾驶的过程中,假设人们看不到任何工作原理,人们也是不愿意乘坐的。但是如果全方位的展示各种参数,各种传感器数据。任谁都会感到头大。若想使无人驾驶车辆快速地融入社会,使人们接受并欢迎,首要的工作任务应该是如何让乘客感到安全和放心,而假如乘客可以在车内实时地关注车外的各种路况信息,但是又不能单纯地将各种数据信息硬塞给乘客,在这种情况下,无人驾驶的可视化便成了现在的研究重心之一,即通过神经卷积网络将处理过的数据信息以简单直观的图像呈现给乘客。通过可视化关注无人驾驶,成为无人驾驶领域中的一个方向。目前,已取得显著技术突破。美国加利福尼亚大学伯克利分部将图像区域传输到识别网络(CNN)做出判断,调整注意力权重,最后讲图像呈现给用户[2]。该方法已经被证明在真实模型中具有有效性。
新硬件Jetson TX2是嵌入式人工智能超级计算平台,可以在终端上部署人工智能计算能力,同时提供了JetPack SDK全套软件的支持。
参考文献
[1] Brilian Tafjira Nugraha,Shun-Feng Su,Fahmizal. Towards self-driving car using convolutional neural network and road lane detector[C].2017, 2nd International Conference on Automation, Cognitive Science, Optics, Micro Electro--Mechanical System, and Information Technology (ICACOMIT),65-69.
[2] Jinkyu Kim,John Canny. Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention[C]. IEEE International Conference on Computer Vision(ICCV), Venice, Italy, 2017: 2961-2969.
[3] Eric R. Teoh, David G. Kidd. Rage against the machine? Google's self-driving cars versus human drivers[J]. Journal of Safety Research, 2017,63(1):57-60.
[4] Yoon Young Moon,Zoog Woo Geem,Gi-Tae Han. Vanishing point detection for self-driving car using harmony search algorithm[J]. Swarm and Evolutionary,Computation, 2018, In press:1-9.
[5] Wenshuo Wang, Ding Zhao. Extracting Traffic Primitives Directly From Naturalistically Logged Data for Self-Driving Applications[J]. IEEE Robotics and Automation Letters,2018,3(2):1223-1229.
[6] Jiarui Li, Lei Han,Zhipeng Dong, et.al. A target recognition algorithm applied to the unmanned ground combat platform in curve driving[C]. IEEE International Conference on Unmanned Systems (ICUS), 2017, 192-196.
[7] Luis M. Martinez, José Manuel Viegas. Assessing the impacts of deploying a shared self-driving urban mobility system: An agent-based model applied to the city of Lisbon, Portugal[J]. International Journal of Transportation Science and Technology, 2017, 6(1):13-27.
[8] Andrew Lavin, Scott Gray. Fast Algorithms for Convolutional Neural Networks[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, USA, 2016:4013-4021.
|