这两天看到了自动驾驶的几条相关新闻,蛮有趣的,在这里分享给大家。
第一条是2018.7.4-2018.7.5百度召开的AI开发者大会,大会上百度创始人李彦宏宣布一款名叫“阿波龙”的无人驾驶巴士(LV4)正式量产。同时展示了百度无人车在恶劣环境下的优越性能,大家可以自行观看。
“阿波龙”已经生产下线100辆其商业化落地也同步展开。厦门金龙表示,已经完成总装的阿波龙,即将发往北京、雄安、深圳、平潭、日本东京等地开展商业化运营。“阿波龙”搭载百度最新Apollo系统,拥有高精定位、智能感知、智能控制三大能力。“阿波龙”无人驾驶汽车没有配置方向盘和驾驶位,它将实现自动完成变道和转弯等操作。今年4月在福建平潭无人驾驶汽车测试基地完成路面测试,并被授予牌照。
第二条是北京开放自动驾驶车辆路测道路 105 公里
从北京市自动驾驶第三方服务机构获悉,北京市已经开放 33 条共 105 公里自动驾驶车辆路测道路,截至现在,自动驾驶车辆已安全行驶 26000 公里。
北京市智能车联产业创新中心工作人员介绍,截至 6 月 28 日,五家公司获得了北京市自动驾驶车辆道路测试资格。昨日,无人驾驶初创企业小马智行宣布,拿到北京市政府颁发的自动驾驶车辆路测牌照,并且拿到的是目前北京路测牌照的最高级别 T3 级。(via 北京青年报)
关于小马公司,感兴趣的读者可以查查,我个人最看好的自动驾驶创业公司(虽然简历悲剧,呜呜呜)。
好了,回归正题,新闻看完了还要继续学习,毕竟在自动驾驶领域“We have finished 90% of the work,but we still have 90% to do ”。
今天阅读论文的题目是“Training Deep Networks with Synthetic Data: Bridging the Reality Gap by Domain Randomization”,来自英伟达和多伦多大学合作的一篇文章。
通过题目可以知道本篇论文的出发点是使用生成数据来训练深度网络,以达到降低或者省去人工采集标注数据的高昂代价。
采集现实世界的数据集不光具有采集费时费力的缺点,还具有数据内容不够丰富的弊端(例如自动驾驶场景中的背景变化、车辆型号、颜色、天气变化等),在由数据驱动的神经网络大放异彩的今天,数据集不够丰富将成为神经网络效果泛化性能差强人意的主要原因。因此,如何低成本的获取高质量的数据集就成为了一个亟待解决的问题。
目前主要采用的数据生成方法主要使用几何仿真(graphic simulator)的方法,但该方法要求模型搭建人员自行设计场景细节,也会极大的消耗人力。因此文章作者提出了一种叫做随机域匹配(domain randomization DR)的技术,使用虚拟引擎自动生成丰富多变的场景图片。由于英伟达也在自动驾驶领域下了重注,因此该技术也是主要应用于驾驶场景的生成,使用该技术主要有三个方面的恭献:
1.生成的数据集可以用于像复杂场景下的目标检测等训练任务当中。
2.介绍了一种DR的新技术flying distractors(不会翻译),可以提升检测和估计的准确性。
3.可以通过改变生成图片的不同参数来判断图片中不同组成部分对训练网络的重要程度。
全篇论文没有一个公式,因此简单易懂,大家看图就明白了:
在生成数据集时,主要控制以下几个变量,这在现实世界中是很难做到的:
1.目标数量和类型(本文中一张图片内车辆数量和型号)
2.干扰物体的颜色、类型、数量、大小等(本文中图片中的行人、树等)
3.目标和背景的纹理变化
4.摄像机视场角变化
5.摄像机位置变化
6.光照变化(强度以及照射方向)
7.场景能见度
作者使用虚拟引擎(UE4)每秒可以生成30张大小为1200*400的图片,并且场景变化极为丰富,相比于真实世界的采集成本,虚拟数据集的成本几乎可以忽略不计,因此该方法对提升自动驾驶的鲁棒性能具有很大的意义,也可能是拆掉大公司数据垄断铁丝网的有效手段。
关于实验部分,作者生成类似于KITTI的虚拟数据集用于训练物体检测网络(Faster R-CNN、R-FCN、SSD三个网络),并用真实的KITTI数据集作为测试集,并取得了很好的效果。
上图可见,生成数据集可以随意配置数据分布,这在现实世界中是无法实现的。
我个人是很喜欢这篇文章的,因为有些数据集(例如医疗图像数据集)的获取成本十分高昂,如果该技术成熟的话将会把数据集的采集成本将为近乎于零,对各领域加速发展人工智能都有极大的帮助。
最后,祝好!愿与诸君一起进步。