14020199014
李运泽
嵌牛导读
2017年正处于终端用户设备第三次伟大的革命期。首先,在20世纪90年代使用Windows的PC,然后在2006年通过iPhone达到智能手机。现在,我们正处于下一个终极用户体验转变的尖端:汽车。那么,未来汽车是什么样的?我们有什么方案去实现它呢?
嵌牛鼻子
AI NLU ADAS V2V V2I
嵌牛正文
汽车业务将在未来5-15年内发展壮大,2017年是个增长的阶段。Gartner预计到2020年,将拥有2.5亿辆汽车上市。其中大部分增长将是新的数据服务和新产品,而不是汽车本身的传统“弯曲金属和橡胶”。资讯公司麦肯锡估计,到2030年,联网汽车的数据以及出现的新业务模式每年可能价值1.5万亿美元。
2025年的汽车将与现在的汽车相当不同。汽车将基本上成为轮子上的计算机,产生大量有价值的数据——只有在基础设施到位时的数据才是有用的,才是有分析它、学习它的价值。这就是为什么AI会推动联网汽车的未来。
未来的汽车是怎么样的?
有一些趋势塑造着未来的汽车。一个是大量注入计算基数,从根本上改变汽车电子。除了立体声,汽车将能够运行复杂的应用程序。就像iPhone展示了一台电脑如何进行语音通话一样。汽车也将经历传感器革命。传感器的成本也会下降。因此,汽车最终将包含数十个短程传感器,可以收集有关其环境的海洋数据。
此外,与云端的连接将是2025年汽车的核心部分。汽车将不再是在车辆的20年声明周期中保持不变的隔离模块。相反,他们将能够从云端获得新的下载。所有的传感器数据将被发送到云端,或者使用V2V(车辆到车辆)或V2I(车辆到基础设施)进行点对点的传输,这样甚至可以提供短距离数据。将手机这些数据以形成街道级甚至城市及的交通观点。就像PC和手机一样,云端作为信息、应用程序和处理的中央存储库。
根据IHS Technology的一份报告,车载人造卫星系统的数量将从2015年的700万增加到2025年的1.22亿。大都会将成为标准,这样做将改变人们与汽车的交互方式,反之亦然。一种方式是通过信息娱乐的更智能的互动。AI将提供语音和手势识别功能、驱动程序监控、虚拟助手和自然语言理解功能(NLU)。驾驶员将能够与他们的汽车交谈,让他们回应、甚至达到超出他们预期需求的标准。
AI也将使现金的驾驶员辅助系统(ADAS)系统成为主流现实。ADAS和自主车辆需要基于摄像机的机器视觉系统。基于雷达的检测单元,驾驶员状况评估和传感器融合引擎控制单元(ECU)工作。根据IHS,“深入学习”是完全自主的车辆的关键。这可以让他们检测和识别物体,检测动作,适应新的道路状况等等。
我们如何达到上述水平?
实现完全自主的汽车,这条道路会很漫长,我们也只是刚刚开始。而2016年表现出了许多可能的情况,我们还没有达到由国家公路交通安全管理局(NHTSA)定义的全面自主的4级汽车。
2017年,随着我们建立数据收集的关键基础设施,并为ADAS制作详细的实时地图,该行业也将会迎来重要的里程碑。今天又两个选择来实现这一目标,今年将出现第三个主要的替代方案。
一个选择是部署高度仪表化的汽车,拍摄静态物体的图像和记录位置。精确的车道信息和方向需要这种所谓的“毫米精度”。这在钱和时间方面是一个非常昂贵的选择,它还需要持续的更新,一遍数据不会变得陈旧。
第二个选择是部署半自动车辆来收集数据。这需要新一代具有先进传感器的汽车,但很少有汽车会在2017年安装这些传感器。
今年的第三个选择是使用新技术,从已经在路上的其他非自主汽车手机数据。例如,从相同的位置的多个轿厢检测突然的转向变化,可以指示障碍。当轮滑或挡风玻璃刮水器打开时,注意到将提供与微观天气相关的通知。机器学习的力量是,所有这些数据都可以通知下一代汽车的ADAS系统,并为未来的汽车提供更好的模型。
2017年出现的技术可能还不能实现完全自主的车辆,但对于奠定未来的基础,是至关重要的。