作为一个特别怕死的人,我一直不认可汽车中控搞个大触屏。
汽车与传统智能终端(比如手机/Pad/电脑)相比,最大的不同就是关乎生命,不仅是车内的司机和乘客,也包括车外的比如路人、其他车的人。因此,司机必须将精力投入驾驶,能分配给中控触屏的精力少之又少,大概只有等红灯或者堵车堵死死的时候能玩吧。
触屏中控与方控(方向盘上的快捷操作按钮)、或者传统中控物理按键非常不同,后两者凭借肌肉记忆就可以操作,就像键盘盲打。而司机操作触屏中控时需要眼睛看着它,无法同时看着路面,必将增加事故概率。
可是,越来越多的厂商尝试汽车中控大屏,很多IT巨头国外比如苹果、谷歌都在做自己的车联网系统,国内腾讯也跟路畅合作做了一款后装车机。如果它真的充满了安全隐患,为什么这么多公司都在做呢?用《星际迷航》史波克的话说:这不符合逻辑! 试着了解车机技术以后,很庆幸及时抛弃了过去狭隘的想法。否则,就成了福特刚刚制造出汽车上路时那些认为汽车太危险而反对汽车的顽固的人。
两大技术为车机发展奠定基础:一.语音识别技术;二.自动驾驶技术。
现在的语音识别技术已经能够识别自然语言,就像跟另一个人说话一样,不必按照某种格式说结构化的指令。
以特斯拉为代表的汽车制造商,正在大力发展自动驾驶技术。他们的自动驾驶技术已经达到SAE(美国汽车工程师学会)五级标准,即完全的自动驾驶,只是还需要更多的测试。所以目前人还不能在车里随便玩手机完全放任汽车驾驶。但是相信未来这一定可以实现,而且可能比预期的要更快。
就以宝马和特斯拉为例,目前的车机已经能够实现了许多听起来就像科幻片里才有的功能
关于特斯拉的人本设计举例
有没有发现这些场景预判的本质?就是“车适应人,而非人适应车”
就像电脑界面发展的历程:
历史:人适应机器。比如想新建个文件夹,得输入命令代码,然后机器才会执行,即人必须得说机器的语言
现在:机器适应人。图形界面出现了,人只要点点选选就行了。人不再必须学机器的话了(即命令代码)
未来:机器更好的适应人。得益于自然语言识别技术的发展,可能未来点点选选都不需要了,想干嘛就直接跟电脑说,比如告诉电脑 我想听安静点的轻音乐,它就自动搜出来播放了。
那么未来,理想车机具体应该具备哪些要素?
结语:
无论是手机、车机,还是任何工具比如一把椅子、一个茶壶,唯一的区别仅仅是使用场景不同,因此外显的表现形式会有所不同。但本质上,设计理念只有一个: 以用户为中心,工具适应人,而不是人来适应工具。
期待车机成熟的那一天!