Google 今天发布了一项名为 Project Tango 的计划,希望藉此打造一款装有 3D 感应器,并且能记录运动、感知使用者周遭环境的 Android 手机原型机。目前它仅对一小部分开发者开放,而负责它的是 Google 旗下的 ATAP(先进技术与计划)部门。
GOOGLE早前已经收购了全球最优秀的机器人和AI公司,现在还弄一个能感知环境的项目。名义上是手机用的程序,我觉得实际是在测试他们机器人的“眼睛”!骨架、大脑和眼睛都具备了,请问机器人离我们还遥远吗?
题主既然说到了机器人,就首先说一下,这个project tango确实跟机器人是有点关系的。硬件是目前robot vision的主流硬件,技术也是robot tracking和3D mapping的研究技术(最新谈不上,但基本在此硬件上能应用的最新技术都用上了,而且还优化不少)。
但与其说这个是一个结合机器人的设备,倒不如说是为机器与人的交互服务的,或者说是一个为AR应用量身设计的一个设备。
当我们现在在移动端谈论AR的应用时,我们都谈论些什么?给些最基本的:
物体识别,目标跟踪,手机的能自主精确六自由度导航定位,对周围3D场景进行描绘…
这些都涉及到现在一个新的研究方向,叫3D scene understanding,让机器能理解周围场景。
当机器能准确把握周围场景,我们才可以在我们身旁的手机上实现一些更为高级的交互,比如跟现实场景设计游戏。
在移动端做这样一个3D scene understanding的设备,为AR铺垫,方便交互,就是google的目的。
为什么google要做一个新的手机原型呢?
因为现在的computer vision技术应用在我们的手机上,缺少传感器,不适于做实时的AR应用。举个例子,比如对三维场景需要知道深度。传统相机只有一个摄像头,深度虽然能估算出来,但是既不准,还耗费计算资源。这个手机上加了一个depth sensor,就简化了很多问题。再比如处理器有两块是适于做computer vision的并行处理器,同样是为了加速计算。
这样一个手机有没有意义?
当然有意义。尚且不知道google是否会把这个打造成一个同android类似的开源平台。但是其结合了新的硬件以及相当多的机器人技术之后,这个手机平台的系统会和android差异很大,也更加智能。google可以先做这样一个尝试。加上depth sensor和motion tracking camera对现在用户来说必然是价格负担,但是如果它能提供一定的AR应用,肯定有大批用户难以拒绝的。
放个3D scene constructed by Project Tango,其能力已经类似于Kinect + PC,未来还不够乐观么?
google收集的八家公司,多家与此技术有交集。抱歉之前工作比较忙,忘了更新。最近有很多新朋友关注。我简述一下写个番外。
首先说说Industrial Perception,个人猜测这个项目是以这个公司团队作为核心。这个公司由Kurt Konolige和Gary Bradski创立,两位都是在视觉导航方面的成果卓著的博士。这个公司原先的目标是构建一个支持3D识别和自主导航的机器人框架,并把应用在工业机器人上(Startup Spotlight: Industrial Perception Building 3D Vision Guided Robots)。Project Tango这个项目虽然与机器人的实际应用不同,但是上面已经说到了,其实二者的目标,和软件框架都是非常相似的。
第二个是Meka robotics。Meka robotics比较著名的是与MIT media lab的人形机器人。不过与Boston Dynamic这种侧重于机器人控制系统不同。他们最新的机器人研究侧重于视觉和人机交互上(Meka Robotics Announces Mobile Manipulator With Kinect and ROS)。在使用3D信息的情况下,他们的软件系统倾向于如何对周围场景进行感知学习并做出反应。这也是上面说的3D scene understanding。
从目前Tango能够实现的效果来看,差不多能做到这二者的程度。在多传感器融合问题上,其他六家公司也能提供一定的技术和专利支持,只能说有交集,但并不一定有所参与。比如Bot&Dolly,Boston Dynamics的平台,都能实现六自由度的精确跟踪控制,这个作为视觉跟踪的一部分,应该Industrial Perception就已经可以很好解决。