「一问」微动:手势交互如何接入虚拟现实?

微动

自从Oculus 6000万美元收购了手势控制公司Pebbles后,手势交互融入虚拟现实俨然已成为下一个黑科技的节点所在。更有先前的Leap Motion,让用户认识手势交互的同时逐步实现了隔空操控。其实,手势交互的大玩家并不是单单在国外,国内的“微动”就是这条路上蛰伏的一个。

微动是一款基于三维交互和机器视觉技术的手势操控智能设备。在向用户提供手势交互硬件设备的同时,微动也提供软件定制解决方案,用户可通过简单的手势指令向PC传递自己的操作意图。

“我们很早就开始研发手势交互了,甚至比Leap Motion还要早。之前人脸识别技术出来后我们也曾犹豫过,不过在看到Leap Motion和Pebbles的动作后,我们反而感到手势交互已是大趋势,也更加坚定走这个方向了。”微动联合创始人张硕告诉动点科技。

功能上,微动利用图像融合算法识别跟踪指尖和手部的姿态,并将其转换为数字命令,实现识别手部整体形态、定位指尖三围空间位置和捕捉手势动作等功能。其可识别最短位移在0.01mm,延迟在10ms,可同时支持两台终端使用且无需校准。

屏幕快照 2015-08-27 上午12.18.26

在使用模式上,微动提供了空间模式和触控模式。其中空间模式的操作范围为前后左右120度,半径40cm。通过微动的内置双摄像头捕捉系统和图形处理单元,可识别手部姿态定位空间三围位置,跟踪手势轨迹,可检测位置速度等数据。(下图为多种手势姿态动作)

屏幕快照 2015-08-27 上午12.04.29

触控模式下,微动可以把任意平坦的平面转化为超大尺寸触控板,夹角范围是120度,半径为25cm的扇形。不过出于目前没有非常合适的应用场景,在VR,TV,车载这3个主要方向上都略显鸡肋。对方认为touch mode将会在虚拟桌面,虚拟工作台场景下大有用武之地。

屏幕快照 2015-08-27 上午12.05.32

在应用场景上,微动目前锁定在上述提到的VR,TV,车载上,其中VR合作伙伴为目前市场上主流的大部分厂商,具体的对方并没有透露。可见,在2014年微动走了一段时间C端的弯路,现已把方向调整到B端。

在未来的规划上,微动二代会主要面向开发者,SDK则会更为开放,会提供专门的VR场景算法。“操作范围也会变大,微动识别设备上空椎状空间,其左右识别范围120度,前后识别范围120度,感知半径40厘米。体积比一代薄了近一半。”张硕告诉动点科技,在骨骼节点识别上,相比于一代的识别10指指尖,二代将扩展为支持手掌的23个骨骼节点。

屏幕快照 2015-08-27 上午12.12.59

微动来自于锋时互动(Sharpnow) ,其成立于2011年 7月,前身是锋时互动科技小组 SharpnowGroup,整个团队在30人左右,以八零后为主。创始人刘津甦为中国科学技术大学博士,卡内基•梅隆大学访问学者,一直从事机器人运动控制、机器视觉与多机器人策略协作方面的研究。

融资方面,微动在2013年获得经纬中国百万美金的天使融资,又于2014年底完成来自投资人徐小平的Pre-A轮融资,具体金额对方未肯透露。

其实,在前两年Leap Motion爆出自己的手势交互后,这种概念着实火了一把。随着应用场景的增多,以及虚拟现实的爆发,手势交互的布局点已经不单单停留到游戏或者简单的应用上。交互一直是VR头显颇为关键的一环,尤其在国内虚拟现实已经蠢蠢欲动的情况下融入也不失为一个迎风而上的做法。