shutterstock_441031276

AR/VR大火,HTC Vive中国区总经理汪丛青甚至表示5年内,VR销量将会超越手机。然而,传统的鼠标、键盘甚至触摸屏都已经不再符合这样的交互要求,VR领域频繁使用的手柄控制也显然只是一种过渡产品,虽然能够完成一些VR操作,但对沉浸感却是一种阻碍。行业从未像今天这般期待新型适合AR/VR的交互方式的出现。

语音交互

8d5db98e8fec25d4ffce5fe3fcfb2ba0

显然,像在科幻电影里那样与设备进行自然语言交流是一件很酷的事。在VR领域内,语音交互极有可能替代现有固化的UI界面。当我们需要查看地图、社交手册等表单时,只需要通过简单的语音交流就能达成,无需再去点击屏幕上放置好的浮动界面图标。

目前几乎大部分手机都具有了跟苹果Siri类似的语音管家,但实际使用中,这些功能的使用频率可能还不够高,这主要涉及到语音识别方向的弊病。目前的语音识别只能在安静的环境下使用,而一旦涉及到地方化语音、环境嘈杂等问题,就会大大降低输入精度,从而阻碍用户使用语音交互。

而且,目前语音交互机器人基本上都需要设置唤醒词,它也无法完成像鼠标点击一样的连续操作,反馈周期过长。

手势交互

c038d595a1b7bb3c4879ead0ba0191da

手势交互主要有两种方式,一种是光学跟踪,第二种是数据手套。

手势交互是目前VR/AR领域最被看好的交互方式。学习成本低,手势交互非常接近我们一出生就习得的交互;灵活性高,手是人最灵巧的器官之一,除了触摸屏上的点按和滑动,手能实现的交互还有很多。

然而手势交互也有自己的不足,操作时间长了手臂会累,光学跟踪对设备配置要求比较高,比如leap motion目前已经开始使用骁龙820了,而数据手套必须时刻戴着手套,应用场景也有限。

眼球交互

95c435a20586d145-334347e9007b1a29-3841c3146839a11ddff48927b0248043

简单来说,眼球交互就是感知眼部细微变化的一种技术,根据我们观测的方向不同,眼部则会产生相应的特征,通过这些特征的比对,从而对眼睛变化形成一套参考,进而实现针对眼睛变化的控制功能。

而且,用户能够使用眼球来定位场景中的某个模组,从而决定是否与它进行互动。例如利用眼球锁定一个房间模型,系统随后能够自动的展现出房间大小、构成材料、住户资料等相关的信息。

另外,通过眼球追踪技术,VR头显可以只对人眼注视的中间一小部分(1~2度)进行局部渲染,从而让VR画面主动适配人眼,降低晕眩感。而且其还能够有效的节省硬件的机能,模糊化处理周边的场景将会大大降低CPU、显卡、内存等部件的负荷,从而整体上降低设备制造成本。

在AR/VR领域,通过摄像头或红外线设备监测眼球状态也并不困难,比如谷歌眼镜就是用这项交互方式进行拍照,但是眼球追踪技术也存在一些问题:比如判断眼球是无意识运动还是有意识变化并不是件容易的事。另外,如果要利用该技术进行文字输入或也将是一件痛苦的事。

脑波交互

98de4b75a78439915860f1f0a8379801

通过意念,不用抬手、不用眨眼睛甚至不用说话就能操控物体,简直就是魔法照进现实,未来,脑电波不仅在AR/VR领域可以进行交互,更可能用来控制战斗机、工业机器人等,被誉为人机交互的终极梦想。

然而,脑电波只是带来了理论上的革命,距离真正落地还有着非常遥远的距离。目前的人脑信号非常微弱,不可能依托脑波去完成较复杂的任务,市面上出现的脑电波产品虽然看起来很酷,好像甚至能够控制玩具车的运动,但实质其仅仅只是测试了用户的注意力,控制玩具车只是错觉罢了。

总结:

其实,以上各种新型交互方式都有可取的一面,但同时也有目前难以克服的缺陷,或许,未来可能是多种交互方式并行甚至互补的。