VMG

“虽然 VR 还没非常成熟,但普通消费者现在已经可以去各个城市的 VR 线下体验馆体验了;而对于 AR 来说,普通消费者想要体验甚至都还找不着地方。” 易瞳科技 CEO 梁剑泓认为,相比于 VR 的成熟,AR 可能还需要一段时间的积累。

究其原因,视场角是其中重要的一个因素。据了解,人眼的最大视场角在 210 度左右,而 AR/VR 的视场角越接近 210 度,用户就越容易产生身临其境的感觉。不过,业内也有另外一种看法,他们认为正常状态下,人眼最轻松的左右扫一眼的横向幅宽为 120 度,因此,对于头戴式显示器,最佳视场角是 120 度。目前,主流 VR 产品的视场角都在 100 度左右(比如说 HTC Vive 与 Oculus Rift 的视场角也都达到了 110 度)。

而与之形成鲜明对比的,则是目前的 AR 产品的视场角仅在 20 – 40 度之间(所谓行业翘楚的 HoloLens,其视场角也只有 30 多度)。显然,这么小的视场角并未达到普及的标准。影创科技联合创始人胡金鑫曾表示,当 AR 产品的 FOV 达到 60 度的时候,体验才能够让普通用户真正接受 AR。当然,这个视场角对于 VR 而言,仍然显得有点小家子气。

不过,仅仅只是为了达到 60 度视场角,胡金鑫也认为其至少需要一年时间,其中最主要的因为就是光学设备的迭代相对很缓慢,远没有软件系统和硬件芯片迭代来得快。既然如此,那是不是可以换个思路,拒绝光学方案,利用视频透视实现大视场角 AR?是的,这便是易瞳科技目前所做的事。不过,梁剑泓认为,这已经不是增强现实 AR 了,而是介导现实 MR。

532597784935532001

简单说来,易瞳 MR 智能眼镜是一款加有摄像头的 PC 端 VR 头显,其中最大的特征就是利用双目摄像头替代人眼获取现实信息。(传统 AR 采用透明镜片直接获取外部信息——真实透视,利用摄像头获取世界信息则为虚拟透视。)

据了解,传统 AR 眼镜基本上都是采用分光镜设计,如下图所示,简单的分光镜就是 45 度角,把显示器产生的光从眼镜框反射进人眼,也同时让现实世界的光透进来。这样做简单便宜,但是镜片厚。受限于制造工艺,提供面积大的镜片成本高、良率低。

f7e0ba310a55b31936514a0344a98226cefc17c4

另一种则是 HoloLens 等少数厂商采用的光导透明全息透镜,虚拟内容从前方的微型投影仪投射到光导透镜后进入人眼,同时也让现实世界的光透进来。但同样受限于制造工艺,提供面积大的镜片成本高、良率低。

HoloLens梁剑泓告诉动点科技,目前传统光学难以解决的问题都可以利用摄像头的形式解决。而 MR 主要具有三大优势:

1、显示视场角更大。动点科技试戴易瞳的核心 MR 眼镜 VMG-PROV 时发现,视野被一块巨大的显示屏所覆盖,只有用力向左右两边查看,才能看见屏幕的边角,整个屏幕不仅可以显示真实图像,更可以叠加虚拟物体,预计最大视场角在 100 度左右。为什么说最大视场角呢?主要是为了让 MR 眼镜所显示出的物体与真实世界中的物体大小一样大(这在行走过程中至关重要),易瞳不得不对画面的大小依据实际环境进行了相关调节,实际视场角也随之减小,不过,即使如此,其视场角也要比市面上的 AR 眼镜要大。

2、可以让人们看见人眼不可能看见的东西。梁剑泓认为人眼本身就是一个摄像头,但利用人工摄像头增强人眼的能力却也是一个值得兴奋的事情。比如采用红外线摄像头,让人们在夜晚也能轻松看见。而这是目前 AR 所不可能做到的。

3、可以完全渲染黑色。传统光学透视 AR 眼镜现在还没办法渲染黑色。因为它是虚拟光和自然光的叠加。如果画黑色,用户是看不到的,只会看到后面的背景真实物体的光。类似的暗色都有这个问题。也很因为如此,即使是 Magic Leap,其公开的 Demo 视频也基本上都是在比较暗的室内。然而,MR 通过摄像头采集现实画面,在显示到屏幕前已经数字化,其可以完全解决这个问题,甚至可以在阳光强烈的室外使用。7684483153549440当然,由于 MR 采用摄像头观察世界,其也不得不面对巨大的图像处理压力。要知道,即使采用了不用对现实进行成像的光学方案,HoloLens 也特殊定制了一款高性能的 HPU 处理器,由 24 个 Tensilica DSP(数字信号处理)核心组成,它拥有大约 6500 万个 logic gates,8MB 的 SRAM 和一个额外的 1GB 低功耗 DDR3 内存。设备还有一个独立的 1GB 内存,可用于 Intel Atom Cherry Trail 处理器。HPU 本身可以处理大约每秒一万亿次计算。

“即使是目前最先进的 GPU 也不可能跑得动我们的程序。” 为此,易瞳不得已只能自己采用可编程电路 FPGA 编程写了一款专属的处理器。据了解, FPGA 芯片开发难度非常大,并不是普通人搞得定的。“现有 GPU 等处理器都不是为 AR\VR 设计的,其自然跑不动我们的程序。” 梁剑泓如此解释他们自己编写处理器的原因。

不过,易瞳的 MR 产品也并非完美。在传统 AR 眼镜中,现实画面是外部世界的光是通过光学设备穿透进来的,先天零延时零畸变。而 MR 除了刷新延时,还需要矫正因为摄像头的位置和光学与人眼不一样而产生的画面差距,先天会有延时。梁剑泓表示,即使可以优化,但这个延时仍不可能为零,“而且摄像头与人眼所见的画面也仅能达到 70-80% 左右的虚拟透明(即 70-80% 左右的大小相同)。”

也正是因为这些不成熟的因素,易瞳科技决定将还不完善的第一代产品 VMG-PROV 作为一款开源硬件投到市场中来,并向志趣相投的极客发售。梁剑泓告诉动点科技,他们希望大家一起推动这个行业。6879416_Steve-Mann-years_web_thumb易瞳 MR 所涉及的技术主要在 CTO 艾韬导师 Steve Mann 的指导下完成的,Steve Mann 任职于多伦多大学,是著名的可穿戴计算机之父。其提出了介导现实 Mediated Reality 概念。截至目前,Steve 对 MR 的研究也已经超过 35 年。如今,Steve Mann 是易瞳科技的首席技术顾问。

另据了解,易瞳科技目前具有员工 20 余人,并于今年 5 月份宣布完成了数千万人民币 Pre-A 轮融资,该轮融资由中科乐创领投,艾瑞资本跟投。此前,易瞳于 2015 年 5 月获得 Pre-Angel 和乐博资本的数百万天使轮融资。