众所周知,AR的发展离不开互联网技术的日新月异,以近两年的发展来看,AR技术与传统行业的结合还不是很完美,还处于发展的初级阶段。VR还在摸索整个市场,但效果似乎没有引起太大的反响,显得昙花一现,洋气的AR技术已然成为真正的“黑科技”。有机构预计,到2020年,AR的产值将会是VR的4倍。AR的大规模落地貌似还在探索,不过最近AR技术跟眼镜走的比较“亲密”,尤其在B市场的默契配合让人很羡慕。AR技术在游戏应用中吸足了一波粉,但并没有产生多大的价值,用户粘度不是特别高。
但随着AR技术在行业应用的提升,显示,带宽,深度学习和交互定将成为人们关注的焦点,因为这四项技术能给用户创造一种更加可信的、沉浸式的体验。AR技术蓄势待发,目前,人类已经可以实现虚拟物体与真实世界间的简单交互。举个简单例子,在真实的墙壁上放置一个虚拟的开关,通过一系列智能家居协议,可以用这个虚拟的开关控制真实的照明和空调。但要实现虚拟物体与真实世界之间的无缝集成,还有赖于光场技术和即时定位与地图构建技术的进一步发展,这个创新突破节点会出现在何时?
目前,国内致力AR整体解决方案、智能硬件以及移动端AR开发的公司此消彼长,尤其是在2016年发展的最迅猛,国内的AR技术水平也不逊于国外。
随着数字化世界的推进,人们更加渴求连接物理世界和数字世界,从而能够同时无缝地徜徉于这两个世界中。于是就有满足这一领域的企业崛起。今天大可要介绍的主角是拥有绝对实力的InfinityAR ,其愿景就是建立一个全新的数字世界,让人们能自然地在现实环境中与增强现实 (AR) 内容互动。
凭借 InfinityAR 的技术,使用基本的廉价硬件—简易摄像头和惯性传感器,就可将头显设备转换为强大的内容增强平台。我们先进的增强现实软件引擎可将个人当前的物理环境精确地呈现为 3D 数字化场景。用户因此可以将虚拟的物件置于当前的物理环境中,透过自然的手部动作或是控制器,便可以直观地与物理环境中的虚拟物件或是内容互动。
InfinityAR 的技术目前主要服务两类厂商:
移动设备硬件和穿戴式设备制造商,对于正在开发一款用于营造 AR 体验的移动或穿戴式设备的企业,InfinityAR 引擎绝对是最正确的选择。InfinityAR 强大的技术将令开发者收益,并迅速取得成效。使用 InfinityAR 引擎,可以为开发者提供一个易于使用,但功能强大的 AR 开发平台。能加速为企业的穿戴式或移动设备创建丰富的 AR 应用生态,使其在大众市场更具吸引力。最后,InfinityAR 引擎可用于价格实惠的硬件,从而为企业节约材料开支,提升竞争力和产品性能。
另一类就是应用开发者,利用InfinityAR 引擎,企业可以轻松、高效地开发先进的 AR 应用,如:工业设计,工厂应用,教育培训,医疗,新零售线下体验等应用场景,为用户提供界面极其自然且直观的丰富 AR 体验,使具有AR功能的穿戴式设备能在真正的使用场景中作为一个真正有价值的工具,进而加速产品于企业应用中落地。
InfinityAR引擎有何特别之处?
平台
我们的引擎使用非常基础且廉价的硬件 — 2D 立体摄像头,以及 IMU(惯性测量组件),能够提供:
基于用户所处的真实环境建立的精确 3D 数字化重现场景,从而可通过建立深度图像和三维重建模型,对绘制的 3D 场景进行深度理解;
影响环境及建立高品质真实 AR 体验信息:
光源、反射、透明度、阴影等;
对真实对象的识别、该对象的物理特性及其对场景的影响;
对用户在环境所处的方向和位置的持续分析,从用户不断移动的视角感知并呈现环境。
InfinityAR的引擎采用的技术
图像匹配
此引擎可满足所有其他元件最基本的需要 — 准确并可靠地识别不同图像帧(从不同位置和/或时间拍摄)中的相同点的能力。这涉及智能和多样特征抽取(使用亚象素微调)、各项特征的描述符、用于实现点匹配的智能机制,以及用于移除异常值的 RANSAC 等高端技术。
位置和方向
精确的位置和方向可用于确定设备的准确视点,这对于正确渲染场景以及诠释精确 3D 空间中的手部动作(见下文)而言不可或缺。此过程要求采用卡尔曼滤波器等技术进行数据源(IMU 和 摄像头)融合,并且需要使用单张相片后方交会法等优化技术的高效变体,从视觉信息(不再使用其他信息)中获得高精度的位置和方向数据。
真实世界数字化
此模块允许创建真实世界的数字复制,需要完美重现真实事物的位置、外观、反射性、透明度以及场景中的光源。相关数据先通过密集型立体匹配技术创建,随后应用 Structure-From-Motion(利用运动信息搭建结构)、光束法平差、SLAM 和 PTAM 以及形状分析和光线追踪等技术进行处理。
控制和姿势 NUI
此模块允许通过与虚拟对象直接“接触”以及通过姿势实现控制。这需要基于神经网络、典型手势和姿势(以便于准确定位手部以及解读手势)等手段的机器学习技术。我们使用从移动摄像头进行追踪(通过消除背景)的方法来确保低延迟。此外,基于用户行为机器学习以及当前场景结构的预测分析也被用于降低延迟。