第两百五十九章 AR

类别:言情小说       作者:花花小君     书名:这个吞金兽不好养
    当然了,话说回来,新晨科技在之前的vr与ar的发展讨论中,感觉这两个的未来前景很明显。
    当然了,vr要发展,ar也要发展,所以新晨科技现在一片欣欣向荣,ar眼镜也有潜在的发展路线。
    这个ar新晨科技自然而然也是仍然把它分到三个时间段去讨论。
    当然了,这是ar眼镜,所以并不会涉及到手机ar的形态。
    对于这个看好的未来曲线,那也一样,还是三到五年的硬件局限期。
    在之前说过三到五年内,即便出现硬件新技术突破,它也无法从实验室走向影响全球市场,因为它还要考虑小型化、量产化、降低成本等实际问题。
    所以,在想到三到五年年的趋势时,其实不太用考虑新技术突破的问题。
    对vr来说,所需的技术其实都已经成熟。但是,反观ar,目前已知的硬件技术,都没有一种是可以让大众日常舒适佩戴的——能到80度fov的,整机体积也大。体积小的,fov又只能到50度左右。
    基于前面的理论,在未来三到五年内,能够上市的ar硬件的配置可能都超不过这个标准。
    既然有这个限制,这样的ar眼镜能做什么?
    这要把c端和b端分开看。
    对于c端来说,大体积的设备肯定不可以。
    比如微软 hololens2,这是微软新出的 hololens 2代ar眼镜,这样的体积,用户是不可能戴着上街的。所以只有小体积的 50 度fov的设备是有可能在c端使用的。
    但50度fov决定了它只适合做简易的信息提示功能,比如说消息、天气、导航、视频通话。
    它最大的功能就是可以帮人们解放双手。
    如果只有这些有限的信息,有多少人会愿意为此在鼻梁上架一个眼镜?
    更何况,这个眼镜,跟普通眼镜的佩戴体验要差几个量级。
    可能有人会说,ar眼镜还可以用作扩展大屏看电影、多窗口显示办公吧。而实际情况是,现阶段的ar眼镜的透光式设计使得它的色彩表现度比较差,当在稍微亮一些的场景下使用时,背后的光线就会透过来让人没法看清屏幕。
    还有一个方向就是玩游戏。
    magicleap 在这个方向上投入了很多资金,也产出了不少游戏。且不说ml的眼镜体积体积巨大的问题,用ar眼镜玩游戏,只能说还处于“噱头”阶段,就是初次玩的时候,感觉效果很惊艳,但实际上可以重复玩的动力很少。
    近期也有新闻称,某游乐场引进了两千套ar眼镜,做线下虚实结合的游戏项目,这种严格来说属于b端的场景,也是一次性体验。
    既然ar眼镜三到五年内都很难扩展到游戏和视频方向,那在c端市场都很难流行起来。
    需要说明的是,这个论断里有个不确定因素就是苹果公司的ar眼镜。
    有消息称,苹果公司在未来会发布ar眼镜。考虑到苹果公司一直是非常善于用已有技术打造超出人们预期的产品的公司,比如大屏触摸的 iphone,iwatch,airpods无线耳机,已有的电子消费品类放到苹果手里,都会大放光彩。
    届时,虚拟扩展屏目前的问题,可能会被苹果工程师解决掉。
    而苹果近年来在arkit上的努力,也会使得三年后ar内容生态上有所准备,最终可能把ar眼镜在c端流行的时间往前推一年半载。
    但是也就这样的程度了。
    基于 apple arkit 的ar应用,再来看b端。
    和c端不同,在劳动场景下,使用者常常双手已经被占用,这个时候,如果能及时方便地获得一些信息,无疑会提高工作效率。
    佩戴一个大体积的眼镜设备也是可以接受的。毕竟,很多工作场合,人们本来就要佩戴的一些附件,比如头盔、耳机、防护面罩等。
    所以,在b端的场景下,ar眼镜的弊端就被忽略了。
    而近两年年,ar眼镜也主要就是销往了b端,包括工厂、部队(美联邦军就采购了微软的hololens眼镜来武装士兵)。
    至于ar远程辅助,在三到五年内,ar眼镜很难在c端真正地使用起来。如果苹果出奇招,那可能在三年后,开始在一些先锋玩家圈里会流行,成为时髦的“玩具”。
    但是远达不到智能手表的量级,也无法超过vr在c端的体量,也就是新的游戏机平台。
    而b端,则现在就已经看到了很多实实在在应用场景,近五年内会有不少的商业机会。
    可以假设,苹果在未来成功地推出了一款中等fov的轻便ar眼镜,这样的ar眼镜在几年内会达到什么样的市场规模呢?
    首先,在十年内ar眼镜也无法达到日常长时间佩戴的舒适性和便利性。
    这里说的长时间,特指吃喝玩乐过程中都会佩戴,而非每次佩戴一两个小时这种。
    华国的近视眼人数超过四五亿,大学生百分之九十都是近视眼。对于已经戴眼镜的用户,想要佩戴ar眼镜,需要额外再搭配镜片。
    这会使得体验降低一个量级。
    所以,基于以上考虑,ar眼镜在未来十年内,即便被苹果推到了c端,它应该也会是局限在特定场景下使用。
    比如上面提到的:游戏、短时间的办公、观影等。
    典型的场景可能是,用户打开电脑,同时带上ar眼镜,然后眼前出现了n个扩展屏。
    或者用户回到家,想看电影,便带上ar眼镜,一边看悬停在空中的大屏幕,一边忙手上的事儿。
    还有虚拟的扩展屏幕,至于在各种ar宣传视频里那种,用户走在路上,一抬头,眼前的现实世界中融合显示了很多虚拟物体,十年内显示技术、网络传输上应该已经没问题,但是内容生态上是需要一个慢慢的建立过程。
    而手机ar会助力这个过程,但是它更多的是在游戏娱乐领域增加ar内容,在生活信息领域,则需要更多时间。
    所以说,十年内,它会是一个会一定程度上提升效率的工具,一个多媒体终端,但是并不是必要的设备。
    从性质上,可以类比智能手表。
    iwatch 2018年销量在两千多万部,占智能手表总销量的百分之五十,可以这样子类比一下的。
    而二十年,可以假设,ar眼镜已经达到了近乎完美的形态——50g以内的重量、80度以上的fov,而且能实现精准快速的slam定位和物体识别。
    再加上人类的近视问题已经解决,或者ar显示模块可以贴在普通眼镜镜片上,然后ar内容都是互联同步的。
    增强显示的内容已经达到了以假乱真的地步,完美的贴合真实世界场景,无论是遮挡还是光照。
    在这样的前提下,ar眼镜就已经像普通眼镜一样,可以日常随身佩戴,毫无压力。
    届时的ar眼镜,也会不在局限在显示信息和扩展屏,经过十多年的积累,现实世界中会有大量的ar标签存在于各处,人们佩戴上ar眼镜四处走动时,可以看到丰富的内容。
    这样子人们生活中对信息的掌控力会进一步提升,便捷性会极大提升。
    因为ar内容都是互联互通的,所以,人们可以真正的“融入”到电子世界,打破虚拟和现实的边界,直接操作虚拟的物体,会出现很多我们现在很难想象的炫酷的虚实结合的“玩法”。
    比如,你可以从手机中,“拎”出一个文件,然后递给你的朋友,他接过来后,直接“放”到手机里,完成文件的传递。
    你也可以在看电视时,看到一个花瓶的广告,伸手把花瓶从电视中“拎”出来,摆放在桌子上看效果,然后下单购买。
    看似简单自然的操作,背后整合了手势识别、数据网络同步、slam等先进技术。
    给朋友加上虚拟舞台灯光,周围所有联网的用户都可以看到。
    当ar达到这种程度时,它的销量终将达到手机一样的规模。
    但是,它还是无法替代手机。毕竟,你不能在ar眼镜上方便的玩《王者荣耀》不是?
    所以说,在二十年后,ar和vr都会会有长足的发展。
    但是两者的性质却是不同的。
    ar本质上还是信息显示终端,只不过它打破了现实和虚拟之间的界限,会使人们之间的沟通更加顺畅。而vr,则是一个新的虚拟世界平台,它对人类社会的影响,对人们生活方式的影响会超出想象。
    虽然在二十年的尺度上进行预测,往往容易被打脸。
    但是,整体的趋势应该是差不多的,只不过在最终时间点上会有些出入。
    无论是ar还是vr,在未来几十年里,都有着无数的商业机会等着我们去发掘。
    就像1999年,人们眼里的互联网,都是一片新的天地。
    而且最近随着vr行业的回暖,也会有人想做vr,这个是可以的,只需要计算机技术就可以了。
    要有设备端。
    什么意思呢?
    就是首先,是vr眼镜平台相关的工作,这里面涉及到的计算机软件技术有以下三大块——
    第一自然就是显示技术了,目前的vr设备有三大类:外接式头显,包括pcvr 和 psvr、一体机和手机盒子。
    这三类vr眼镜用到的操作系统,都是在现有计算设备的系统。所以,从系统层面,并没有新的技术内容。但是到了显示层面,它跟现有的计算设备比却复杂了一个量级。
    当游戏引擎渲染出一个vr画面后,并不能像pc或者手机那样直接上屏,它还需要经过反畸变、合成、位置预测等过程,才能贴到屏幕上。这就需要很多计算机图形学和操作系统相关的知识。
    另外,为了进一步提升渲染效率,还需要引入注视点渲染技术。
    而为了能够解决 vac辐辏冲突问题,未来还要引入光场显示等技术,这些也都需要计算机图形学相关的知识。
    第二自然就是定位技术,vr中图像的生成,依赖于定位的准确性。这就又涉及到了两大块技术:头部定位和手柄定位。
    从技术路线上,定位技术可以分为下面三类,外置激光定位,也就是使用外置的激光发射器扫描空间,通过计算头盔和手柄接收到激光信号的时间差来推导出设备的空间坐标。
    它的特点是:速度快,位置准,缺点是成本高。htc vive 便是用了此种方式。
    然后就是外置视觉定位,通过外部放置摄像头,拍摄头盔/手柄上的光点,来推算出设备的位置,oculus rift红外线和 psvr可见光都是使用这种方式。
    想要准确高效地检测出光标点,就需要图像处理、计算机视觉的知识。
    最后才是内置视觉定位,通过头盔上的摄像头拍摄画面的变化,来估计头盔运动。微软wmr、quest使用的是这种方式。它的优势是不需要额外架设设备。但是,定位精度上,比激光定位要差一些。
    为了能根据画面来推断相机的运动,也是需要计算机视觉相关知识。
    比如quest头盔上的有四个定位摄像头,insideout 头部定位对应的手部定位稍微复杂点,它又分为电磁手柄定位、超声手柄定位和视觉手柄定位三种方式。前两种一般是硬件直接给出定位坐标,最后一种仍然是基于计算机视觉,只不过摄像头从外置摄像头换成了头盔上的摄像头。
    第三就是识别技术,在一些特定的场合,为了能够更精准地反映用户的动作,还需要对人体的各种状态进行识别。
    包括:手势识别、身体姿态识别、表情识别、眼动追踪。手势识别有两个技术路线:一是需要佩戴手套,靠硬件来识别,二是基于计算机视觉来识别。
    前者优势是精准,后者的优势是使用简便。
    身体姿态识别跟手势识别类似,也是有佩戴硬件和视觉两套方案。但是现在常用的还是基于硬件。而基于视觉的姿态识别,一般还是用在监控场景中,在vr中比较少见,其准确度也比硬件方案差很多。
    还有眼动追踪则主要是计算机视觉方案,现在也有眼部肌电信号来进行眼动追踪的方法,但是只存在于实验室里。