苹果透过 LiDAR 开启「扩增实境」领域大门AR眼镜随后就到

80酷酷网    80kuku.com

随着现在的生活水准越来越高,大家购买苹果的产品也是越来越多了,那么苹果的产品当中有很多的功能大家是未必知道如何去使用的,当然也包括要去多了解苹果新出的新功能之类的,那么今天小编就收集了一些关于苹果透过 LiDAR 开启「扩增实境」领域大门AR眼镜随后就到的一些信息来分享给大家,欢迎大家接着往下看哦。

苹果在 2020 年首波新品中,率先替新款 iPad Pro 加入双镜头与全新 LiDAR (光学雷达扫描仪),在外型依旧延续採用前一代外观和萤幕,处理器A12Z 也仅针对 GPU 提升,反而不少人被新款巧控键盘给吸引住,从里面也让我们看见苹果对于 iPad Pro 定位与未来方向有了重大改变,iPad Pro 将会是第一款拓展AR扩增实境设备。

几乎每一代苹果产品都会有个最亮眼功能,今年 2020 款 iPad Pro 最重要和主打功能就是「LiDAR」,也许这块镜头模组就像是 iPhone 11 Pro 造型,苹果在多年 AR 布局后,在 2019 年 WWDC 上替 ARKit 更新至 3.5 ,今年先是替 iPad Pro 加入 ToF(Time of Flight , 飞时测距),随后 iPhone 12 Pro 系列也会加入,软硬体都到位后,那么相信 AR 领域方向也就从今年开始拓展。

两大阵营 ToF 差异性

我们所知道苹果不会贸然使用一个不成熟技术,也许有人会认为安卓手机早已经有 ToF 相机,苹果到现在才加入,也许又会被不少人认为那有什么好得意?

到现在安卓阵营多数还无法确定未来发展,甚至小米集团副总裁兼红米品牌经理卢伟冰认为:「ToF小米技术预研早就ready认为是个噱头、没啥用,骗用户瞎花钱。」,但荣耀产品副总裁熊军民反驳认为:「这是你解决不了问题,也不能认为别人也没能力,一个公司可以没有自己的技术,做整合也不可耻,但是要指责别人的努力和进展,变成反技术公司就不太合适。」

实际上小米是因为ToF传感器分辨率低、功耗大、不成熟最终导致无法量产;连同 Google Tango 系列也早已经加入结构光(Structured light)和ToF技术用于 AR 功能,不过因为体验不佳和生态过早,最后表现不佳。

然而其实 Google 阵营手机与 Apple 手机所用的 ToF 模组也不太ㄧ样,Android 多数都是採用iToF 模组,而 iPad Pro 这次搭载的是 dToF 模组,两者差异可透过下方表格了解:

iToF vs dToF模组模组iToF
indirect time of flightdToF
direct time of flight原理间接飞行时间法直接飞行时间法优势原理简单
系统设计难度低速度快功耗低
抗干扰能力强(光源)
无需模数转换
时间採样在皮秒、纳秒级缺点精準度与解析度低
精準度会随距离明显下降
功耗随距离会明显增加
容易受到外部光源干扰
模拟电路价格
标定相对複杂晶片和系统设计难度高

如今在三星、华为、OPPO、荣耀、vivi厂商也都替Android 手机加入 ToF 镜头,但目前面临最大的问题解析度低、功耗高、容易受干扰,多数只用于人脸特效、美颜、散景和暗部对焦,在3D 建模和 AR 功能则是还没有广泛被利用,也不太明显,最主要是因为 Google ARCore 发展比较缓慢、硬体需求高,最后造成大家各自研发,对于一般用户没有高度使用需求,比起 Apple ARKit 差异极大。

iPad Pro 搭载 LiDAR 开启 AR 大门

在苹果替推出 2020款 iPad Pro后,可能感受不出来有明显改进,镜头额外加上一颗超广角镜,双镜头规格其实就与 iPhone 11 完全类似,处理器升级至A12Z反而被认为是在挤牙膏,导致这次升级确实不明显,导致受到普通用户重点变成巧控键盘设计上。

如今苹果不管是在新闻稿或是官网 iPad Pro 介绍,在 LiDAR 功能介绍就佔了不少页面,开头更写着「它的专业级相机,可转变真实世界的实境。」暗示将透过镜头实现 AR 实境,那么可以确定 AR虚拟实境是未来几年最重要的发展方向。

比较令人感到兴奋的是今年开始有大动作,从 WWDC 2019 发表会上公布 ARKit 升级后,率先替 iPad Pro 新加入一颗全新 ToF 模组,并称之为「LiDAR(光学雷达)」,不论在室内或室外,都能利用直线飞行时间,来测量最远达 5 公尺的光线反射,替 AR 扩增实境带来更不一样体验,整体在软硬体都全到位后,那么 AR 也将会全速发展。

不过LiDAR到现在可能大家还有点模糊,不太懂这玩意到底是怎么运做,底下告诉大家:

可以将 ToF 视为蝙蝠,能够在一个看不见的环境中,利用超音波回声侦测环境和猎物,其实原理就像是 LiDAR 技术。

但是 ToF 并不是透过超音波,而是利用光线射出后计算反射时间,我们知道光线射出到不同物体上,深度都会不同,回来的时间也就会不一样,这样就可以準确得知深度,当然苹果的 LiDAR 比起安卓dToF 相机更为複杂和先进技术,相对在深度上就会获得更準确资讯。

苹果还特别强调光学雷达扫描仪可以光子等级运作,以奈秒(1秒的10亿分之1)的速度从光子层运行扫描,甚至被 NASA 运用在接下来火星登陆任务上,意思为即时测距系统已经设计到非常完善。

AR到底能用在哪些地方?

那么 LiDAR 真的可以改善 AR 体验吗?或许大家可以透过 iPhone 玩看看现有内建的 AR 应用「测距仪」App,如果有使用过会发现到,在量测空间、家具等物体的长宽高数值时,会发现有时候定位的线会跑掉,那在搭载 LiDAR 扫描仪后,就不会出现这类情况。

主要是因为 LiDAR(光学雷达扫描仪)与镜头、动作感测是和 iPadOS 架构同时实现软硬体运算,能够快速测量深度,如画面有人遮住或动作时,就不会导致人与背景之间出现明显白边或马赛克情况,AR体验效果就会更加明显。

同时苹果也已经预告「测距仪」App 还会加入「尺标显示方式」,可进行更精细的测量,并可让使用者储存所有测量的列表并搭配截图,以供日后使用。

苹果已经在 AR 深耕多年,甚至还特别规划一个独立页面来介绍AR(扩增实境),在官方提到一句话:「扩增实境 (AR) 是一种运用科技的全新方式,改变你工作、学习、游戏以及与周围一切联繫的方式。而这,还只是个开端。一个全新世界,欢迎你加入。」

看完这句话,非常确定苹果已经定下 AR 领域发展方向,将会运用于「工作、学习、游戏、生活」四个层面上,并不像是 Android 只是单纯用来美肌让人感觉摸不着前方的路。


看完以上官方影片后,可以让我们清楚 AR 非常适合应用于室内设计,影片中更展示透过《Shapr3D》测量深度技术,可以将画面拍摄起来后立即转成3D场景模型,大量减少建模时间也能依照客户要求做及时修改。

甚至还可以透过《IKEA Place》先挑选家俱,可以藉由 AR 来摆放合适的沙发、桌子、地毯、檯灯等,能避免买错家具。

在游戏运用上,也是能够让游戏场景与实际场景叠合,让画面看起来就更逼真,在这部分则是可以看见《Hot Lava》游戏可以将热岩浆与真实场景进一步结合,就感觉真实环境有热岩浆。

iPad Pro 和 iPhone 先开路, AR 眼镜随后就到

也许 iPad Pro 早该在去年就推出,不过被延迟到了今年才发表,至于延迟原因不太确定是什么造成,但苹果为什么会选择 iPad Pro 当成首款 LiDAR 机种?

根据疯先生的理解, iPad Pro 运算、GPU速度非常适合用来生产/测试 AR 应用工具,也就是这款产品是目前让开发者研发 AR 最佳产品,毕竟目前 AR 市场最需要的就是要有大量的厂商投入开发应用和游戏。

接下来下半年 iPhone 12 Pro 系列也在 iOS 14 代码中,被证实会搭载 LiDAR 扫描仪,从这些步调来看, iPad Pro 和 iPhone 12 Pro 算 AR 开路先锋,据传苹果也已经布局好未来三年新品,将于 2021 年至 2022 年也将会推AR 穿戴式头盔,直到 2023 年才会额外推出一款轻型 AR 眼镜。

实际上看起来也非常合理,毕竟这颗 LiDAR 扫描仪直接嵌入至头盔和眼镜内,运算则是由 iPhone 处理,搭配 AirPods 当成耳机,即可够让用户不需要透过iPad 或 iPhone 萤幕,藉由眼睛看见虚拟实境世界,精準判断周围3D深度、精準计算画面、物体位置,更能打造完整 AR 体验。

那么你觉得哪个新技术能够改变现在手机产业?是以弯曲萤幕吗?还是AR眼镜会比较有机会?

两年~三年后,如果再回来看这篇与这句「你的下一部电脑,非电脑。」和「它的专业级相机,可转变真实世界的实境。」相信会更有感。

如喜欢这篇文章教学的话,后续也想了解更多 Apple 资讯、 iPhone 、Mac 隐藏 3C 技巧,欢迎追蹤?疯先生 FB 粉丝团、Telegram、MeWe、Instagram以及?订阅YouTube频道,将会有更多非常实用的技巧教学分享给大家。

分享到
  • 微信分享
  • 新浪微博
  • QQ好友
  • QQ空间
点击: