AR虚拟真的还需要3DToF传感器吗?谷歌安卓的Depth API服务

【#AR虚拟#真的还需要#3DToF#传感器吗?谷歌安卓的Depth API服务接口 , 让手机“单个摄像头”也能拍摄虚拟物体】
2020年6月26日 , #谷歌#安卓#AR core#的Depth API正式在安卓新版本上线 , 并且已经有多个第三方应用程序开始使用 。谷歌利用#AR core#中的动态深度算法 , 可以让手机单个摄像头就能实现AR成像的3D图形建模 , 而且成像图像的数据精度也很高 。
谷歌的#AR core#的Depth API服务接口上线 , 对手机行业有什么影响?
1.让手机的摄像头成本降低 。
由于手机AR成像的精度很高 , 之前#苹果#、#华为#和#三星#都使用了#TOF#相关的3D传感元件 , 实现AR深感3D图的感知和创建 。而谷歌安卓在#AR core#中提供的#Depth API#技术接口则打破以往的AR技术实现方式 , 让手机单个摄像头就能实现AR成像 , 这对国内很多中低端手机厂商和消费者来讲 , 绝对是一件好事 , 不再花更多的钱去配置昂贵的Tof传感元件 。
2.手机AR技术将更快普及
#谷歌#安卓的#AR core#深度API既然现在能够实现手机单个摄像头的AR成像 , 那么它的深度API服务接口也会让其它手机厂商对其优化和改进 , 让AR功能会有更多技术突破 , 也会变得更加实用 。而且这项技术在后续的演变过程中 , 会使人们的生活和工作变得更精彩 。
结语:
谷歌通过#AR core#深度API实现手机单个摄像头实现AR成像是一个非常进步的技术 , 不仅控制了手机的成本 , 还使手机的摄像头模组成本降低 。而且 , #AR core#深度API相对于硬件的摄像头 , 其技术的延展性会更高 , 我相信会有很多APP开发者会关注此技术的发展 , 因为AR功能能够让现实环境的数据更有意义 。
【AR虚拟真的还需要3DToF传感器吗?谷歌安卓的Depth API服务】

AR虚拟真的还需要3DToF传感器吗?谷歌安卓的Depth API服务

文章插图
AR虚拟真的还需要3DToF传感器吗?谷歌安卓的Depth API服务

文章插图
AR虚拟真的还需要3DToF传感器吗?谷歌安卓的Depth API服务

文章插图