RSS订阅 | 匿名投稿
您的位置:网站首页 > 服务支持 > 正文

谷歌Pixel 4系列支持实时3D捕获技术方案逊于苹果

作者:habao 来源: 日期:2020-5-7 13:10:22 人气: 标签:苹果服务与支持

  手掌纹路图解2020年4月13日消息,近日,谷歌演示一款应用程序,可以在内置于Pixel 4和Pixel 4 XL手机中的立体深度传感器中的uDepth,实时地显示可视化点云。据悉,uDepth利用机器学习来识别用户,防止,支持包括处理照片色泽度,基于场景的分割技术,背景模糊,人像特效,以及3D照片等多种功能。

  谷歌方面表示,谷歌游戏商店中,或不提供相关应用下载支持,用户界面也将尽可能简洁。用户选择左下角的模式按钮,可以切换热度和颜色的可视化不同模式,点击、拖动可视化可更改透视图。

  换句话说,用户只能在Pixel 4和Pixel 4 XL手机上使用该功能,此外,该平台技术可在其他领域发展提供支持,如机器人技术。在这些领域中,精确的深度传感器是避免障碍物的关键核心硬件,同时,其可导致计算机视觉技术的进步,这也是机器人过程自动化以及其他众多应用的核心技术。

  uDepth软件负责人Michael Schoenberg以及谷歌研究硬件系统负责人Adarsh Kowdle说,“对开发人员和用户来说,能够确定场景的3D信息,称为深度感测,是一个很有价值的工具。基于RGB的经典立体深度感测技术在计算上很昂贵,特别是,纹理较低的区域中受影响,在极低的光线条件下则完全失败。鉴于,Pixel 4上的面部解锁功能必须在中高速运行,因此需要采用另一种方法。”

  据悉,近期,uDepth的API接口,通过谷歌Pixel 4系列手机应用中的社交深度设置渠道使用。uDepth有两个红外IR相机、一个红外模式投影仪、Pixel 4系列专用神经芯片PixelNeuralCore。如生成具有深度的帧,它将先由一个摄像头捕获图像中周围的区域,再从第二个摄像头中查找图像相似区域,将红外相机投射到两个摄像头均检测到的区域上,以使得低纹理的区域更易识别。

  此外,为匹配区域,uDepth通过比较不重叠的图像来编译深度,机器学习利用亮度以及邻域信息再每帧不少于1.5毫秒的时间内调整不正确的匹配信息。考虑到,硬件摔落、出厂校准导致的差异,uDepth会评估深度图像查找错误进而校准,并在出现问题时从场景上生成参数。

  中国软件网认为,无论是谷歌,还是苹果近年均在摄像头上大做文章。前不久,苹果将华为、OPPO、vivo等手机厂商广泛应用的ToF(飞行时间)技术升级为激光雷达技术。通过雷达发射器发射光波,遇到物体反射,记录反射到达接受器的时间,呈现场景、物体的不同深度,进而绘制3D图像。

  可见,苹果致力于解决物体3D图像的精度问题,事实上,激光雷达技术一直应用于自动驾驶领域,苹果升级ToF技术是一项重要创新。对比谷歌此次的uDepth,两者基础原理相同,均为通过AI、AR等技术解决立体图像问题。但从谷歌方面的描述来看,依然采用的是红外技术,与苹果技术解决方案相比,稍显逊色。

  凡本网注明”来源:中国软件网()”的所有作品,版权均属于中国软件网或昆仑海比()信息技术有限公司,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

  任何行业、转载、摘编中国软件网()刊登、发布的产品信息及新闻文章,必须按有关向本网站载明的相应著作权人支付报酬并在其网站上注明真实作者和真实出处,且转载、摘编不得超过本网站刊登、转载该信息的范围;未经本网站的明确书面许可,任何人不得复制或在非本网站所属的服务器上做镜像。海南三亚旅游带什么特产比较好http://www.uzai.com/gotour/lywd/4318.html,

  

读完这篇文章后,您心情如何?
0
0
0
0
0
0
0
0
本文网址:
下一篇:没有资料