(映维网 2020年06月23日)苹果在今天凌晨的开发者大会WWDC上发布了ARKit 4,而你将能通过全新的Depth API访问iPad Pro搭载的激光雷达扫描仪(LiDAR)的详细深度信息。 激光雷达扫描仪(LiDAR)内置的高级场景理解功能允许Depth API利用关于周遭环境的每像素深度信息。当与场景几何体生成的三维网格数据相结合时,通过启用虚拟对象的即时放置并将与物理环境无缝混合,深度信息可以令虚拟对象遮挡更为逼真。这可以支持应用程序部署全新的功能,比如更精确的测量和将效果应用到用户环境中。 除了Depth API,ARKit 4还带来了Location Anchoring功能和更好的面部跟踪支持。 Location Anchoring利用了苹果地图中更高分辨率的数据,可以通过iPhone和iPad应用将AR体验置放于某个世界特定点,如著名地标的旁边。它允许你在特定的纬度、经度和高度坐标锚定AR内容。用户可以在虚拟对象周围移动,并从不同的角度查看它们,一切都如同通过摄像头看到的真实对象一样。该功能需要iPhone XS, iPhone XS Max, iPhone XR或更新版本,并且只支持特定的城市。 对面部跟踪的支持已经扩展到所有搭载A12仿生芯片或更新版本的设备的前置摄像头,包括新款iPhone SE,这样更多用户都可以通过前置摄像头享受AR体验。 |
免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。