零字节资讯网2021年12月19日消息:

苹果AR专利:基于眼球追踪+肢体动作追踪实现更准确的AR操控

苹果希望使真实物体和苹果AR物体之间的连接无缝化,这样当用户点击一个特定的虚拟控件时,系统每次都能正确地进行操作。许多苹果AR专利和专利申请都与呈现给用户的东西以及它们可以做什么有关。因此,在一些例子中,苹果希望使现实世界中任何物体任何表面都能进行触摸控制。

不过,所有这些都需要准确性。当用户看到一个虚拟物体并认为他们已经拿起了它,苹果AR必须知道这一点。它必须确切地知道这一点,这样它才能在新的位置上为虚拟物体制作动画。“基于肢体追踪信息和眼球追踪信息的用户控制空间选择器定位”,是一项新披露的苹果专利申请,它提出使用两种不同的方法来精确定位用户的触摸位置。

苹果在专利当中表示,目前AR应用没有提供一种机制,来准确地确定虚拟物体和用户控制器之间虚拟接触的空间位置,目前的应用程序也没有提供一种机制来准确地确定虚拟接触发生的时间。一些系统利用肢体跟踪来估计用户的肢体相对于虚拟物体的位置,然而,由四肢跟踪提供的估计是不准确的,因此关于用户是否在选择虚拟物体的评估也同样是不准确的。

目前四肢追踪可以通过手套内的加速度传感器来完成,但即使如此,它仍然是近似的。苹果希望采用一种四肢追踪器,但也要用眼球追踪来补充。苹果在其 “苹果眼镜”的专利中广泛使用了眼球追踪,而这项专利申请并没有详细说明它的工作原理。相反,它显示了眼球和凝视跟踪如何协助对用户的手或手指的位置进行精确的空间计算。

根据这个建议,几乎所有的表面都可以被用来显示任何控件。显示一个虚拟控件是一回事,确定用户是否触摸了它又是另一回事。

苹果认为你伸手拿起一个虚拟的杯子,或者你想按下一个虚拟的按钮,你很肯定是在看它。这不一定是事实,但在绝大多数情况下,当你的手指走向某个东西时,你的眼睛就在看这个东西。根据这一思路,几乎所有的表面都可以被制成显示任何控制装置。但是显示虚拟控制是一回事,确定用户是否触摸了它是另一回事。因此,苹果公司建议使用肢体追踪,但在确定一个物体和一个用户彼此之间的关系时,使用两个系统。它利用了四肢追踪功能和眼球追踪功能的加权组合。

苹果AR不是简单地加入眼球追踪信息来使系统更准确,而是确实要对信息的组合进行加权,因此不太可能出现四肢追踪比与眼球追踪结合时更准确的情况,比如当眼球追踪数据显示用户正在看周边的时候,电子设备会放弃四肢追踪信息,这可能表明用户在那个时间点很可能不想选择一个虚拟物品。

来源:青亭网

1
AR

发表评论
感谢阅读,但此资讯的底层逻辑还需:
从和田玉手镯到易经,推演真相与未来


点击上面零字节资讯网相机的圆圈
生成这篇文章的奇异、神秘的海报
然后将海报保存图片收藏,可发朋友圈
本文来自网络,不代表零字节网立场,
转载请注明出处:零字节网(0b.cn)

此文由访客“中国玉王”发布
“中国玉王”发布的所有文章
“中国玉王”提供的交易链接

我要在零字节网做自媒体, 发布内容

发表回复

联系我们

联系我们

18999110818

在线咨询: QQ交谈

邮箱: 515910221@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

玉王手镯总汇 手镯检索 中国玉王易经
  和田玉手镯三十六计-三十六策技能干货
钟小玉同学