苹果今天展示了其Vision Pro VR/AR头显。该设备由该公司自己的M2芯片提供动力,但为了对新品的大量传感器进行实时处理,苹果选择开发一种全新的处理器--它被称为R1。R1芯片将所有的传感器嵌入到头显中,以创建精确的头部和手部追踪,以及实时3D地图和眼球追踪数据。
]K'OH& o:B?hr'\ 这个专门的芯片是专门为实时传感器处理这一具有挑战性的任务而设计的,从12个摄像头、5个传感器(包括一个激光雷达传感器)和6个麦克风中获取输入。该公司声称它可以在12毫秒内处理传感器数据--比眨眼快8倍--并表示这将大大减少困扰许多其他AR/VR系统用户的晕动现象。
3+\Zom4 <G0Ut6J> <MKXFV azzG 苹果公司表示,使用所有这些视觉和传感器数据意味着它不需要使用专门的控制器,而是使用手势跟踪和眼球跟踪来控制体验。
jNI9 .45y 1gnLKf c 结合M2芯片的计算能力和R1芯片来处理输入,苹果将其设备描述为有史以来最先进的设备,并声称它申请了5000项专利来实现这一切。
@ULd~ $o.;} 苹果公司在R1处理器方面的细节不多,但我们将继续关注更多技术规格。
k8!:`jG a)*(**e$*i