如何从高层次上了解苹果AR头显Vision Pro

多年来,关于苹果可能进入ar/vr市场的传言一直不绝于耳。虽然其他公司推出的头显评价褒贬不一,但它们并没有引起消费者的广泛采用,许多业内人士都乐观等待着苹果公司发布头显。
最近,苹果公司在wwdc23上发布了苹果vision pro,这是该公司首款“空间计算机”。这款苹果的新产品充满了全新的技术创新,使其与过去的头显设备区别开来。这篇文章将从高层次上了解vision pro,并讨论为该公司的第一台空间计算机提供动力的芯片。
vision pro:高级概述
apple vision pro是一款混合现实头显,这意味着它可以同时作为vr头显(完全沉浸式)和ar头显(部分沉浸式)使用。谈到apple vision pro,我们可以讨论的技术有很多,但由于是电子工程师,我们将更关注硬件。
该设备采用了由复杂硬件支持的无数传感器。为了解用户周围的物理世界,该头显配备了一系列传感器,包括两个主前置摄像头、四个朝下摄像头、两个侧向摄像头、一个3d摄像头和一个激光雷达扫描仪。为了与用户的眼睛接触,该产品在设备内部配备了一系列红外摄像头和led照明器。
vision pro引入了两个处理器来处理这些传感,同时支持vision os,这两个处理器分别是m2和全新的r1。在视觉上,每只眼睛都有一个定制的mcro-oled显示屏,每只眼睛的分辨率都高于4k电视。
微软的holo lens或meta quest等竞争对手将硬件完全包含在头显中,而苹果vision pro的电池与头显是分开的。该设备的电池放在用户的口袋里,通过usb线连接到头显上。通过将电池从耳机中分离出来,苹果公司使设备更轻,并防止其过热——这两个都是ar/vr头显的常见问题。
r1芯片
迄今为止,ar/vr头显面临的最大障碍之一是,由于处理数据和视觉数据之间的延迟,用户会感到恶心。苹果公司声称已经用其新的内部r1芯片解决了apple vision pro的这个问题。
该公司没有透露关于r1芯片的很多细节,但该芯片已经被证实是苹果定制的芯片解决方案,专门用于传感器处理和融合。据苹果公司介绍,r1同时处理来自12个摄像头、5个传感器和6个麦克风的输入,延迟极低,消除了感知和体验数据之间的滞后。据说,r1还能在12毫秒内将新图像传输到用户的眼睛,比人类眼睛眨眼的速度快8倍。
r1与apple vision pro中的apple m2 soc一起工作,其中m2负责非传感器计算的繁重工作。m2最高可实现15.8 tops的ai计算,内存带宽达到100 gb/s。
就是它了吗?
长期以来,ar/vr一直被吹捧为潜在的下一波计算浪潮,但到目前为止,还没有一家公司生产出能让其成为现实的产品。很难说苹果的vision pro是否会改变ar头显的发展轨迹,但如果曾经有一家公司拥有足够的资源、精神和技术来实现这一目标,那一定是苹果。


如何基于亚马逊云科技LLM相关工具打造知识库
基于MC9S08Lx设计的超低功耗MCU开发技术
在二氧化硅玻璃上快速制作大面积凹面微透镜结构
高通5G芯片多层级市场布局 旗舰特性下沉策略在中端市场发力
三极管系列明细列表
如何从高层次上了解苹果AR头显Vision Pro
【全志R329-NPU助力】Maix-Speech为嵌入式环境设计的离线语音库
基于双功能电能计量IC实现三相电表的应用设计
ch32v103应用教程 ch32v103c8t6兼容 ch32v103c8t6烧录器
除了越卖越贵 2017年智能手机市场还会有哪些新趋势?
OCR护照识别系统是什么?在实际应用中有何亮点
双星系统原行星盘轨道平面严重倾斜
单片机控制摩托车点火器的设计与制作
医疗物联网飞速发展,医疗大数据迎来新机遇
电工仪表使用注意事项
dos是什么意思_dos命令是什么?
设备运营化 物联网的核心商业模式
美国NFS宣布将对阿雷西博天文台望远镜进行拆除
号外!号外!2017年春节红包怎么抢?支付宝新玩法出炉
哪种A/D转换器适合我的应用