iPhone的未来是什么?( 二 )


在刚刚结束的发布会上 , 苹果宣布推出AirPodsPro2 , 配备H2芯片 , 将具有个性化空间音频 , 根据每个用户的耳朵造型去定制个性化的空间音频 。
2020年 , 新发布的IOS14系统推出了空间音频功能 , 给Airpods产品的销售又添了一把火 。 它把听音乐的体验提升到了新高度 , 带来更强的现场感 。 用户在享受这种体验时是否会想到 , 这是苹果公司在为未来实现“沉浸感”的AR设备打造听觉基础 。
在元宇宙概念骤然火爆之后 , 一度沉寂的VR/AR/XR业界又看到了希望 , 争相抢夺元宇宙的入口 。 与Meta看中VR(虚拟现实)不同 , 苹果认为AR才是未来 。
根据目前的报告、专利申请和已发布代码 , 数百名苹果公司的员工正在加紧构建两个独立的硬件平台 , 该平台将运行一个名为realityOS的苹果操作系统 。 第一个是头显设备 , 第二个是眼镜 。
一般来说 , 用于VR和AR体验的主要设备可以分为三类:笨重的室内专用VR头显;笨重的室内专用AR头显;看起来像普通眼镜的日常AR眼镜 。 前两个类别将提供令人兴奋、高质量的体验 , 但不会成为大多数人生活的核心 。 可以在所有社交场合全天佩戴的AR眼镜 , 才可能取代智能手机成为人们的核心设备 , 在10年内对我们的工作和生活产生重要影响 。
分析人士预测 , 苹果公司的头显设备预计于明年发货 。 这款硬件将像PC一样强大 , 而且价格昂贵 , 据估至少2000美元 , 并将配备两个8K显示器 。 镜片将配备传感器 , 用于映射3D空间 , 并监控用户的身份、视线等因素 。 空间音频将有助于创造虚拟物体存在于物理空间的错觉 。
而眼镜产品看起来接近普通眼镜 , 并支持处方镜片 , 可能会在2025年发货 。 最终配置信息目前还很少 , 苹果公司可能尚未确定其最终规格 。
彭博社的马克·戈曼(MarkGurman)和分析师郭明錤都预测 , 苹果还在构建一种XR(混合现实)设备 , 可以同时提供AR和VR体验 。
那么 , 上述这些设备与iPhone有什么关系呢?iPhone将成为这一切的中枢 。 尽管AR终端预计将作为独立设备运行 , 但它运行的应用程序和服务可能也要依靠iPhone操作 。
这种趋势已经显现 。 根据研究机构CounterpointResearch最近发布的报告 , 自2010年以来 , iPhone在美国的使用量首次超过安卓手机 。 分析认为 , iPhone的畅销绝不仅仅是因为iPhone自身 , 而恰恰是因为它是连接AirPods、AppleWatch、AppleTV+、AppleArcade , 甚至iPad和Macbook的完美终端 。 随着苹果生态系统的进一步强大 , iPhone作为超级终端的地位会继续强化并持续推动其市场占有率长盛不衰 。
更先进的人工智能
回到手机本身 , 从当前iPhone内置的技术中 , 也可以看到苹果公司的想法 。
随着他们更深入地推动AR , LiDAR可能会继续保持重要地位 。 但是 , 目前的LiDAR系统不够复杂 , 无法实现苹果在AR上的雄心壮志 。 长期研究苹果的分析师吉恩·蒙斯特(GeneMunster)说 , 现实世界的映射需要更准确 , 否则无法获得AR体验 。
即使LiDAR提高了iPhone的深度感应能力 , 但仍然需要由手机的处理器来理解所有这些数据 , 所以处理器必须保持持续升级 。 iPhone14Pro系列把芯片升级到了A16仿生芯片 , 拥有160亿个晶体管 , CPU提升40% , 功耗降低20% 。
此外 , 苹果希望用人工智能为iPhone等产品提供更多关于用户及其周围环境的背景 。 目前 , 苹果手表已经使用人工智能和从传感器收集的数据跟踪睡眠 , 并提醒洗手时的注意事项 。 最新的AppleWatchSeries8的车祸检测功能 , 也得益于机器学习的训练 , 对于多种车型、类别的车祸实现精准检测 。 iPhone14系列也支持与AppleWatchSeries8相同的车祸检测 。 iPhone14Pro系列的相机则通过算法实现了两倍变焦 。 而AirPodsPro2支持自适应通透模式 , 通过每秒48000次的计算带来更出色的自适应通透效果 。