iPhone的未来是什么?( 三 )


CounterpointResearch的高级分析师哈尼西·巴提亚(HanishBhatia)举了一个例子 , 来说明iPhone未来在人工智能上的改进 。 他设想的未来是 , 苹果手机可以观察一个人的习惯 , 以了解手机的主要用户或家庭成员是否正在使用该设备 。
“你使用手机的方式 , 你的智能手机从什么角度倾斜……你是用特殊的压力按压 , 还是只用指甲或类似的东西敲击它?”他说 。 所有这些都是不同类型的行为 , 对用户来说非常独特 。
这个例子并不一定反映苹果的实际计划 。 但随着人工智能以及激光雷达和超宽带等技术的进步 , iPhone将具有更多的空间感知能力 , 就很容易想象出上述场景 。
在今年6月的WWDC2022大会上 , 新发布的iOS16里已经新增了一些与人工智能相关的功能 。 比如 , “实况文本”功能支持对视频中的文字进行高效识别 。 另外 , 基于人工智能的学习 , iOS16现在也可以主动识别图片中的主体 , 并提供自动去底的功能 , 让“抠图”更方便 。
未来 , 苹果的硬件和软件必然将共同朝着人工智能应用的方向进化和相互支持 。
苹果未来的整体战略
市场情报平台CBInsights最近总结了自2018年初以来苹果公司所有收购、投资和合伙的企业的信息 , 让我们能够瞥见他们对未来的计划 。 这四年多以来 , 苹果收购了超过25家公司 , 其中至少有11家企业属于AR/VR和AI/机器学习类别 , 包括人工智能初创公司Xnor.ai和VR流媒体平台NextVR 。
随着苹果产品阵列中的新品类——AR设备的发布 , 苹果将加入与Meta对元宇宙定义的竞争 , 但擅长营销的苹果很可能会避开元宇宙这个名词 。 毕竟 , 苹果总是喜欢给自己的产品赋予别具一格的称呼 。 例如 , iPhone的面部识别技术不叫面部识别 , 而是“面容ID(FaceID)” 。 实现面容ID的相机和传感器系统被称为“原深感(TrueDepth)” 。 苹果音乐使用标准的杜比全景声技术 , 但在苹果的世界里 , 被称为“空间音频(SpatialAudio)” 。
同样的 , 由Meta描述的元宇宙可能也不符合苹果的口味 。 到目前为止 , 人们在Meta上看到的元宇宙体验是笨重的、像早期卡通一样 , 并且封闭在VR目镜的狭窄空间内观看 。 所有迹象表明 , 苹果对创造包含现实世界的开放体验更感兴趣 。
在使用AR设备进行空间计算时 , 用户界面是用户面前的整个可见世界 , 眼镜中的镜头在现实世界物体内部和周围显示数字内容 , 可能会在用户正在查看的雕像上方显示一个地标标签 。 也就是说 , 操作系统的元素将显示在用户视图中的某个位置 。 苹果正在沿着这些思路思考 , 所以它把未来的操作系统叫做“realityOS(现实操作系统)” 。
另一个苹果想要区别于Meta的方面是隐私问题 。 XR眼镜包含的相机、麦克风和传感器要多得多 , 其操作系统收集的关于人们动作(甚至眼球运动)的数据比智能手机更多 , 还会使用人工智能来理解正在生成的所有感官数据 。 它们会以智能手机时代从未见过的方式进行数据收集和监控 。 而苹果一向展示出非常努力保护用户隐私的姿态 。
9月7日发布会上最引发热议的灵动岛功能 , 可能会进一步凸显苹果对隐私的注重 。 之前有消息称 , 绿色和橙色的摄像头和麦克风隐私指示器会在iPhone14Pro的挖孔附近变得更亮 , 这个更新是否出现在灵动岛上 , 还有待进一步消息公布 。
今年8月 , 苹果公司CEO蒂姆·库克在接受采访时被问到 , 他认为史蒂夫·乔布斯会怎么看待今天的苹果 。 他说 , 乔布斯会喜欢苹果现在正在做的一些事 , 但也会就一些事说:“我们可以在这方面做得更好” 。