苹果|Apple Watch将添加“睡眠阶段”功能!苹果副总裁葛越谈健康应用新进展【附演讲全文】( 二 )


让我们先从提供无障碍帮助的辅助功能说起 。 我们相信世界上最好的产品应该满足每个人的需求 。 无障碍是我们一个核心价值观 , 也是贯穿所有产品的一个重要部分 。 我们致力于制造真正适合所有人的产品 。
我们知道机器学习能够帮助残疾用户提供独立性和便利性 , 包括视障人士、听障人士、有肢体和运动障碍 , 以及认知障碍的人 。 让我们来看几个例子 , 先从Apple Watch开始 , Apple Watch上的辅助触控功能允许上肢行动不便的用户通过手势来控制Apple Watch 。
这个功能将设备上的机器学习与来自Apple Watch内置传感器的数据相结合 , 帮助检测肌肉运动和肌腱活动的细微差异 , 从而替代了轻点显示屏的做法 。 通过包括陀螺仪、加速度计和光学心率传感器 , 用户可以用捏合或握拳这类的手部动作来操控Apple Watch 。
接下来我们来说说AirPods Pro 。 AirPods Pro结合了Apple的H1芯片和内置麦克风 , 通过机器学习带来强大的听力体验 。 AirPods Pro上的对话增强功能通过机器学习来检测并放大声音 。 如果你在嘈杂的餐厅与人交谈 , 对话增强功能可以聚焦你面前的人的声音 , 让你听得更清楚 。 值得一提的是 , 该功能只需要在终端设备上即可运行 。
最后 , 让我们来看看最近在iOS 16和iPadOS 16中发布的门检测功能 。 门检测功能结合了LiDAR扫描仪、摄像头和终端设备上运行的机器学习来帮助视障用户确定门的位置 , 探测人与门的距离 , 并判断门究竟是开启还是关闭 。 它甚至可以读取门周围的标志和符号 , 例如办公室的房间号 , 或者无障碍入口的标志 。
用户还可以将门检测与人员检测功能结合起来使用 , 帮助视障人士在公共场所更加自如地行动 , 识别附近是否有人 , 从而保持社交距离 。 这些只是机器学习对残疾人生活带来实质性影响的几个例子 。 结合了芯片、传感器技术和基于终端设备的机器学习这三者的进步 , 让我们的产品更容易使用 , 也帮助用户更好地和外部世界互动 。
健康是我们关注的另一个充满潜力的领域 , 可以改善人们的生活 。 技术可以发挥重要作用 , 让我们身体变得更健康 , 并鼓励人们用更健康的方式来生活 。
我们的机器学习和传感器技术可以提供有用的健康信息 , 让用户能够通过日常行为的小改变 , 逐步实现整体大健康 。 我们始终确保这些健康功能经得起严格的科学验证 , 切实保护用户隐私始终是我们的重中之重 。
举个例子 , 今年秋季我们将推出的watchOS 9里包括一个新的“睡眠阶段”功能 。 它能帮助大家更好地了解自己的睡眠状况 。 Apple Watch中内置了心率传感器和加速度计 。 通过这些传感器的信号 , Apple Watch可以检测用户究竟处于快速眼动、核心睡眠还是深度睡眠阶段 , 并提供睡眠呼吸频率和心率等详细指标 。
另外 , 摔倒检测调用了Apple Watch中的加速度计和陀螺仪 , 通过机器学习算法 , 可以识别严重摔倒 。 通过分析手腕轨迹和冲击加速度 , Apple Watch能在用户摔倒后发送警报 。 当然 , 我们还想要更进一步 , 想办法在用户摔倒之前 , 就能提供支持和帮助 。
为此我们创建了步行稳定性这一功能 。 这是一种首创的健康功能 , 通过用户走动时iPhone产生的数据 , 可以看出他们摔倒风险有多大 。 这些重要信息可以帮助人们逐步改善行动能力 , 从而降低摔倒的风险 。
虽然我们在健康领域的探索才刚刚开始 , 但是我们已经看到 , 机器学习和传感器技术在提供健康洞察、鼓励健康生活方式等方面潜力无限 。 所有这些功能都为了实现我们创造更美好生活的使命 。 我们对机器学习的未来充满希望:我们坚信它可以激发更多的创新 , 从而改善人们的生活 。