今年的5月19日是第11个全球无障碍宣传日,就在前两天,苹果也公布了一系列新的 iOS 16 功能,这次是辅助功能,面向iPhone和 Apple Watch 用户,这些用户是耳聋、听力困难、失明或视力低下的群体。
苹果一直在无障碍方面努力,这次负责全球无障碍政策与行动的 Apple 高级主管 Sarah Herrlinger 说道,“我们兴奋地推出这些全新功能,它们凝聚了 Apple 多个团队的创新精神与创意灵感,为用户提供更多选项,方便他们以最适合自身需求与生活的方式使用我们的产品。”门检测门检测是一种“尖端的导航功能”。它会在“到达新目的地时”自动定位门,并显示到门的距离,并对其进行描述。这包括“打开还是关闭,关闭时是否可以通过推动、转动旋钮打开”等。作为这项新功能的一部分,Apple 正在向 Magnifier 添加检测模式,这是 Apple 的控制中心工具,用于帮助低视力用户。此检测模式将使用门检测、人员检测和图像描述,为用户提供周围环境的丰富细节。该功能需要激光雷达,目前仅限于iPhone 12 Pro、iPhone 12 Pro Max、iPhone 13 Pro、iPhone 13 Pro Max 和iPad Pro。Apple Watch 镜像Apple Watch 镜像功能旨在帮助“用户通过配对的 iPhone 远程控制 Apple Watch”。这意味着 iPhone 的可访问性或语音控制等辅助功能可以“作为点击 Apple Watch 屏幕的替代操作”。Apple 还在其之前的AssistiveTouch 功能的基础上构建,用户可以通过手势控制 Apple Watch。“借助 Apple Watch 上的新快速操作,”Apple 表示,“双捏手势可以接听或结束电话、关闭通知、拍照、播放或暂停正在播放应用程序中的媒体,以及开始、暂停、或恢复锻炼。”实时字幕这项功能将于 2022 年晚些时候以 Beta 形式提供,初期仅在美国和加拿大受支持。它还需要iPhone 11或更高版本、配备 A12 仿生处理器或更高版本的 iPad 以及Apple Silicon Mac。苹果表示,有了合适的硬件,用户将能够使用实时字幕“更轻松地跟随任何音频内容”。那是“无论他们是在打电话还是 FaceTime 通话,使用视频会议或社交媒体应用程序,流媒体内容,还是与旁边的人交谈。”在FaceTime群组通话期间,新的 Live Captions 还将自动将其转录的字幕归属于正确的呼叫者,从而明确谁在说什么。在Mac上通话期间,实时字幕包括输入回复的选项,并让对话中的其他人大声朗读该文本。苹果表示,新功能利用机器学习来帮助每个人“充分利用苹果产品”。苹果表示,新功能利用机器学习来帮助每个人“充分利用苹果产品”。虽然 Apple 没有具体说明该版本将成为 iOS 16 的一部分,但大多数可能会在 9 月或 10 月发布时出现。