在 iPhone 上,通过“语音控制”功能,用户可以用语音完成轻点、轻扫、键入等操作,以便浏览设备以及与设备进行互动。这项功能对于身体存在缺陷、不方便操作设备的人们来说非常重要。
但截瘫残疾活动家科林・休斯(Colin Hughes)近日在 The Register 平台发布专栏稿件,批评苹果的语音控制(Voice Control)功能已经严重落后,认为苹果已经差不多“遗忘”了这项辅助功能。
科林・休斯在文章中从自己和其他人的体验入手,表示语音控制功能是其必需品:
“对于有严重残疾的人来说,语音控制功能并非一个普通的应用,而是严重依赖的必需品。
就拿我自己来说,我需要通过语音控制功能,清晰地口述内容,而这项功能决定了我生活的方方面面。
然而,语音控制当前的使用体验并不好,虽然你可以自定义添加词汇表,但后续您口述这些专有名词时,“语音控制”总是忽略句中的大写字母。
此外在专有名词处理上也存在诸多问题,动词“will”经常被误认为是语音控制中的专有名词“Will”。同样,当提到天空的太阳时,该应用程序可能会错误地将其识别为英国小报\’太阳报\’。”
另一位残疾用户 Ian Gilman 表示,Siri 可以在任意应用中广泛使用,而语音控制功能则使用范围相对比较窄。
休斯认为苹果公司的语音控制功能已经落后于谷歌、Nuance 的 Dragon Dictate 等诸多公司。他表示在 Pixel 手机上试用 Google Project Relate 应用之后,发现其更准确、更个性化地识别语音。而且在他佩戴呼吸机、环境有点嘈杂的情况下,Google Project Relate 应用依然能够准确听写他的口述内容。
这篇文章呼吁苹果公司在语音控制方面投入更多资源,并更充分地与残疾人社区合作。
特别声明:本文版权归文章作者所有,仅代表作者观点,不代表本站观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。