【资料图】

残疾活动家科林·休斯近日发表文章,对苹果的语音控制功能提出了批评,认为其已经严重落后,并呼吁苹果公司进行改进。语音控制是一种辅助功能,通过语音指令完成轻点、轻扫、键入等操作,以便用户浏览设备以及与设备进行互动。对于有严重残疾的人来说,语音控制功能并非一个普通的应用,而是严重依赖的必需品。 科林·休斯表示,他自己和其他残疾用户在使用语音控制功能时遇到了许多问题。例如,尽管可以自定义添加词汇表,但后续口述专有名词时,“语音控制”总是忽略句中的大写字母。此外,对于一些专有名词的处理也存在问题,例如动词“will”经常被误认为是语音控制中的专有名词“Will”。同样,当提到天空中的火红球体时,该应用程序可能会错误地将其识别为英国小报“太阳报”。 另一位残疾用户Ian Gilman表示,Siri可以在任意应用中广泛使用,而语音控制功能则使用范围相对比较窄。这表明,虽然语音控制是一项有用的功能,但在某些情况下,其他公司的产品可能更准确、更个性化地识别语音。 科林·休斯认为苹果公司的语音控制功能已经落后于谷歌、Nuance的Dragon Dictate等诸多公司。他表示在Pixel手机上试用Google Project Relate应用之后,发现其更准确、更个性化地识别语音。在他佩戴呼吸机、环境有点嘈杂的情况下,Google Project Relate应用依然能够准确听写他的口述内容。 他呼吁苹果公司在语音控制方面投入更多资源,并更充分地与残疾人社区合作。苹果公司需要认识到这一功能的重要性,并努力改进,才能满足残疾用户的需求。

推荐内容