苹果预览iOS17功能iPhone将在15分钟内用你的声音说话
Apple宣布了一项新功能,可以让有可能失去说话能力的人创造出听起来像他们的声音。“个人语音”是Apple今天早些时候预览的一系列辅助功能的一部分。这些功能定于今年晚些时候发布,最有可能与iOS17 更新一起发布。
个人语音功能
Personal Voice 旨在帮助患有 ALS(肌萎缩性侧索硬化症)等疾病的人,这些疾病使他们面临失去说话能力的风险。此功能实质上可以帮助他们创建个性化的声音,听起来几乎与他们的自然声音相同。可以通过阅读一组随机的文本提示并在他们的 iPhone 或 iPad 上录制 15 分钟来做到这一点。Apple 表示此功能使用设备上学习,因此用户的信息是私密且安全的。
个人语音如何工作?
那么个人语音是如何工作的呢?它与 Live Speech 同步,Live Speech 是另一项新的辅助功能,允许用户键入消息并在电话、FaceTime 通话和面对面对话中大声说出来。用户还可以保存常用短语,以便在对话过程中更轻松地删除它们。Live Speech 专为无法说话或无法再说话的人而设计。Personal Voice 与 Live Speech 集成,因此发出的语音提示是他们的合成语音。
辅助功能中的更多 iOS 17 功能
Apple 的新功能集还包括“ Assistive Access ”,它使用高对比度按钮和大文本标签创建了一个更方便的新界面。在这里,Phone 和 FaceTime 合并为一个应用程序。它只保留广泛使用的应用程序,如消息、相机、照片和音乐。对于喜欢文本的用户,用户可以选择基于网格的布局或基于行的布局。
为了帮助喜欢视觉交流的用户,消息应用程序有一个仅表情符号键盘和录制视频消息的选项。
Apple 还在iPhone 和 iPad 的放大镜应用程序中添加了Point and Speak 。此功能将使有视力障碍的人更容易识别物理对象。它使用来自摄像头、LiDAR 扫描仪和设备上机器学习的输入来读出物理对象(例如微波炉)上的文本。当用户将手指移到每个文本上时,iPhone 或 iPad 会读出上面写的内容。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。