你的声音


(资料图片仅供参考)

你的身份

史蒂芬·霍金的「机械电音」,也许是世界上其中一个最有辨识度的声音。

但那并不是霍金自己的声音。

在霍金因渐冻症(ALS)失去说话能力的年代,技术还不足以让他能生成自己声音。事实上,能用上语音合成器的人都屈指可数。

到了今天,ALS 患者虽然有了更多语音合成的选择,但总体费用和时间门槛仍然不低,普及度也有限。

最近,苹果公布了全新无障碍功能 Personal Voice(暂未上线),不仅让用户能免费「备份」自己的声音,同时还在安全地应用 AI 技术上,作出了一次有意思的尝试。

只需 15 分钟「调教」,就能生成你的声音

图自 Fastcompany

在生成式 AI 可以模仿一切的时代里,用 AI 模仿一个人的声音听起来已经不算新奇,只是感觉有点安全隐患。

我好奇的,更多是苹果要怎样安全和高效地实现 Personal Voice 这一功能。

据介绍,iPhone、iPad 和 Mac 用户只需要根据提示录制 15 分钟的音频,苹果就会基于设备端的机器学习技术来生成和用户一样的声音。

相比之下,为失语群体提供专业语音合成服务的公司,可能需要采用专业设备,录制几小时的语音素材,价格最低都要数百美元。

另一项新无障碍功能 Live Speech,则支持用户打电话、FaceTime 或者是和他人面对面对话的时候,输入文字即可生成语音内容,为失语或不方便说话的用户提供另一种「发声」方式。

结合 Personal Voice 和 Live Speech 两项功能,失语用户就能用接近自己原本声音的生成声音和他人沟通。

用起来是方便了,但怎样避免有人用网上扒的语音素材来生成他人的声音?

1.

素材随机化。

在录制 15 分钟语音素材的过程中,苹果将随机生成需要用户朗读的内容,减少他人猜中素材的可能性。

2. 物理距离屏障。

在录制过程中,用户需要在距离设备 6-10 英寸(约 15- 25 厘米)的特定空间里完成录制。

在生成过程中,所有数据都将通过苹果的 Neural Engine(神经引擎)在设备本地完成,不必要上传到云处理。

语音合成后,第三方应用如果想使用 Personal Voice,都要获得用户明确授权。

即便第三方应用获得授权使用时,苹果也会采用额外的背景保护,确保第三方应用无法获取 Personal Voice 以及用户之前所录制的语音素材。

如果是苹果「全家桶」用户,生成自己的 Personal Voice 后还能通过 iCloud 同步到不同设备上,并以端对端的方式加密。

自己的声音,失去了才懂多重要

人是感性的生物,而声音是很强烈的情感触发器。

有研究指出,当人在听到母亲的声音时,身体释放出催产素水平和跟妈妈拥抱时产生的程度很相似。另一个研究则指出,听到自己的声音,会增强一个人的自我能动性。

这听起来有点抽象。

但当我们失去它时,重要性就变得显而易见了。

2021 年 3 月,Ruth Brunton 被确诊 ALS。那年圣诞,她就已经失语了。

ALS 患者中,约有 25% 的人患的是「延髓起病型」肌萎缩侧索硬化症,主要表现是说话障碍或吞咽困难。这类病人说话会逐渐变得含糊、带有鼻音,甚至失语。

Brunton 的行动很果断,确诊后马上找公司去做语音生成。

来回花了一个月时间,录了 3000 多个句子的语料,但最后出来的结果并不理想。

那家公司用的是一种名为「单元选择(unit selection)」技术。

简单粗暴来说,它就是通过「拼接」来实现语音生成,把语料拆分为大量小的语音单元,然后按需把元素拼起来。

单元选择技术下,「Bob」这一词语能被拆分成不同语音元素,图自《华盛顿邮报》

这种技术生成的语音能听清,但会有点电音,听起来不太自然。

结果就是,Brunton 录制的语料结合了微软一个名为「Heather」的声音,不但声音和自己毫不相似,甚至逼着这英国人「讲」起了美语口音。

推荐内容