收藏本页 打印 放大 缩小
0

记者观察:克隆声音,天使还是魔鬼?

发布时间:2021-04-19 08:53:50    作者:    来源:中国银行保险报网

□记者 苏洁

小心,你的声音正在被“偷走”!相关调查显示,AI语音合成的问题,可能比人脸识别更加危险。

在4月16日全球顶级信息安全峰会CanSecWest 2021上,腾讯朱雀实验室分享了 AI被滥用的风险。区别于此前脚本类的电信诈骗,这一语音新技术可实现从电话号码到声音音色的全链路伪造,攻击者可以利用漏洞劫持VoIP电话,实现虚假电话的拨打,并基于深度伪造AI变声技术生成特定人物的声音进行诈骗。

其实,语音合成技术现在已经非常成熟了。比如地图软件中的定制语音播报,就可以通过少量自己的声音来定制与自己音色极为接近的播放声音,基本上能够达到以假乱真的效果。对于用户来说,也分不出来到底是本人录的,还是合成的语音。当然这类场景中,语音合成只是为了提升用户体验。

但是,随着AI技术的不断发展,AI所面对的威胁将会越来越多,利用AI语音合成冒充熟人进行电信诈骗的案例时有发生,并且涉及金额巨大。例如,有些银行和企业使用语音识别检查作为验证工具,风险隐患较大。

由此来看,AI声音合成,一面是“天使”,一面是“魔鬼”。

针对这一潜在风险,企业也在积极研发相应的技术应对。比如,腾讯朱雀实验室研究员提出了建议——基于“用AI对抗AI”的思路,使用AI技术提取真实语音和虚假语音的特征,再根据特征差异来分辨真实语音和生成语音。同时,企业和个人尽量使用新版本的VoIP协议电话,以减少电话被劫持的风险。

技术是一方面,如何从根本上预防语音诈骗的发生?

首先,建立完善的安全审核机制是必要之举。目前不管是企业还是个人,尤其是金融行业,可能普遍存在这样的担忧:合成技术的水平发展越高,合成语音与人声的差异就越小,技术鉴定的难度就越大。因此,要建立健全相关技术审核,比如加强对内容安全的严格审核,不支持用户用随意一段语音进行克隆,要求用户对指定文本进行录音,从而降低声音被利用的风险,从源头防范相关风险。

其次,设定相应的权限。比如,将声音克隆能力只授权给那些有控制能力的企业客户,对于C端用户来讲,可以只有选择音色的权限,没有自定义克隆声音内容的权限。这样一来,就会大大降低风险事件的发生。

再次,通过身份认证、结合生物识别等技术,以限制声音克隆的使用。目前涉及语音的攻击手段愈加多样化。据了解,通过向语音中添加微小扰动,或修改部分频谱信息,就可以欺骗语音识别系统。此外,通过将唤醒命令隐藏在不易察觉的音乐中,就可能唤醒智能设备进行对应操作。

凡事都有两面性。近年来,AI技术发展的同时,在与传统安全攻击技术的结合时衍生了新的应用场景和滥用风险,因此,我们在使用新技术的同时,也要做好最坏的打算——风险应对。

一句话,技术本质上不分好与坏,而是看你如何使用。


记者观察:克隆声音,天使还是魔鬼?

来源:中国银行保险报网  时间:2021-04-19

□记者 苏洁

小心,你的声音正在被“偷走”!相关调查显示,AI语音合成的问题,可能比人脸识别更加危险。

在4月16日全球顶级信息安全峰会CanSecWest 2021上,腾讯朱雀实验室分享了 AI被滥用的风险。区别于此前脚本类的电信诈骗,这一语音新技术可实现从电话号码到声音音色的全链路伪造,攻击者可以利用漏洞劫持VoIP电话,实现虚假电话的拨打,并基于深度伪造AI变声技术生成特定人物的声音进行诈骗。

其实,语音合成技术现在已经非常成熟了。比如地图软件中的定制语音播报,就可以通过少量自己的声音来定制与自己音色极为接近的播放声音,基本上能够达到以假乱真的效果。对于用户来说,也分不出来到底是本人录的,还是合成的语音。当然这类场景中,语音合成只是为了提升用户体验。

但是,随着AI技术的不断发展,AI所面对的威胁将会越来越多,利用AI语音合成冒充熟人进行电信诈骗的案例时有发生,并且涉及金额巨大。例如,有些银行和企业使用语音识别检查作为验证工具,风险隐患较大。

由此来看,AI声音合成,一面是“天使”,一面是“魔鬼”。

针对这一潜在风险,企业也在积极研发相应的技术应对。比如,腾讯朱雀实验室研究员提出了建议——基于“用AI对抗AI”的思路,使用AI技术提取真实语音和虚假语音的特征,再根据特征差异来分辨真实语音和生成语音。同时,企业和个人尽量使用新版本的VoIP协议电话,以减少电话被劫持的风险。

技术是一方面,如何从根本上预防语音诈骗的发生?

首先,建立完善的安全审核机制是必要之举。目前不管是企业还是个人,尤其是金融行业,可能普遍存在这样的担忧:合成技术的水平发展越高,合成语音与人声的差异就越小,技术鉴定的难度就越大。因此,要建立健全相关技术审核,比如加强对内容安全的严格审核,不支持用户用随意一段语音进行克隆,要求用户对指定文本进行录音,从而降低声音被利用的风险,从源头防范相关风险。

其次,设定相应的权限。比如,将声音克隆能力只授权给那些有控制能力的企业客户,对于C端用户来讲,可以只有选择音色的权限,没有自定义克隆声音内容的权限。这样一来,就会大大降低风险事件的发生。

再次,通过身份认证、结合生物识别等技术,以限制声音克隆的使用。目前涉及语音的攻击手段愈加多样化。据了解,通过向语音中添加微小扰动,或修改部分频谱信息,就可以欺骗语音识别系统。此外,通过将唤醒命令隐藏在不易察觉的音乐中,就可能唤醒智能设备进行对应操作。

凡事都有两面性。近年来,AI技术发展的同时,在与传统安全攻击技术的结合时衍生了新的应用场景和滥用风险,因此,我们在使用新技术的同时,也要做好最坏的打算——风险应对。

一句话,技术本质上不分好与坏,而是看你如何使用。

未经许可 不得转载 Copyright© 2000-2019
中国银行保险报 All Rights Reserved