当前位置:首页|资讯|AI音频|ChatGPT|微软|人工智能

AI语音盛行 可能电话那头并不是你熟悉的人

作者:独孤依风发布时间:2023-03-22

原标题:AI语音盛行 可能电话那头并不是你熟悉的人

如果您接听陌生号码的电话,请让来电者先说话。电话另一端的人可能正在录制您的声音片段——然后用它以非常有说服力的方式冒充您。

这是根据联邦贸易委员会的说法,该委员会警告消费者要提防骗子,他们会秘密录制人们的声音,以便日后冒充他们并向受害者的亲属索要钱财。

FTC 在 ChatGPT 和微软的 Vall-E 等人工智能工具兴起之际描述了这种情况,该软件公司在 1 月份展示了一种将文本转换为语音的工具。Vall-E 尚未向公众开放,但其他公司,如 Resemble AI 和 ElevenLabs,都制作了类似的工具。使用任何人的一小段语音样本,该技术可以准确地将书面句子转换为令人信服的音频。

“你接到一个电话。电话里传来一个惊慌失措的声音。是你的孙子。他说他遇到了大麻烦——他撞坏了车,进了监狱。但你可以寄钱帮忙。你深吸一口气,想一想。你听说过祖父母骗局。但该死,这听起来就像他一样,”联邦贸易委员会消费者教育专家阿尔瓦罗普伊格在该机构的网站上写道。

你只需要3秒

专家说,犯罪分子正在使用广泛使用的“语音克隆”工具来欺骗受害者,让他们相信他们的亲人遇到麻烦并需要快速现金。它所需要的只是一个人的声音的短片,有时可以在互联网上找到——或者如果没有,可以通过录制垃圾电话来收集——再加上一个语音克隆应用程序,比如 ElevenLabs 的 AI 语音 软件VoiceLab .

加州大学伯克利分校数字取证学教授哈尼·法里德 (Hany Farid) 告诉CBS MoneyWatch:“如果你用自己的声音制作了一段 TikTok 视频,那就足够了。” 例如,即使是语音信箱录音也足够了。

他对此类骗局的激增并不感到惊讶。“这是一个连续体的一部分。我们从垃圾邮件电话开始,然后是电子邮件网络钓鱼诈骗,然后是短信网络钓鱼诈骗。所以这是这些诈骗的自然演变,”法里德说。

“不要相信声音”

根据美国联邦贸易委员会的说法,这实际上意味着你不能再相信与你的朋友和家人听起来相同的声音。

“不要相信声音,”联邦贸易委员会警告说。“打电话给应该联系你的人并核实这个故事。使用你知道是他们的电话号码。如果你无法联系到你所爱的人,请尝试通过其他家庭成员或他们的朋友与他们取得联系。”

Vall-E 的制造商微软提到了这个问题,包括在一篇证明该技术的论文中的免责声明“它可能会带来滥用模型的潜在风险,例如欺骗语音识别或冒充特定说话者。” 该文件指出,如果该工具向公众推出,它“应该包括一项协议,以确保演讲者批准使用他们的声音。”

一月份,ElevenLabs 在推特上写道:“我们还看到越来越多的语音克隆滥用案例。”

出于这个原因,该公司表示,身份验证对于清除恶意内容至关重要,并且该技术将只收取费用。

如何保护自己

对于不法分子利用语音克隆软件模仿声音实施犯罪,提高警惕很重要。首先,如果您接听陌生号码的来电,请让来电者先说话。如果你说“你好?这是谁?” 他们可以使用该音频样本来冒充您。

法里德说,除非他在等电话,否则他不再接电话。当他接到所谓的家庭成员打来的电话时,比如他的妻子,似乎“不在”,他会要求她提供一个他们已经同意的暗号。

“现在,如果我们怀疑其他人知道它,我们甚至会误读它,”他告诉 CBS MoneyWatch。“这就像一个你不与任何人分享的密码。这是一种非常简单的规避方法,只要你有足够的钱去问,而不是恐慌。”

这是解决高科技问题的低技术方法。FTC 还警告消费者不要相信来自未知方的来电,并建议人们以其他方式验证声称来自朋友或家人的电话——例如拨打已知号码或联系共同的朋友。

此外,当有人要求通过电汇、礼品卡或加密货币付款时,这些也可能是危险信号。

“诈骗者要求您以难以取回钱款的方式付款或汇款,”联邦贸易委员会表示。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1