骗徒利用人工智能生成的语音来从事电话与网络诈骗
智能机器人 2025-03-14 08:45www.robotxin.com人工智能机器人网
关于人工智能完美再现人声,一个令人担忧的问题是潜在的声音欺诈行为。近期,这项技术进展飞速,犯罪分子正在利用它来实施诈骗,甚至可以伪造声音,使得受害者深信是亲朋好友急需援助。
《》报道了一对年迈的加拿大夫妇的遭遇。他们接到一个听起来像孙子的电话,声称在狱中需要保释金。他们几乎相信了电话中的声音,但当他们从银行取款时,银行经理告知这可能是骗局。类似的欺诈手段已经出现多起。
不幸的是,有些家庭遭受了更大的损失。以本杰明·珀金一家为例,他们接到自称律师的电话,声称他们的儿子涉及严重车祸并急需支付诉讼费。珀金的父母被骗子说服,通过比特币终端汇出了大量资金。珀金表示,电话中的声音听起来几乎与现实无异,让父母深信不疑。
这类基于语音的骗局屡见不鲜。据联邦贸易委员会数据,去年就有超过五千多起类似的电话诈骗事件。虽然语音欺诈并不新鲜,但人工智能的介入使这一过程变得更为简单和高效。骗子只需收集一小段音频片段,通常来自社交媒体账户,即可完美重现受害者的声音。
微软公司的Vall-E工具就是一个典型的例子。它能够分析一个人的声音,将其分解为各个组成部分,并利用其训练合成不同的短语发音。即使是短暂的几秒钟音频样本,Vall-E也能精确地复制说话者的音色和语调情感。
近期,提供生成性人工智能语音工具的ElevenLabs在Twitter上表示注意到了越来越多的语音克隆滥用案例,并因此决定在其VoiceLab程序的免费版本中删除声音克隆功能。尽管一些公司开始采取行动应对这一问题,但人工智能声音欺诈仍然是一个巨大的挑战和公众关注的焦点。我们需要保持警惕并采取有效措施来防范这类骗局的发生。