诈骗者利用 AI 声音冒充亲人窃取数百万美元

诈骗者利用 AI 声音冒充亲人窃取数百万美元

2022 年,超过 5,000 名受害者通过电话被骗走钱财。

  • 人工智能语音生成软件让骗子可以模仿亲人的声音。
  • 这些假冒行为导致人们在 2022 年通过电话被骗走 1100 万美元。
  • 老年人占目标人群的大多数。

一段时间以来,人工智能一直是科技界的中心话题,因为微软继续在其产品中注入ChatGPT,而谷歌则试图通过推出自己的人工智能产品来跟上潮流。虽然人工智能有潜力做一些真正令人印象深刻的事情——比如根据一行文本生成图像——但我们开始看到几乎不受监管的技术的更多缺点。最新的例子是人工智能语音发生器被用来骗取人们的钱财。

人工智能语音生成软件近来一直是头条新闻,主要是因为窃取了配音演员的声音。最初,软件只需要几句话就可以令人信服地再现扬声器的声音和语气。该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。

诈骗者利用 AI 声音冒充亲人窃取数百万美元

在《华盛顿邮报》的一份新报告中,数以千计的受害者声称他们被冒充亲人的冒名顶替者所欺骗。据报道,冒名顶替诈骗已成为美国第二大最受欢迎的欺诈类型,2022 年提交的案件超过 36,000 起。根据 FTC 官员的说法,在这 36,000 起案件中,超过 5,000 名受害者通过电话骗走了他们的钱,损失总额达 1,100 万美元.

一个突出的故事涉及一对老年夫妇,他们认为他们与儿子交谈过后,通过比特币终端向诈骗者发送了超过 15,000 美元。人工智能的声音让这对夫妇相信,他们的儿子在一场车祸中杀死了一名美国外交官后陷入了法律纠纷。

与故事中的受害者一样,这些袭击似乎主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。不幸的是,法院尚未就公司是否应对人工智能语音发生器或其他形式的人工智能技术造成的损害承担责任做出决定。

文章版权声明

 1 原创文章作者:╰┳形^影┳╯,如若转载,请注明出处: https://www.52hwl.com/60388.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 上午10:13
下一篇 2023年7月17日 上午10:13