首页 / 健康 / 正文

人工智能语音骗子冒充你的亲人来偷你的钱——这里有一个万无一失的技巧来阻止攻击

放大字体  缩小字体 来源:admin 2024-07-21 14:03  浏览次数:95 来源:本站    

  

  

  以下是如何在现实生活中挫败克隆人的攻击。

  人工智能的光速发展使得人们很容易成为日益猖獗的人工智能语音骗局的牺牲品。幸运的是,技术专家们发现了一种万无一失的方法来区分人类和这些数字手机克隆体——让他们说出一个安全词。

  据《科学美国人》报道,加州大学伯克利分校(University of California, Berkeley)研究音频深度造假的教授哈尼·法里德(Hany Farid)说:“我喜欢这个暗号的想法,因为它很简单,而且假设打电话的人头脑清醒,记得要问问题,破坏它就不容易了。”

  A shadowy entity on the phone. 3

  鉴于人工智能手机诈骗泛滥,阻止人工智能变得至关重要。网络犯罪分子利用廉价的人工智能工具模仿家庭成员的声音,欺骗人们向他们提供银行账号和其他有价值的信息。

  这些声音通常是从受害者的社交媒体视频中获取的最简短的声音字节中重建出来的。

  这些人工智能伪装骗局中最臭名昭著的是“来电显示欺骗”,在这种骗局中,电话诈骗者声称他们已经把收件人的亲戚当作人质,如果不支付一定数额的钱,他们就会伤害他们。

  这种控制钓鱼软件已经变得如此先进,以至于人工智能的声音往往与亲人的声音难以区分。

  “我从来没有怀疑过那是她,”亚利桑那州的母亲詹妮弗·德斯蒂法诺回忆起一起令人毛骨悚然的事件,网络罪犯克隆了她女儿的声音,以便索要100万美元的赎金。

  要想避开这些家族渗透者,需要的不是机器人嗅探犬,而是在电脑上翻看脚本并要求输入密码。

  A stock image of a cybernetic entity. 3

  《科学美国人》的专家建议发明一个只有家人知道的特别安全词或私密短语,然后当面与彼此分享。

  如果他们在紧急情况下打电话要钱,另一方面,对方可以要求这个离线密码,从而让他们看穿潜在的谎言。

  法里德说:“现在没有其他明显的方法来知道你正在和你说话的人是他们所说的那个人。”他建议定期给家庭成员做“安全词”突击测验,这样他们就不会忘记了。

  谁知道先进的人工智能可以被欺骗,就像你的哥哥封锁走廊并要求密码一样?

  A person with audio waves emanating from their mouth. 3

  专家们将这种方法类比为父母教给孩子的安全语,以阻止伪装成朋友来接孩子放学的绑匪。

  他们声称,人们甚至可以用童年时的暗语来捕捉人工智能冒充者。

  当然,安全词汇并不是检测克隆人的唯一方法。

  其他危险信号包括要求采取财务行动的意外电话、似乎循环播放的干扰性和人为背景噪音,以及谈话中的不一致。

  数字支付解决方案公司Takepayments警告称:“语音克隆技术往往难以创造连贯且情境准确的对话。”“如果电话另一端的‘人’自相矛盾,提供的信息与你所知道的不一致,或者似乎在回避直接的问题,那就值得担心了。”

  该网站称,网络诈骗者通常会要求用加密货币付款,因为“无法追踪汇款对象的身份”。

  他们写道:“任何通过比特币或以太坊等常见数字货币请求资金的行为都应被视为高度可疑。”

声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱:
苏ICP备2021008455号