犯罪分子利用AI诈骗 如何降低技术被滥用带来风险?
犯罪分子利用AI技术实施诈骗专家支招
如何降低技术被滥用带来的风险
□ 本报记者 韩丹东
□ 本报实习生 姜 珊
最近,2019防范治理电信网络诈骗论坛在中国互联网大会期间举行。
据论坛内容显示,机器学习、人工智能、大数据等热点技术已被犯罪分子用于实施诈骗。比如上游黑产利用机器学习、人工智能,突破互联网企业的验证码体系,或是利用人工智能技术恶意注册,获取号码资源,提供给犯罪分子实施诈骗。
随着科技的进步,花样翻新的电信网络诈骗令人防不胜防。
“技术一直以来都是双刃剑,我们在享受技术带来便利、新奇的同时,也会面临技术被滥用带来的风险。”中国传媒大学政法学院法律系副主任郑宁说。
诈骗手段不断翻新
四种形式防不胜防
随着技术的更新,诈骗手段也不断翻新,那么AI诈骗主要有什么方式呢?
对此,郑宁总结了四种AI诈骗形式,并详细介绍了其中的原理。
据郑宁介绍,第一种是转发微信语音。骗子通过盗取微信号,然后提出转账要求,多数人会选择要求对方语音回复,这时骗子会转发之前的语音,从而获取信任,进而获得钱款。虽然目前微信语音是不能转发的,但骗子可以通过提取语音文件或者安装增强版微信(一般是基于xposed框架的插件),实现转发语音。
“对于这种诈骗形式,群众只需提高警惕,直接电话联系,即可识破骗局。此外,即使要求对方语音回复,也可提出具体的要求,比如要求对方提供身份信息、说明转账原因等,避免骗子利用之前的语音蒙混过关。”郑宁说。
郑宁谈到的第二种骗术是声音合成。具体的操作是骗子通过骚扰电话等录音来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
郑宁说,通过神经网络和机器学习技术可以达到合成声音的效果。第一个利用神经网络生成人类自然语音的,就是DeepMind的WaveNet。WaveNet(波网)是一个用于生成原始音频的深度神经网络。它是由伦敦人工智能公司DeepMind的研究人员创建的。此技术通过使用用真实语音记录训练的神经网络方法直接模拟波形,能够生成听起来相对真实的类人声音。
据了解,2016年,谷歌在加拿大蒙特利尔大学建立的人工智能实验室(MILA)。基于声音合成技术,MILA在2017年4月成立了Lyrebird公司。在其网站DEMO部分,可以听到官方合成的足以以假乱真的特朗普以及奥巴马的声音。美国有位记者用机器合成的句子和家里人打电话做实验,他的家人完全分不清楚真假。
“合成的声音有明显的痕迹,但WaveNet可以把合成痕迹明显的机器语音,转换成更加流畅自然的语音,与人类声音之间的差异大幅降低,目前在鬼畜视频界做得风生水起。而Lyrebird则更进一步,它可以基于音色、音调、音节、停顿等多种特征,来定义某个人的声音,然后生成更加拟真的声音。”郑宁说。
郑宁补充说,第三种是AI换脸。视频通话的可信度明显高于语音和电话,但利用AI换脸,骗子可以伪装成任何人。第四种是通过AI技术筛选受骗人群,通过分析公众发布在网上的各类信息,骗子会根据所要实施的骗术对人群进行筛选,从而选出目标人群。例如实施情感诈骗时,可以筛选出经常发布感情信息的人群;实施金融诈骗时,可以筛选出经常搜集投资信息的人群。
对此,中国人民大学法学院教授刘俊海说:“AI技术用于诈骗已经不是新鲜事,因为任何技术一旦出现,不法分子就会想到利用新技术来实施犯罪。”
加强个人信息保护
提高警惕防范诈骗
诈骗手法在不断翻新,那么广大群众该如何预防,防止被骗呢?
郑宁提出了两点建议。第一是验证,提高警惕是防范诈骗的最好方式,在涉及钱款时,群众要提高安全意识,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,可将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。此外,可以选择向对方银行汇款,避免通过微信等社交工具转账。因微信等工具均会绑定银行卡,向对方银行卡转账,一方面便于核实对方信息,确认钱款去向;另一方面,对方能通过短信通知得知转账信息,此外,即使是本人操作,也不影响对方提取钱款。
中国观察