“AI诈骗潮”真的要来了?

  • 上一篇
  • 下一篇
  • 网络图片。

    近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。类似的案件还有,江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子。

    那么,“AI诈骗潮”是否真的到来了?

    现状 AI诈骗仍属零星发案状态 但风险正在不断积聚

    记者调查了解到,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。

    一位被列入公安部专家库的民警告诉记者,这类诈骗如果得手必须做到:收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系,综合作案成本很高。

    他认为:“相关报道对一些案件的典型细节描述不够准确。AI涉诈案件仍属零星发案状态。”

    公安机关研判,近期网上“AI换脸换声诈骗在全国爆发”传言不实,全国此类案件发生不到10起,但该动向值得高度关注。网上一键换脸功能的App、小程序有技术滥用风险,需要加强技术防范反制等工作。

    风险 “换脸”“拟音”技术使用门槛低 “眼见”也不见得“为实”了

    国家开发投资集团特级专家、厦门美亚柏科AI研发中心总经理赵建强表示,AI技术正加速向网络诈骗、虚假信息、色情等领域渗透。

    值得关注的是,当前AI技术不再是实验室的半成品,引发热议的“换脸”“拟音”技术已有较成熟的开源软件,使用门槛低。

    记者注意到,网络上不乏AI换脸教程。在国内某知名App上输入“换脸”,弹出的高频检索记录显示有“换脸软件”“换脸App免费”“换脸视频怎么做”“换脸算法”等。一条名为“史上最强AI换脸软件正式上线了!技术门槛大大降低”的链接,介绍了一款换脸软件,通过视频演示教程,手把手教授如何使用。

    “俗话说眼见为实,但今后眼睛看到的也不一定是真实的。”北京市天元律师事务所合伙人杨虎城表示。

    “从现有案例看,这些技术已被不法分子利用。如假冒明星换脸直播、一键脱衣、造谣、制作色情视频等。虽然AI诈骗案件未成气候,但这一趋势值得关注,必须提早防范。”一位反诈民警说。

    防范 “以AI制AI” 同时加强源头治理

    中国移动信息安全中心品质管理处副处长周晶告诉记者,近年来,国际国内各界在积极探索深度合成技术的有效治理路径,研判AI技术给社会带来的风险和潜在威胁,正设法将AI技术发展纳入一定规则中,做到安全可控。

    业内人士建议,要加强AI反制技术研究,“以AI制AI”。一些科技公司正加强对图像、声音伪造技术的反制研究,在公安、金融的视频认证场景已有应用。有一线民警建议,要加强AI安全技术应用研发,将AI技术应用于犯罪识别、预警、对抗中,实现以“白”AI对抗“黑”AI。

    其次,加强源头治理和行业引导,及时更新、完善相关法律、标准、规则,为AI技术发展保驾护航。

    “数据是AI犯罪的源头,保护好公民的个人隐私数据安全,就能在最大程度上降低AI违法犯罪的能力。”熊辉说。

    (据新华网)

  • 上一篇
  • 下一篇