多起利用AI视频合成技术实施诈骗案件发生 多地公安部门发布预警并开展专项打击

2024年3月以来,全国多地发生不法分子利用AI视频合成技术伪造他人影像实施诈骗的案件,受骗群体涵盖企业财务人员、个体经营者等,对公众财产安全造成损害。

多起利用AI视频合成技术实施诈骗案件发生 多地公安部门发布预警并开展专项打击

公安部网络安全保卫局 2024年3月15日发布了情况通报,称不法分子通过公开网络收集目标人员的照片、视频素材,利用AI视频合成技术伪造视频通话、线上会议画面,骗取受害人信任后要求向指定账户转账。通报称已部署各地公安部门梳理辖区同类案件,统计相关涉案信息,开展风险预警工作。

截至2024年4月10日,全国31个省级公安部门累计发布AI视频合成诈骗风险提示372次,破获利用视频合成技术实施诈骗的案件41起,抓获犯罪嫌疑人127名,累计追回涉案资金782.3万元。各地基层网格员累计向辖区群众推送相关防骗提示1216万人次。

中央广播电视总台记者 张楠:我们走访北京市朝阳区某涉案企业,该企业财务负责人确认,不法分子通过视频合成伪造了企业董事长的线上会议影像,要求其向合作方账户转账180万元,转账完成后该负责人发现受骗,随即向当地公安机关报案,目前已有36万元赃款被追回。

据公安部网络安全保卫局2024年1月发布的2023年度网络犯罪统计报告显示,2023年全国公安机关破获的利用AI技术实施诈骗的案件数量,同比2022年增长187%。近年来,多款面向公众的非合规AI视频合成工具上线,无需专业技术能力即可生成效果逼真的合成视频,为不法分子实施诈骗提供了条件。2023年第二季度起,全国公安部门已陆续开展针对非合规AI生成工具的清理整治工作。

据公安部网络安全保卫局评估显示,当前利用视频合成技术实施诈骗的发案量仍处于上升区间。该部门下一步将持续开展专项打击行动,清理违规提供视频合成服务的非法平台,跟进查封涉案资金账户,同时持续面向公众开展防骗宣传,保护公众财产权益。