换脸、克隆声音……

AI诈骗防不胜防

2025年06月23日

上传静态照片就能生成动态视频,仅凭几秒语音便可克隆声音……这些曾在科幻电影中出现的场景,如今已成为现实中令人防不胜防的诈骗手段。随着AI技术的快速发展,新型AI诈骗案件频发,给公众财产安全和社会稳定带来威胁。

AI诈骗形式多样

贵州省黔东南苗族侗族自治州凯里市公安局反诈中心负责人吴西福介绍,一家科技公司的负责人郭先生接到好友的视频电话,对方称正在外地投标,急需几百万元保证金,想借用郭先生的公司账户走账。随后,“好友”还发来转账截图。郭先生见视频中确是本人,便在未确认到账的情况下先行转账,最终发现被骗。

无独有偶,宁夏回族自治区银川市某公司部门经理张先生也遭遇类似骗局。他接到“老板”的视频电话,对方以情况紧急为由要求转账汇款。在视频中确认“老板”身份后,张先生在十几分钟内将20万元转入指定账户,直到与老板当面汇报工作时才惊觉上当受骗。

“这些都是典型的AI诈骗案例。”宁夏回族自治区公安厅刑侦总队副总队长、反诈中心负责人吴克刚解释,如今的“AI换脸”技术不仅能活化静态照片,还可在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练,但一旦成功,足以达到以假乱真的效果。

当前,新型AI诈骗手段层出不穷,主要存在以下几类诈骗形式。语音合成诈骗中,不法分子利用AI技术克隆受害人亲友声音,通过电话编造求助理由实施诈骗;图像生成诈骗时,其借助AI生成虚假照片或视频,虚构紧急场景骗取钱财和个人信息;智能客服诈骗里,不法分子制作AI客服系统,诱骗受害人透露信息或转账;AI情感诈骗则通过AI训练的大语言模型,伪造身份与受害人建立情感联系套取信息。此外,吴西福特别提醒,共享屏幕诈骗同样不容忽视。不法分子常以“提升信用卡额度”“航班延误退费”等为幌子,诱使受害人下载指定软件并开启共享屏幕功能,借此获取银行账户、验证码等关键信息,盗取资金。

AI诈骗危害广泛

与传统电信诈骗、网络诈骗相比,新型AI诈骗呈现出受害者群体广泛、诈骗成功率高、追踪难度大等特点,危害不容小觑。

警方梳理发现,新型AI诈骗涉及经济、信息安全、个人心理及社会治安等多个层面。这类诈骗凭借针对性强、高度逼真的特点,常令普通群众难辨真假,极易受骗,不仅个人财产受损,还可能给家庭带来沉重的经济负担。同时,不法分子通过诈骗获取受害人身份证号、银行账户等重要个人信息,用于非法活动,导致信息泄露、身份被盗用,使受害人面临潜在法律风险。在心理层面,受害者可能出现焦虑、自责、抑郁等负面情绪,造成严重心理创伤。从社会治安角度看,若此类案件频发,易引发公众对社会的不信任与恐慌情绪,部分受害者甚至因难以承受损失而走上违法犯罪道路。

面对不断翻新的AI诈骗手段,公安机关也面临严峻挑战。吴西福表示,只有持续提升民警专业素质和侦查能力,加强对新型电信网络诈骗犯罪的研究,创新侦查手段,同时深化跨区域警务协作,才能有效提升打击效能。

多举措防范AI诈骗

新型AI诈骗花样频出,伪装性越来越强,公众该如何防范?

吴克刚给出两条防骗建议:在视频通话过程中,可要求对方做出特定动作,如连续眨眼3次、触摸鼻子,或用手指、物品在脸部前方晃动,若画面出现延迟、异常扭曲等不自然的细微变化,对方极有可能正在使用“AI换脸”技术;在与对方交流时,可询问只有彼此知晓的私密信息,例如生日、电话号码、个人喜好等,以此验证对方身份的真实性。

贵州警方则提示公众,不轻信他人,不贪图小便宜。妥善保管个人信息,把好个人信息保护的第一道关。在非必要情况下,不向陌生人提供身份证号码、工作单位、家庭住址、职务等重要信息,不将身份证照片或号码保存在手机中,尽可能避免将人脸、照片、声音、指纹等留存到网站和小程序上。在日常生活中,加强对人脸、声音、指纹等生物特征数据的安全防护,做好个人手机、电脑等终端设备的软硬件安全管理,不登录来路不明的网站,以免感染木马病毒。另外,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理,不轻易给他人收集个人信息的机会,也能在一定程度远离“AI换脸”诈骗。此外,公安机关也要创新线上线下反诈宣传,打造全方位反诈宣传矩阵,切实增强群众防骗意识。

利用“AI换脸”等新技术实施诈骗,本质上仍属于诈骗犯罪行为。根据我国法律规定,构成诈骗罪的,将依据刑法第二百六十六条追究刑事责任;为诈骗行为提供技术支持、帮助的,也将依法受到行政处罚,情节严重构成犯罪的,同样难逃法律制裁。在AI技术快速发展的当下,公众需时刻保持警惕,多方协同发力,共同守护财产和信息安全。

据《人民日报》