维思德观察丨AI诈骗:识别“高端”骗局,保护好钱袋子
谭敏
2023-06-03
241
近日,“AI换脸诈骗”、“AI诈骗可以伪装成任何人”、“怎样防范AI换脸诈骗”等词条频频冲上热搜。公众关注的高热度源于两起AI视频诈骗案件:4月20日,福建市某科技公司法人代表遭遇“高端”骗局,对方通过AI换脸视频和拟声,冒充其好友,以资金周转为由,诈骗其430万元。后又有安徽警方透露,5月25日,诈骗分子使用了一段9秒钟的AI换脸视频,骗取安庆一男子132万元。
技术改变生活,也改变了骗局。AI诈骗就是利用AI技术模仿、伪造他人的声音、面孔、视频等信息进行欺骗、敲诈、勒索等犯罪活动,而由此带来的最直接的观念冲击就是:眼见不为实,耳听亦为虚。某些居心叵测的人恶意利用AI技术,在互联网领域掀起了一场信任危机:对面和我聊天一定是本人吗?
短时间内AI诈骗案件高发,是基于普通人对新技术手段下的诈骗形式缺乏了解。因此,有必要对AI诈骗手法进行揭示。现有案件显示,当前AI诈骗常用手法主要包括四类:声音合成、AI换脸、转发微信语音、AI程序筛选受害人。具体如下:
对方通过拨打骚扰电话提取受害人声音,或者寻找抖音、微博等社交平台的语音内容,截取部分内容用于声音合成的原始素材。McAfee的一项测试中,仅仅三秒的音频就足以生成与原始语音匹配度为85%的伪造声音。
第一步,对方盗取受害人近亲属、朋友的微信或QQ账号,这是传统电信网络诈骗的盗号环节;第二步,对方在受害人熟人的社交平台上寻找个人视频及图片,提取面部特征后,借助AI深度合成技术进行换脸,辅以声音合成,便可生成“人声合一”的视频,让受害人在真实的“假相”下放松警惕。
微信虽然没有语音转发功能,但骗子通过AI 技术提取语音内容或者安装非官方版本能够实现该功能,因此骗子在盗取微信号或者QQ号后,便向被害人提出要求各种转账的要求,同时借助语音转发而获得被害人信任,进而实施诈骗。
骗子利用AI技术分析网上发布的各类信息,筛选出各类特征人群,通过制作定制化诈骗脚本,实施精准诈骗。例如,筛选出经常发布感情类信息的人群,可以冒充网友实施情感诈骗;筛选出经常搜索工作招聘信息,可以冒充客服实施兼职诈骗等等。
AI技术诈骗手法多样,具有针对性强、高度逼真、难以追踪的特点。但是目前,针对AI深度合成技术的技术规制已经开始,今后也将日渐完善,任何违法行为都将受到法律制裁。
2022年11月,国家互联网信息办公室2022年第21次室务会议审议通过《互联网信息服务深度合成管理规定》,AI深度合成技术直接受到该规定的规制。今年4月,国家互联网信息办公室管理《生成式人工智能服务管理办法(征求意见稿)》亦公开征求意见,该意见稿定稿发布后,深度合成技术将受到进一步规制。
根据《刑法》、《民法典》等法律规定,AI诈骗案件中,诈骗分子无疑直接构成诈骗罪,AI换脸技术的提供方则构成诈骗罪的共同正犯或帮助信息网络犯罪活动罪。除刑事犯罪外,未经允许运用AI换脸等深度合成技术的还可能构成侵犯肖像权、侵犯名誉权等民事侵权纠纷。
为防止诈骗的发生,“公众教育”、“技术规制”与“法律惩治”是三条并行的解决途径。短期来看,首要任务是为公众提供实用性的辨别技巧,提高公众个人的安全防范意识。
1、如何识别对方是“AI假脸”?因AI技术发展目前仍然存在缺陷,因此换脸视频尚存在破绽,如在说话的时候嘴巴、眼睛动作“不自然”,忽大忽小,掉帧等问题。因此需提醒公众,当注意观察视频里的对方动作有某些不和谐之处时,应当加倍警惕。
2、保护个人信息,减少自身信息的暴露:不轻易公开自己或他人的人脸、指纹或者声音等信息;不过度分享或转发自己或他人的动图或视频;不随意点击或下载来历不明的链接或文件。
3、多重验证,核实对方身份:在对方以银行卡冻结、资金周转、额度不够等理由要求转账时,要采用电话、见面、视频等方式多加核实,不要轻信对方。
4、保留证据报警。当发现自己被骗时,保留好聊天记录、通话记录、转账截图等证据,及时向警方报警,以挽回损失。
曾长期于基层法院、律所实习锻炼,积累了大量民商事纠纷案件实务经验