警惕!你的脸可能正在被盗用!有人获利超40万
湖北黄石的王先生偶然进入某炒股直播间,添加了直播间推送的社交账号后,跟对方一起进行股票投资。随着投资金额持续不断的增加,当王先生想要提现时,发现对方的社交账号因涉嫌诈骗已被冻结,资金无法取出。
一直取不出来,这样一个时间段就发现了不对,因为他老是找很多理由让你取不了钱。后来我发现他的社交账号被冻结了。
调查发现账号IP所在地在河南,黄石警方在当地配合下,很快抓获三名嫌疑人,现场查获13台电脑、9部平板、119部手机和80张电话卡。
经讯问,高某与许某2023年9月底开始在网上贩卖和帮他人解锁社交账号,通过AI换脸融合的动态视频帮人解锁一些被平台冻结的交友账号。
他通过自己在网上购买的一款视频合成软件,按照社交账号要求解封作认证的这些规定动作,利用他自己的人脸和他合成的那个视频,生成的AI视频上传到社交账号的后台,来进行认证。
据了解,这个团伙每解锁一个账号收费15元至30元不等,其中许多账号是因涉嫌诈骗被冻结的账号。该团伙共解冻了2107个账号,从中获利40万元。
民警提示警醒我们,不要将自己的身份证号、身份证头像、手机号等等自己的隐私信息在网上进行暴露,加强自身的隐私信息的保护。
一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。
在工业与信息化部反诈专班的实验室里,技术人员向记者演示了两种常用的AI换脸技术。
通过一张事先从网络上公开获取的记者本人照片,经过一段时间的模型训练。这张照片就能在演示者的控制下像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。
不法分子首先会通过种种公开的渠道获取受害人的个人肖像或视频,然后利用AI技术,对这些照片中的面容特征进行学习,从而模仿眨眼、摇头等动作,实现以假乱真的效果。
主要找了一些公开的社会化媒体平台,去拉取一些公共的视频。拿了这一些数据,整体的训练时间差不多花了1天,24小时达到目前这个效果。如果时间长点的话,我们画面的清晰会有所提升。
技术人员和记者说,所有用于AI换脸训练的记者照片和视频都是从网上公开收集的,总共只用了四五张照片和不到五分钟的素材。如果有充足的训练时间,仿真效果会更好。除了面容以外,声音也能够最终靠同样的技术来仿冒。
专家指出,虽然目前AI换脸和仿声有一定的技术门槛和较高的实现成本,但如果被不法分子掌握,就可能在即时通信或者社交软件上伪装成他人,开展相应的诈骗活动。
我们正在会同行业内的手机终端企业,将推出AI换脸诈骗风险提醒功能。这项功能仅在手机端来本地运行,可以有明显效果地保护用户数据不泄露,经过用户授权后,可为用户更好的提供AI换脸诈骗风险预警提醒。
记者在反诈专班的实验室现场体验了正在测试中的AI换脸诈骗检测与预警技术。当用AI换了脸的技术人员与记者发起视频通话时,测试手机终端提示“对方疑似假冒身份”。点击检测按钮,经过图像扫描,系统提示“AI换脸合成概率93%”。
据了解,AI换脸主要是使用深度合成技术。《互联网信息服务深度合成管理规定》提出了算法备案、安全评估的手段,要求深度合成服务提供者对深度合成的内容添加显式或隐式水印。
要对生成合成的内容去添加一些水印,这个水印的本质实际上的意思就是要一方面去提示公众这个内容是由AI生成或者合成的,另一方面也是要追溯它的来源。
AI诈骗是隐私信息泄露与诈骗陷阱的结合,要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等,尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认,不要未经核实随意转账汇款。