“AI换脸”诈骗怎么防?怀疑时可以让对方摁鼻子,还有这几招→
参加多人视频会议
结果只有自己是真人
这事听上去似乎匪夷所思
却真实地发生了
近期,香港警方披露了一起
多人 “AI换脸”诈骗案
涉案金额高达2亿港元
在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。
其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。
近期
在陕西西安也发生了一起
“AI换脸”诈骗案例
陕西西安财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。
被害人 张女士:老板让把这个款赶紧转过去,这笔款要得非常着急,因为他声音还有视频图像都跟他人是一样的,所以就更确信这笔款是他要的了。
转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由。
被害人 张女士:然后我们就打电话再跟老板核实,老板说他没有给我发过视频,也没有说过这笔“转账”。
意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心、联系相关银行进行紧急止付,最终保住了大部分被骗资金——156万元。
据专家介绍
“AI换脸”过程
主要包括
人脸识别追踪
面部特征提取
人脸变换融合
背景环境渲染
图像与音频合成
等几个关键步骤
其背后,最核心的包括三个部分:
首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
其次,将这些特征与目标人脸图像进行匹配、替换、融合。
最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
学会几招
识别AI“换脸换声”
AI换脸这一技术的出现
导致眼见也不一定为实了
我们该如何防范呢?
专家表示
其实AI人工换脸无论做得多逼真
想要识别真假还是有一些方法的
中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去识别实时伪造的视频,因为它要对这个视频进行实时的生成和处理以及AI的换脸。
在挥手的过程中,会造成面部的数据干扰。挥手过程中,他所伪造的人脸,会产生一定的抖动或者是闪现,再或是一些异常的情况。
第二个就是,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。
同样,脸部也一样。真人脸部按下去是会变形的。
提醒:提高防范意识
避免个人生物信息泄露
专家表示,除了知晓一些辨别AI换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范,养成良好的上网习惯。
首先,应该是做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。另外做好个人的手机、电脑等终端设备的软硬件的安全管理。
第二,不要登录来路不明的网站,以免被病毒侵入。
第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。
AI技术“换脸换声”存法律风险
近几年,国家也在积极采取措施来减少类似事件的发生,保护人民群众的利益。山东财经大学法学院副教授、上海兰迪(济南)律师事务所兼职律师孟凡麟介绍道:“我们国家这些年一直在不断地进行立法,《中华人民共和国个人信息保护法》对个人信息的保护更加全面,从个人信息的收集、存储、加工、删除、保密等方面都规定了具体的措施。”
《中华人民共和国消费者权益保护法》首次提出了对公民个人信息的保护要遵循合法正当必要的原则,并规定了具体的保护措施;在《民法典》立法时,明确把个人信息的权利写进去,作为公民个人的一项基本权利,并规定了一些原则性的措施,对个人的信息进行全面的保护;在《中华人民共和国数据安全法》当中,对数据的传输收集以及保护方面规定了很多具体的措施。
此外,个人信息保护的相关制度在《中华人民共和国反电信网络诈骗法》、《电信和互联网用户个人信息保护规定》和《中华人民共和国数据安全法》中也有具体规定。
2023年8月15日,我国正式施行《生成式人工智能服务管理暂行办法》,从多个方面“划下红线”,旨在促进生成式人工智能健康发展和规范应用。
(羊城晚报•羊城派综合央视新闻客户端、武汉市反电信网络诈骗中心、闪电新闻)