(相关资料图)

最近,AI换脸诈骗受到广泛关注,AI换脸诈骗应该怎么预防呢?

当你跟朋友视频的时候,如果怀疑遇到了“AI换脸”诈骗,你可以要求对方用一个手指在你面部来回晃动,或者用手掌来挡住一部分的脸。因为犯罪分子训练AI算法时,大多使用的是正面照,所以程序无法处理好突然在面前出现的物体。因此,你突然要求朋友在视频的时候伸出手指在面部摇晃,面部就会出现扭曲、变形。或者你们可以聊一些只有你们知道的事情,来核实他的身份,一定不要急着给对方转钱。

利用深度合成技术的“AI换脸”App和小程序大量存在。那么,随意使用“AI换脸”技术,涉及到哪些法律风险?

武汉大学教授、湖北珞珈律师事务所兼职律师王清介绍,我们国家的现行法律当中,有国家网络安全法、数据安全法、个人信息保护法和民法典,对个人的人脸、人身等生物识别信息都有相关规定:“像(AI换脸)伪造不良不雅视频,这种行为已经构成了刑法当中的敲诈勒索罪、诈骗罪,以及制作和传播淫秽物品牟利罪。从民事的角度,如果还不构成这些犯罪行为的话,他至少侵犯了民法典所规定的公民依法享有的肖像权、隐私权和声音权。所以,如果侵犯了这些民事权益,我们可以根据民法典的相关规定,追究其民事责任。”

为防范AI技术被滥用,国家制定出台或正在拟定相关法律规定。武汉大学教授、湖北珞珈律师事务所兼职律师王清表示:“就目前现阶段来说,亟需在国内以及国际上制定一个AI的安全标准,这样的话我们AI行业的发展有章可循。我们中国政府在AI的规制和规范方面,是走在世界各国前列的。2023年的1月10日,国家网信办、工信部和公安部就联合发布了《互联网信息服务深度合成管理规定》,就是规定提供(AI)信息服务的深度合成的提供者,必须采用技术和人工的手段,对企业的内容进行审核,要对它生成内容在显著的位置进行标识,对使用者的真实身份信息进行认证。那么今年4月份,国家网信办又发布了《生成式人工智能服务管理办法暂行(征求意见稿)》,具体针对了生成式用户使用平台的一些规范,可能在年内就要颁布实施。”

(长江云新闻记者 李媛 李悦 责任编辑 杨晓)

推荐内容