最近,“AI捏脸”视频在社交平台上非常流行,这类视频展示了一双手捏住各种立体人像,慢慢用力将其捏扁、捏爆或捏碎。被捏的对象包括发布者本人、影视剧人物乃至虚拟角色。不少用户表示这种体验非常解压,并鼓励他人尝试。
实现AI捏脸其实并不复杂,主要是利用人工智能技术将照片或视频中的人物进行3D建模,再通过特定的技术处理,用模板中的“双手”将模型捏扁或捏爆。这些视频实际上都是通过AI合成的。
调查发现,“AI捏脸”效果最初来自一款海外AI工具软件。随着相关视频走红,国内也出现了类似的应用程序。然而,试用后发现这些应用在保护个人信息方面做得不够。使用这些应用时,用户等于主动将自己的人脸等隐私信息提供出去,安全风险极大。
以一名主播推荐的一款声称免费提供“AI捏脸”效果的小程序为例,启用过程中会不断弹出广告,必须手动关闭。即使在阅读用户协议和隐私条款时也会受到广告干扰。这表明该小程序虽说是免费的,但实际上是通过“AI捏脸”功能吸引用户,提高使用量和浏览量,从而增加广告收入。
此外,从该小程序的算法公示、隐私条款和服务方式来看,其对个人信息的处理也不够透明。例如,算法公示中提到基本原理是将人脸图片的面部特征转移到视频素材中的特定人物上,但未明确哪些视频素材不能使用。隐私条款则表示小程序会收集用户的昵称、头像、性别、地区、相册、设备信息等个人信息,存储地点和期限都非常模糊。
“AI捏脸”背后不仅有部分小程序、平台、主播的推广和拉流量行为,在具体服务中对个人信息的索取、使用和保管也存在诸多问题。很多提供此类效果的小程序和网站都有类似的问题。
将个人照片发送给不明来历的应用程序或平台风险极大。此前,多地警方披露过犯罪分子使用AI换脸、换声技术实施敲诈勒索案件,作案基础就是受害人的头像等个人信息泄露。例如,深圳市民吴先生收到陌生手机号码发送的彩信,内容是他与一名陌生女子在酒店房间的不雅照片及敲诈勒索信息。报警后,警方发现全市有多人遭遇相同情况,最终成功抓获10多名犯罪嫌疑人,并在他们的电脑里发现了大量经过合成换脸后的不雅照片。
网络安全专家指出,随着AI技术的发展,一张照片、一段语音或视频都可能成为不法分子的犯罪工具。他们可以利用AI技术将静态照片合成到不同背景中,甚至变成动态视频;获取一定量的音频信息后,还能模拟声音制造更多语音文件,从而实施诈骗等犯罪行为。
预防这类犯罪的关键在于保护好个人隐私信息。但目前部分网民还不了解随意上传个人照片和声音的隐患,让犯罪分子有机可乘。有些人习惯于在社交平台上晒出身份证、结婚证、房产证等证件照片,或者拍摄手持证件的照片。这些照片包含大量个人隐私信息,容易被不法分子利用来办理信用卡、网贷等金融业务,甚至篡改为手持身份证照片用于制作假证件或网络诈骗。
网络安全专家提醒公众,在日常上网和使用各种AI工具及应用时,要有保护个人隐私和个人信息的意识,不随意上传人脸、照片、声音等敏感信息。在社交平台分享个人生活时,也要避免那些含有敏感信息或容易被篡改的照片。