光明网评论员:“国庆上网,被雷军整整骂了7天。”连日来,短视频平台上出现了大量“雷军”的发言视频,涉及堵车、调休、游戏等热门话题,不仅言辞犀利还常爆粗口。有网友跑去雷军社交媒体账号下就此提出疑问,雷军回复以三个表示愤怒的表情。眼下,各种AI克隆雷军的配音模仿、恶搞视频仍层出不穷。
从相关视频来看,“雷军”本人出镜,口音似乎也是本人。有的网友不以为意,认为这不过是最常见的“恶搞”“玩梗”,还有的网友则半信半疑,更有“数字化生存”经验欠缺者对此深信不疑。“雷军AI配音”乍看是一场娱乐狂欢,但潜藏的危险不能不引起我们的警惕。
从彼雷军到此雷军,使用“AI配音”就可以实现一键直达。近年来,通过AI实现的声音和画面深度伪造的技术门槛不断降低,为这种“一键变声”“一键变脸”大肆泛滥提供了可能。目前,市面上已有大量的AI配音小程序,用户只需在程序内选择相应的人物声音并输入文字,便可借用他人的声音发表言论。有的软件免费向用户开放部分使用权限,收费版也价格较低。
深度伪造作为一种技术,是中性的。但是,在深度伪造技术之下,我们可能无法区别真假,过去崇尚的“眼见为实”受到冲击,只能信以为真。而真伪难辨的混沌地带,也将成为滋生各种乱象的温床。在AI诈骗中,犯罪分子凭借一段原始语音、照片等就可以编造谣言甚至陷阱,早已是屡见不鲜的套路。
《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈增长了3000%,仅今年上半年,AI诈骗案案值已超过1.85亿元。就目前而言,面对深度伪造技术,我们普通人仅有的生存经验完全无法招架,每个人都很有可能成为“受害者”。
当制作者还沉浸在自己制作的AI配音视频大获流量的时候,殊不知已涉嫌侵权。没错,声音作为个人特征的一部分,受到法律明确保护。民法典规定,任何组织或个人未经声音权人同意,不得擅自使用、公开或侵害其声音权益。在一些AI配音小程序中,一些内置的名人声音,多用“你懂的”式昵称来命名而非真名,可能也是处于规避侵权纠纷的考虑。不过,这也暴露出,这种侵权式“AI配音”属明知故犯。
当深度伪造嵌入我们的数字生活,该怎么办?这并非无病呻吟强说愁。一方面,要用魔法打败魔法,推动反深伪检测技术持续更新迭代,以应对层出不穷的深度伪造骗局;另一方面,要加强技术监管,明确生成式人工智能服务合法与非法的边界,对相关违法行为进行严肃惩处,以“前车之鉴”构筑其参照坐标。各个社交平台也应负起相应的治理责任,增强对疑似AI生成内容的甄别,通过加水印或增加提示等手段,提醒观看者引起注意。