利用AI假冒名人发表作品或担刑责 法律风险加剧
从智能家居的语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,AI正以前所未有的方式改变着世界。然而,随着AI技术的不断发展和应用,其双刃剑的特性也逐渐显现。深度伪造技术带来了不小的隐患。
所谓的深度伪造技术是一种利用人工智能算法生成高度逼真的视频或图像的技术。这种技术使得造假变得更加容易且难以辨别,给社会带来了诸多安全隐患。今年以来,AI深度伪造假冒名人的事件时有发生。不久前,有人利用AI技术,深度伪造了张文宏医生的脸部和声音进行直播带货。在这段视频中,被合成的人像反复介绍一种产品,声音也很像张文宏本人,商品中的蛋白棒产品已经售卖了1200多件。目前该账号已经搜索不到。张文宏医生对此非常气愤,表示年纪较大的市民很容易就会相信这些伪造内容。
用AI制作假冒名人欺骗网民的现象并非个例。今年国庆期间,有人用企业家雷军的声音和头像制作了众多恶搞视频。还有人利用刘德华的声音为自己增加流量,随后刘德华电影公司连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。
现在的AI技术在克隆他人面部和声音上已经非常成熟。专家介绍,只需提供一张照片就能做出换脸的效果,他人的声音也能被轻易模仿。技术人员现场演示了这一过程,通过软件渲染将事先录制好的视频换成记者的脸和声音,效果非常逼真。
尽管AI模仿度高,但并非毫无破绽。观众可以通过仔细辨认视频来发现AI的痕迹,例如人脸轮廓与背景环境的融合度、协调度以及语音、语速和口型的匹配度等。专家提醒,未经权利人同意使用他人形象的行为属于违法行为,不仅不能直接使用,也不能将相关信息用于深度合成。此外,如果AI假冒名人发表作品,可能会追究发布者的刑事责任。
专家还表示,AI假冒名人进行带货这样的行为已经涉嫌违法,一旦消费者信以为真购买了产品,可以要求商家退一赔三。短视频平台也应担负主体责任,防范AI假冒名人视频在平台上传播。如果发现利用AI合成的声频和视频传播虚假消息,应当对发布者采取包括信用管理在内的强制措施。