奥运冠军的“声音”突然开始推销农产品,知名演员的“声音”24小时不间断在直播间与粉丝互动,已逝歌手的“声音”在热门歌曲翻唱中响起,孙儿的求救“声音”出现在拨给祖辈的电话里……随着语音克隆技术门槛大幅降低,任何人的声音都可能在极短时间内被获取、克隆,并能被操纵说出设定的任意内容。
技术本身并无对错。克隆声音可用于定制语音助手,帮助失语者沟通;合成已故亲人的语音,能抚慰生者情绪;用于制作有声读物,也属正当商业用途,无可厚非。然而,声音作为一种生物识别特征,能够将信息与特定自然人紧密关联。一旦被恶意滥用——如用于恶搞、虚假宣传甚至诈骗,就不仅构成民事侵权,还可能涉嫌刑事犯罪。
声音克隆乱象丛生,其根源远非所谓“好玩”,而是在侵权成本低、变现收益高的失衡结构下形成的灰色产业链。一些所谓“技术分享者”不仅漠视伦理规范,甚至对平台侵权提示置若罔闻,抱着“大不了删除”的心态肆意滥用。在事后追责机制下,侵权人往往赚得盆满钵满,而被侵权人却因伪造内容传播范围广、溯源困难,面临维权成本高、声誉难以挽回的困境,受骗的消费者也常投诉无门。
去年4月,全国首例“AI声音侵权案”一审判决,认定当声音能够被相关公众识别时即受人格权保护,若要将声音用于AI商业化使用,必须获得权利人的专项明示授权。同年12月,另一起类似案件却出现截然相反的判决。有批评指出,该判决将“一般公众可识别”作为声音保护前提,实质上剥夺了非明星声优保护其声音商业价值的权利。可见,在司法实践中,需要统一侵权认定标准,强化企业合规意识,才能在技术创新与权益保障之间取得平衡。
除了让法律长出牙齿,整治“声音”克隆乱象还必须压实平台责任,强化源头治理。今年9月1日起,《人工智能生成合成内容标识办法》明确了服务提供者应当对生成合成内容添加明显标识等。换言之,克隆声音将从源头被打上标签,即将“持证上岗”。
当技术不断模糊真实与虚假的边界,广阔的灰色地带亟待被照亮。期待以法律和技术手段,让“听声”重新回归“识人”,还网络空间以清朗与信任。
(苏群超)