央视主播李梓萌被AI仿冒带货深海鱼油,已故“茶界泰斗”张天福被AI“复活”为茶企代言……近期两起AI滥用事件,再次将一道紧迫的命题摆在公众面前:在技术狂奔的时代,如何为AI技术应用划定清晰的边界与不可逾越的底线?
随着人工智能技术的快速迭代,AI换脸的逼真度不断提升,技术门槛也大幅降低。从全红婵“带货”土鸡蛋,到张文宏医生“售卖”蛋白棒,再到张伯礼院士“推销”美白产品……不法商家正以极低的成本,通过AI换脸、语音合成、AI生成等技术打造“数字替身”,以此诱骗消费者下单。AI技术滥用,直接侵犯了名人的肖像权与声音权,让消费者沦为虚假宣传的受害者,更侵蚀着数字社会的信任基石。
北京市场监管部门对利用AI仿冒李梓萌带货的企业依法作出行政处罚,这是当地查处的首例AI虚假广告案,为执法破局提供了示范。而AI“复活”张天福进行商业代言事件则更为复杂,“数字再生”带来的法律与伦理挑战亟待回应。肖像权能否被继承、授权,并以AI形式进行再创作?若家属间对授权存在分歧,该以何种标准裁定?AI复现逝者形象被用于商业广告,是否涉嫌违法?这些现实困境,呼唤法律规范上的及时跟进——需在法律层面确立数字人格继承或生前预嘱制度,让个体有权在生前通过有效法律文件,明确授权其身后肖像、声音等数字人格要素能否被使用以及如何使用。
人们在享用AI技术高效便捷的同时,其所带来潜在的各种风险也日益凸显。加强AI风险治理,必须重视隐私保护、伦理、安全等方面的标准制定。9月1日起施行的《人工智能生成合成内容标识办法》要求,所有AI生成的文字、图片、视频等内容都要“亮明身份”。这无疑是规范AI应用的重要一步,但远非终点。随着技术普及,相关的争议只会越来越多,需要完善细化的规范也将越来越多。例如,如果医用机器人发生诊疗错误,责任应该由谁承担?当无人驾驶汽车在危急关头必须作出抉择时,我们能否接受其算法替代人类作出道德判断?可以肯定的是,技术的发展应坚持向善原则,这不仅关乎法律法规,更关乎一个社会的道德底线和文明尺度。
技术本身是中性的,但技术的使用必然承载着价值判断和伦理选择。事实上,AI发展的真正挑战不在技术本身,而在于伦理层面的价值权衡。有人形象地比喻,AI伦理治理是“给高速列车装刹车”。刹车不是为了阻止列车前进,而是为了让它更安全地驶向远方。伦理不是AI的“事后补丁”,而应是它的“底层操作系统”。从设计之初就给AI植入一颗“善芯”,秉持“以人为本、安全可控、公平透明、可追溯问责”的原则。从算法设计到产品上线,从内容审核到违规处置,每一个环节都应建立严格的审查机制。平台方也必须承担起主体责任,主动清理利用AI进行的虚假宣传和欺诈行为,维护清朗的网络空间。
归根结底,AI治理需要建立涵盖政府、企业、学术界、行业组织与公众在内的多元协同治理机制,构建一个“负责任”的创新生态系统。以法律责任框架明确各方责任,边发展边治理,使AI系统能够动态调整与校准,达成人机协作的社会契约,确保这项技术始终向善,始终惠及人们的美好生活。