最近有两则新闻让人不免忧心。一则是中国某大学教授在国外期刊公开发表的SCI论文,由于内容携带ChatGPT常用提示词,被不少网友质疑使用了AI写作忘记删除和修改。还有一则是有博主发布了用AI复活李玟、乔任梁、高以翔的视频,很多粉丝表达了怀念之情,但家属表示“不能接受”。有律师认为,博主擅自制作的虚拟视频侵犯了逝者的肖像权和声音权等,即便无商业目的也不能豁免。
前者,尽管很多学校宣布禁止在课堂、作业和评估中使用ChatGPT或其他AI工具,但显然,有些学生或者老师,对新技术带来的便利性缺乏抵抗力。论文一路过关斩将,说明新技术带来的造假和作弊,防范起来并不那么容易。但无论如何,“封杀派”和“拥抱派”基本达成共识:需厘清ChatGPT的应用场景和边界,划定底线、明确规则。确保论文内容的原创性和撰写的独立性,是一个不可逾越的红线。
如果说ChatGPT的“作恶”还在于诚信层面,那么用AI复活逝去的生命,就直接关系到人类终极命题——生与死,存在与消亡。“AI复活术”,为阴阳相隔的人提供了可以穿梭的通道,尽管只是人造的幻象,已足以让死亡被重新定义。但个体之间差异何其之大,这种技术注定要面对道德伦理与法律法规的双重审视。在道德伦理层面,生与死还有边界吗?云端永生的生命形态,还能被定义为“人”吗?被复活的人要如何说“不”?在法律法规层面,数字生命的权益该如何界定和保障?他与活着的家属是什么关系?活着的家属的权利呢?如何化解可能面临的法律风险?又该如何监管,以防止技术滥用?即便“数字生命”真的成为无法抵挡的现实,这一系列待解的风险和困境,仍然需要引起足够重视。
人类对未知世界的好奇与探索,是科技创新的恒久动力。对于一项新技术,在总体方向上,我们理应对其创新、突破、满足人们日益多元的新的需求乐见其成。但法律法规、社会公序良俗和道德伦理的边界和底线,绝对不容突破。亚里士多德说过,“一切技术、一切规划以及一切实践和抉择,都以某种善为目标”。但确保科技向“善”,并非只有善的初衷就够了。“高科技作恶”,前有明星遭遇恶意“换脸”,后有无辜女孩被“一键脱衣”并在色情网站传播……几年前轰动一时的“基因编辑婴儿”事件,带给人们深刻警醒——很多以“善”为名脱缰狂奔的科学研究,带给人们的可能是难以想象也无法承受的后果。
不久前的世界政府峰会上,OpenAI首席执行官在演讲中发出警告,人工智能的发展速度可能远超人们的预期,必须采取有力措施来确保技术的安全可控。今天,随着Sora等人工智能越来越多地嵌入社会生活,很多疯狂的设想已渐次照进现实。它们一头连着新一轮科技革命和产业变革的无限可能,另一头指向不容小觑、谁都无法置身事外的潜在风险。科技本身也许没有善恶,但我们今天立好的路标,关系到它未来的走向。保持对生命的敬畏,坚守人之所以为人的伦理底线,以更高阶的“算法”把牢“科技向善”的方向盘,让这列飞驰而来的AI列车,稳稳运行在人类文明正义的轨道上。
(陈立民)