最近的两则新闻让人有些忧心。一则是中国某大学教授在国外期刊公开发表的SCI论文,由于内容携带ChatGPT常用提示词,被网友质疑系使用AI写作时忘记删除和修改。另一则是有博主发布了用AI“复活”的已故明星李玟、乔任梁、高以翔的视频,很多粉丝表达了怀念之情,但家属表示“不能接受”,更有律师认为,博主擅自制作虚拟视频侵犯了逝者的肖像权和声音权等,即使无商业目的也不能豁免。
尽管很多学校宣布禁止在课堂、作业和评估中使用ChatGPT或其他AI工具,但显然,有些学生或老师对新技术带来的“便利”缺乏抵抗力。相关论文一路过关斩将,说明要防范新技术带来的造假和作弊,其实并不那么容易。但无论如何,“封杀派”和“拥抱派”基本达成共识:需厘清ChatGPT的应用场景和边界,划定底线、明确规则。确保论文内容的原创性和撰写的独立性,就是一条不可逾越的红线。
如果说ChatGPT应用的“风险”还只在于诚信层面,用AI“复活”逝去的生命,则直接关系到人类终极命题——生与死,存在与消亡。“AI复活术”,为生者与逝者提供了可以“对话”的通道,用人造的幻象让死亡似乎被重新定义,也注定要面对多方面的审视。在道德伦理层面,有人或许会困惑,生与死还有边界吗?云端永生的生命形态,还能被定义为“人”吗?被“复活”者如何说“不”?在法律法规层面,人们也会追问,“数字生命”的权益该如何界定和保障?“TA”与活着的家属是什么关系?活着的家属的权利呢?如何化解可能面临的法律风险?又该如何加强监管以防止技术滥用?一系列风险和困境,应予以足够重视。
人类对未知世界的好奇与探索,是科技创新的恒久动力。对于一项新技术,理应对其创新与突破、满足人们日益多元的需求乐见其成,但法律法规、公序良俗和道德伦理的底线不容突破。亚里士多德说:“一切技术、一切规划以及一切实践和抉择,都以某种善为目标”。确保科技向“善”,并非只有善的初衷就够了。而现实中高科技“作恶”也不少见,前有明星遭遇恶意“换脸”,后有无辜女孩被“一键脱衣”的照片在色情网站传播。几年前轰动一时的“基因编辑婴儿”事件,也曾带给人们深刻警醒——很多以“善”为名脱缰狂奔的科学研究,可能导致大家难以想象也无法承受的后果。
不久前举行的世界政府峰会上,OpenAI首席执行官在演讲中提醒,人工智能的发展速度可能远超人们的预期,必须采取有力措施来确保技术的安全可控。随着Sora等人工智能大模型越来越多地嵌入社会生活,很多疯狂的设想正渐次照进现实。它们一头连着新一轮科技革命和产业变革的无限可能,另一头指向不容小觑、谁都无法置身事外的潜在风险。科技本身也许没有善恶,但我们今天立好的路标,关系到它未来的走向。保持对生命的敬畏,坚守人之所以为人的伦理底线,以更高阶的“算法”把牢“科技向善”的方向盘,让这列飞驰而来的科技列车,稳稳运行在人类文明正义的轨道上。