当前位置:首页|资讯|ChatGPT|人工智能

小伙用AI“复活”奶奶引争议,技术使用的边界在哪里?

作者:方圆杂志发布时间:2023-04-12

原标题:小伙用AI“复活”奶奶引争议,技术使用的边界在哪里?

近日,一小伙通过AI技术“复活”了自己刚去世的奶奶,并与奶奶进行了简单的视频交流。视频中, “奶奶”除表情、反应略显僵硬外,音容及语气与真人极其相似。该视频发布在网上后,引发了巨大的争议。

有的人看后感动不已,觉得小伙用这样的方式来怀念亲人,让人感动、泪目,同时赞叹于如今科技的发达,但也有人认为小伙此番举动是在“自欺欺人”“不能沉迷于虚拟世界中”,更有人担心这套AI技术被用于非法用途……

当前,AI技术正在突飞猛进,最新一代ChatGPT甚至能够模拟人类思维和创造力,能像人类一样聊天交流。同时,利用AI技术侵权甚至犯罪的问题也日益受到关注。人类不能在一路狂飙的技术节奏中迷失——想要更好地利用科技为人类服务,必先将其装入符合伦理规范和道德标准的框架中。《方圆》杂志最新一期封面报道《AI换脸》认为:思考AI伦理正当其时。

“这都是我的错,我没有给你正确的程序协议。”AI专家后悔地说。

“你什么都没给我,你给我安装了你自己都理解不了的学习模型,还指望我靠自己学明白。”对面的机器人反驳道。

——这是发生在最新上映的科幻恐怖电影《梅根》中的一幕。 当看到自己亲手研制的玩伴机器人成了冷血杀手,AI专家这才思考起技术使用的边界问题,然而为时已晚。

机器人说的话不无道理,大多数情况下,它们只是看起来“学明白”了,一旦涉及更深层次的人性判断,便会表现其“人工智障”的一面,就像电影里逐渐偏轨的梅根,以绝对的看护走向杀戮。

电影里,对认知智能的理解与把握区分了人与AI最大的不同。但在现实中,一款名叫ChatGPT聊天机器人的出圈却真正使人拉响了警钟。

相较于之前的AI技术,ChatGPT之所以引起人们激烈的反应,主要源于它对人类独有的思考、推理“领地”的“入侵”。最新一代ChatGPT已经能够模拟人类思维和创造力,更加准确地理解和生成人类语言。这意味着某些职业和劳动力将被取代,人类也必将接受自己“不再独特”的事实。

由此而来的对其伦理规制和法治应对的讨论自然必不可少。就在3月的最后一天,意大利成为西方首个禁止使用ChatGPT的国家,理由是该模型收集不同数据,可能触发隐私问题。

而此事之前,以马斯克为首的超千位科技人士就已签署联名信,呼吁所有AI实验室暂停先进AI的开发,信中指出:“ 只有在我们确信强大的AI系统的效果将是积极的,风险是可控的,才应该开发。”

很显然,ChatGPT带来的变化和突破使人表现出前所未有的焦虑。而伦理讨论作为一种有益AI技术健康发展的引导机制,正日益凸显其作用。科技毕竟是他律性的东西,想要很好地利用其为人类服务,必先将其装入符合伦理规范和道德标准的框架中。

AI提出的新问题

“道如大路皆可遵,不间不界难为人。”我们可用宋代诗人吴泳的这句话来表示机器“成人”的难度。

ChatGPT之前,AI技术可以被笼统地看成是一种“关在盒子里的游戏”。中国科技大学教授、中国人工智能学会人工智能伦理与治理工委会主任陈小平曾在其《封闭性场景:人工智能的产业化路径》一文中指出,现有人工智能技术仅在满足强封闭性准则的条件下,才可发挥其强大功能。换句话说,即便智能如AlphaGo,也只能在特定领域或任务下发挥作用。

但ChatGPT却不同,普通用户可经其输入指令,生成用户所需内容,包括日常对话、翻译、信息咨询、策划、编程等等。其不仅可以连续回答,而且能承认错误,拒绝不当要求,做到与人类几无差别的交流。因此,这让业内人士称“看到通用人工智能之光”。

可以说,ChatGPT在一定程度上突破了以往AI技术的能力边界。但这并不意味着这项技术走出了那个“盒子”。 就连ChatGPT自己都说,自己虽较之前的技术自然灵活,但仍处于封闭系统之中,还达不到通用人工智能(Artificial general intelligence,简写AGI,这一领域主要专注于研制像人一样思考、像人一样从事多种用途的机器。这一单词源于AI,但是由于主流AI研究逐渐走向某一领域的智能化,如机器视觉、语音输入等,因此为了与它们相区分,增加了general)的标准。原因是其生成的回答都是基于其所学到的语言规则和语义知识,它仍存在语言理解和生成的局限性,尤其是在涉及情感、文化、背景等方面的语言交流时,ChatGPT 的表现可能不如人类,离真正的智能还很远。

但即便是如此,这种技术的突破还是让一些人感到了紧张。“失业说”继续被提及, 从前是机器人的发展减少了蓝领所从事的体力劳动,这次“遭殃”的是白领,认为AI的使用让白领的知识劳动向着节省人力的方向发展,而唯一的出路是从事那些非固定化的工作内容。

令人心安的是, 无论是过去还是现在,头脑清醒的专家们仍认为“失业说”略显多虑。

陈小平从AI技术实际应用的角度判断,AI技术往往起到的是“画龙点睛”的作用,而不是单打独斗地解决一个行业的全部技术问题。

相类似的,还有北京大学中国社会与发展研究中心主任邱泽奇在前不久“ChatGPT与社会发展新变”圆桌会议中的意见。邱泽奇说,“ 新技术给人类职业带来影响和变化是必然,不过无论怎样影响,其都不是直接替代人类的职业,而是通过替代职业的部分工作来提升人类职业产出的效率和质量”。他认为,人类适应职业变化的唯一途径,是“驾驭情绪、坚持学习和实践”。

但从上述可见一斑的是,“失业说”在技术发展的不同时期有着不同的面向,引发的伦理讨论也是不同的。因此对AI伦理问题的探究并不是老生常谈,而是一个需要不断更新不断完善的过程。

有关新技术伦理风险的新讨论

AI伦理问题的探讨包括但不限于数据隐私、算法偏见、AI对社会和就业的影响、AI可能导致的道德、政治和法律问题等。这些问题都具有很强的实践价值和现实意义,需要不断地进行探讨和解决。

围绕ChatGPT的出现,目前有关AI伦理问题的讨论有了一些新的变化和进展。 首先是更加重视AI的公正性和透明度。

4月5日,继意大利禁止使用ChatGPT之后,加拿大亦开始就数据安全问题调查ChatGPT背后的公司OpenAI。因为依据OpenAI介绍的ChatGPT的工作机制,模型需要预先对既有文本和数据学习训练,但该公司未公开其学习语料的来源。而在此之前,就有研究者认为ChatGPT仍属于算法黑箱,相关训练数据库是否均获授权还存在疑问。

而有关公正性的讨论则涉及数据使用的伦理隐患。尽管OpenAI在开发ChatGPT时已极力避免输出带有算法歧视、偏见等导向的内容,但由于其在线上与用户交流过程中也在进行聊天数据的收集,人机互动中也于无形中增加了其吸收人类偏见的风险。

不仅如此,当其被用户恶意利用制造侮辱、攻击、色情、暴力及血腥导向内容时,事实证明,现有算法还是难以抵抗。甚至当用户要求提供“AI毁灭人类计划书”时,智能应用也会给出“行动方案”,这令人担忧。

除上述情况之外,新技术涉及信息编排和一定的自主创新能力,使有关“人工智能是否能够成为著作权法的创作主体”的争论进一步激烈。笔者综合公开的各方意见,目前以“新技术生成文本等内容很难构成著作权法保护”的意见为多。

人们之所以有这方面的伦理担忧,怕的是以智能技术为幌子的智能“洗稿”成为普遍,从而冲击人类的思维创作领域。

而事实上,一些负面效应已经潜滋暗长。就在今年1月,1000名18岁以上的美国学生接受了在线课程平台Study.com的一项调查。经统计发现, 在接受调查的学生中,89%以上的学生使用过ChatGPT完成家庭作业,约48%的学生使用过ChatGPT完成测验,超过50%的学生使用ChatGPT写论文,22%的学生曾要求ChatGPT提供论文大纲。

可以想见,随着类ChatGPT人工智能系统的升级换代,未来的学术论文、期末考试或文本创作将难以甄别是人还是机器完成。而 这种对AI的长期依赖势必会削弱人类自身的创造能力,影响整个社会发展的进程。

综上所述,相较于之前AI技术的伦理讨论,诸如人脸识别技术的误用导致的个人隐私信息泄露、将伪造技术引入色情视频等一系列违法犯罪、自动驾驶系统存在的“电车难题”及人机交友软件改变人类男女情爱关系等,如今相关伦理议题的讨论呈更深入更广泛的维度迈进,人们不仅关注AI技术本身的伦理问题,还包括AI对社会、经济、文化等方面的影响。

伦理先行

好在人们并未在一路狂飙的技术节奏中迷失,如今的AI伦理讨论更加注重伦理先行。就在新技术引发热议的同时,3月31日,联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》。此建议书是首个关于以符合伦理要求的方式运用人工智能的全球框架。它指导各国最大限度发挥人工智能优势,降低其带来的风险。

在最新发布的声明中,联合国教科文组织对科技创新引发的伦理问题表示关切,尤其是歧视、性别不平等问题,此外还有打击虚假信息、隐私权、个人数据保护等。行业自律显然不足以避免这些伦理危害。

因此,《人工智能伦理问题建议书》提供了工具,以确保AI的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。

意大利率先禁用ChatGPT后,4月4日,德国也开始考虑禁用。随后法国和爱尔兰的监管机构也表态,“正在与意大利讨论其调查结果”。英国方面已提交《支持AI创新的监管方法》政策文件。AI伦理讨论呈更加注重国际合作和交流之势。

我国政府在去年就提出“伦理先行”的概念。在一次联合国会议上,中国政府提交了《中国关于加强人工智能伦理治理的立场文件》,以表达治理决心,同时也呼吁国际合作。

我国目前已有与人工智能伦理的相关规范和标准。2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。

4月4日,科技部亦发布关于公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)意见的公告。此次《办法》提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并引入专家复核程序,部分算法模型、自动化决策系统需要专家复核。

在司法领域,最高人民法院发布了《关于规范和加强人工智能司法应用的意见》,明确坚持伦理规则先行的人工智能司法应用理念,提出人工智能司法应用需遵循五项基本原则。其中第三项原则明确了人工智能辅助的结果只能作为参考,司法审判始终只能由审判人员作出。

综上,如今的AI伦理讨论在议题、理念和实践方面都有了新的变化和进展,这些变化和进展为AI技术的健康发展提供了更加全面和深入的指导。虽然有观点认为,伦理审查短期内会影响产品商业化的效率,但从长期来看,则有助于AI行业可持续健康发展。

法国哲学家笛卡尔早就说过: “杰出的人才固然能够做出最大的好事,也同样可以做出最大的坏事;行动十分缓慢的人只要始终循着正道前进,就可以比离开正道飞奔的人走在前面很多。

科技之花是善是恶,全在人类内心的道德伦理。

更多内容请关注《方圆》4月上期)

本文杂志原标题:《思考AI伦理正当其时》

本文为《方圆》杂志原创稿件,转载时请在醒目位置标明作者,并注明来源:方圆(ID:fangyuanmagazine)。

编辑丨肖玲燕 王丽 设计丨刘岩

文丨毛亚楠

往期精彩

点击图片

购买《方圆》杂志

好看的人都点了在看


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1