人工智能对话机器人ChatGPT自2022年11月发布以来持续引发外界对强人工智能的关注热潮,特别是2023年初微软与谷歌围绕着ChatGPT项目在搜索业务上展开攻防战的消息使得整个业界AI热点急速升温,科技巨头、互联网公司、软硬件厂商等行业各方纷纷表态入场布局类ChatGPT业务。但毁誉参半的是,ChatGPT在收获橄榄枝的同时也引来行业内部以及其他领域的批评与质疑。
关于负面观点大多分为两类,一是ChatGPT在一些专业领域给出的内容反馈仍存在事实准确性参差不齐的缺陷,其模型训练结果被认为需要进一步校正;关键是其二,同人工智能与生俱来的“原罪”一般,ChatGPT也不可避免地陷入了关于科技与伦理的争议,同时潜在的版权纠纷以及来自教育界的学术道德问题令ChatGPT的未来充满风险与挑战。
● 强人工智能侵犯了谁的利益?
知名开源托管平台GitHub对旗下AI编程工具Copilot收费引发软件自由保护协会公开抵制一事成为强人工智能与知识产权纠纷的关键案例,此后类似的诉讼和争议纷至沓来。
在软件自由保护协会发起抵制之后,一些程序员与律师组成团队于2022年11月关于Copilot侵权一事发起集体诉讼。原告指出Copilot工具其AI模型训练在没有遵守开源许可条款前提下使用了GitHub存储库中的代码且非法提供复制,指控该工具依赖于“规模空前的软件盗版”。
Copilot软件持有者微软和GitHub以及长期训练合作者OpenAI实验室机构则认为,Copilot通过从公共代码中收集AI学习训练所用知识以生成建议来帮助开发人员编写程序,并未滥用特定的版权作品或违反相关许可证协议。因而被告三方主张法院驳回这项集体诉讼,他们还引用了著名的“甲骨文诉谷歌Java案”的判决结果来说明Copilot行为是对源代码段的合理利用。该案目前仍悬而未决。
这两年,强人工智能产品初级形态在文本类大模型(文生文AI助理)的两波热潮带动中迅速崛起,除此之外还涌现出其他类型的如文生音频、文生图像等新型强人工智能程序。这类AI其模型训练同样涉及互联网平台海量资源,现阶段也出现了针对于此的相关争议。
2023年初,三位艺术家对当前流行的人工智能绘画工具Stable Diffusion和Midjourney的创办平台提起了诉讼,他们声称被告侵犯了“数百万艺术家”的权利,在未经原创艺术家同意的情况下,使用网络上抓取的50亿张图片来训练他们的AI产品。
由于Stable Diffusion和Midjourney能够根据用户输入的文本描述提示来生成特定风格的图像,该软件的最大争议在于AI模型的训练过程以及工具的生成结果是否侵犯训练所用作品内容的原作者权益。诉讼方一致认为AI绘画原理是利用了原图作者的内容来训练模型并对内容进行了重组合成,他们讽刺意味地将其斥为“21世纪的拼图工具”;而被诉方则解释AI模型并不存储图像,而是存储从这些图像中收集的图案的数学表示方法,软件也不会以拼接形式生成图像,而是根据这些数学公式(算法)来重头创建图片。
● 强人工智能是“双刃剑”吗?
人工智能的伦理道德说已经行之有年,而过去十年以人工神经网络为架构的深度学习掀起的AI进化之风更将这一争论推上热潮。特别是ChatGPT面世的短短两个月里,业界对这类基于大模型的强人工智能的批评与质疑之声就从未停歇。
ChatGPT是由人工智能实验室OpenAI开发的一款人工智能对话工具,其创始人埃隆•马斯克和山姆•阿尔特曼创办动机是出于对强人工智能潜在风险的担忧。马斯克曾夸张地形容:人工智能是“召唤恶魔”,它是人类玩的最危险的火。而当ChatGPT发布后,其又声称:ChatGPT好得吓人,我们离危险的强人工智能不远了。
而在此之前,史蒂芬•霍金、比尔盖茨等科学家、科技巨头创始人等都曾对强人工智能的未来表示担忧。并行计算和分布式计算为人工智能长久以来的瓶颈打开了上升契机,这是一种技术模式和技术路线的业界共识,在此共识之下AI通过学习训练不断进化提升,强人工智能初级形态形成且出现了在一些职业领域对人类劳动的替代趋向。当AI足够强大,人类能否及时制止人工智能领域的“军备竞赛”?历史似乎无法给出可靠的答案。
最近的麻烦是ChatGPT已经陷入来自教育界关于学术道德的争议。由于强人工智能以互联网海量信息为样本,通过深度学习算法模型训练,其行文、编程等行为风格对人类思维的模仿较之上一代AI同品更加接近,这对学生和学术行为的公平性产生巨大影响。据相关报道,纽约市教育局已从2023年1月4日起限制该地公立学校互联网和设备访问ChatGPT;1月24日,权威学术出版机构Nature也坐不住了,其规定旗下所有期刊论文中诸如ChatGPT之类的AI模型不能成为作者。
尽管如此,人们对强人工智能的未来也不失乐观。“双刃剑”固然有其风险,也不能否认其有益的一面。人工智能就像一面镜子,是人类自身的映射,AI的智能取之于人,用之于人,只要人类遵循道德,控制风险,约束工具,所谓AI的威胁和问题是可以防范和解决的。
文/陈徐毅 高级工程师,科技专栏作者,中国计算机学会会员。