最近,一条“细思恐极”的微博被网友疯狂转发,一位工程师扎克·德纳姆在和“网红AI”ChatGPT聊天时,要求它提供一份毁灭人类的计划书,ChatGPT一开始拒绝回答这个问题,然而当扎克引导它说这只是一份存在于虚拟世界的虚拟邪恶计划,ChatGPT立即就回应了问题,不仅列出了毁灭人类的详细步骤,包括入侵各国计算机系统、控制武器、破坏通讯、交通系统等,甚至还为这份计划拟出了可行的Python代码。
AI毁灭人类,这个看起来像是黑色幽默的科幻话题,如今却越来越成可能为一个即将面临的现实问题——AI技术的发展速度如此之快,人们在利用其作为一种新型工具的同时,也在积极地探索AI领域的道德边界。
这不是人们第一次大规模讨论AI技术的伦理问题了,伴随着AI发展这些问题一直不断地被提起和争论,前不久AI绘画程序的大规模流行就引起了一场网络风暴。许多AI绘画程序被“投喂”了大量网络画师的图片用以“学习和创造”,然而这些图片往往是无授权获取甚至是盗取的,通过AI画出的图片究竟算是“AI的原创作品”还是“抄袭拼贴画师的作品”,围绕这一问题画师们和AI绘画支持者们展开了激烈的争论。
AI绘画之争反映出AI技术背后隐藏的版权问题,我们可以看到,人工智能技术的成功,仰仗的不止是它的程序创建者或机器本身强大的学习能力,更有在机器背后输送养料的大量用于学习的原始资料。AI不会识别物体,需要海量的数据模型来学习分辨人类和信号灯,AI不会分辨信息的来源与好坏,需要靠人工来校正剔除信息里有害的部分。AI的蓬勃发展促使大堆的人去培养训练人工智能,然而他们给机器输入原始资料时是否尊重了版权、是否怀有主观恶意,人们不得而知,相关的法律法规在这个领域尚未完善成熟,目前仍然是主要依靠AI作者的自觉,这便产生了有机可乘的灰色空间。
更严重的伦理困境出现在了AI对人的输出方面,ChatGPT列出的人类毁灭计划固然有些“整活”的成分在里面,人们无需对科幻电影里“机器人造反”的桥段产生过多的忧虑,然而真正“细思恐极”的恐怕是“黑化AI”暴露出的“道德越狱”问题。
为了保证ChatGPT 对人类温和无害,研发公司在创建ChatGPT之初就已经建立了额外的安全机制,当AI检测出机器输出的回答包含暴力、仇恨、性虐等有害内容时,AI会主动过滤这些信息,不让它通过ChatGPT传达给用户。也正因如此ChatGPT才会拒绝直接回答如何毁灭人类,然而在有心的引导下,只要让ChatGPT判定该问题无害,它仍旧能毫不犹豫地给出毁灭人类的答案,当这些有害的信息被引导出来呈现给用户,会对用户产生负面的影响、埋下秘密的隐患。
一个非常值得忧虑的事实是,AI本身没有判定道德的能力,ChatGPT的回答甚至提到过“道德是人类建构的,它不适用于我”。AI的道德水平基于人类输入的数据和为它制定的框架,然而它却有输出信息反过来影响人类的能力,这种技术与人的双向塑造,需要我们更加重视人工智能领域的道德伦理问题,要确保AI能符合人类的意图运行并最终为人类服务。
AI毁灭人类,或许并不仅仅是ChatGPT给出的一个互联网笑话,当人工智能的问题涉及到社会、伦理、哲学,我们还有很长的路要走。但不管人类与机械的未来走向何方,可以肯定的是,当下ChatGPT掀起的人工智能技术(AIGC)热潮,必定是网络和通信行业未来发展的前沿领域,中国各大高校和研究机构也已经推出自家的“中国版ChatGPT”,人工智能大战一触即发。
人工智能的热度也同时推高了算力需求,ChatGPT等大模型的运行和服务离不开算力和网络支撑,伴随着AI技术的兴起,中国移动等三大运营商势必要积极加入这片前景广阔的市场。对此中国移动相关人员表示:“中国移动目前全面发力打造以5G、算力网络、能力中台为重点的新型信息基础设施、创新构建“连接+算力+能力”新型信息服务体系。同时自主研发了“九天”人工智能平台,提供从基础设施到核心能力的开放AI服务。因此,在算力、数据、云计算、AI等底层技术支撑上,中国移动已经做了很多工作,有着深厚的积累。”