文/陈根
今年5月,人工智能安全中心曾发布一份由350位人工智能领域的科学家与企业高管联名签署的《人工智能风险声明》,声明称“降低人工智能导致人类灭绝的风险,应该与流行病及核战争等其他社会规模的风险一起,成为全球优先事项”。彼时,由 OpenAI、谷歌和微软等公司的数百名首席执行官和科学家签署的这一句援引人类灭绝威胁的话,也成为了全球头条新闻。
4个多月过去,今天,社会对人工智能技术的担忧不减反增。随着以ChatGPT为代表的大模型进入应用,人们越来越意识到它的危险性:它有可能制造和传播错误信息;它有能力取代或改变工作岗位;以及它变得比人类更智能并取代人类的风险。如何对人工智能技术进行监管已成为当前迫在眉睫的全球议题。
从来没有哪项技术能够像人工智能一样引发人类无限的畅想,而在给人们带来快捷和便利的同时,人工智能也成为一个突出的国际性的科学争议热题,人工智能技术的颠覆性让我们也不得不考虑其背后潜藏的巨大危险。
早在2016年11月世界经济论坛编纂的《全球风险报告》列出的12项亟需妥善治理的新兴科技中,人工智能与机器人技术就名列榜首。尤瓦尔·赫拉利在《未来简史》中也曾预言,智人时代可能会因技术颠覆,特别是人工智能和生物工程技术的进步而终结,因为人工智能会导致绝大多数人类失去功用。
究其原因,人工智能技术并不是一项单一技术,其涵盖面及其广泛,而“智能”二字所代表的意义又几乎可以代替所有的人类活动。就当前的现实来说,生成式人工智能的争议性主要集中在对人们的隐私权构成新的挑战,使内容造假或者作恶的门槛降低。
比如,前段时间,在互联网平台,“AI孙燕姿”翻唱的《发如雪》《下雨天》等走红,抖音平台上也出现了“AI孙燕姿”的合集。很快,“AI周杰伦”“AI王菲”等也都相继问世。“AI歌手”主要是利用AI技术提取歌手的音色特征,对其他歌曲进行翻唱。但“AI歌手”是否涉及侵权却并无定论,也无监管。
与“AI歌手”相似的,是AI绘画。AI绘画是指利用AI技术来生成内容的新型创作方式,同样因著作权的归属问题频频惹出争议,遭到大批画师抵制。全球知名视觉艺术网站ArtStation上的千名画师曾发起联合抵制,禁止用户将其画作投放AI绘画系统。
除了AI歌手和AI绘画外,AI写书、AI新闻采编也越来越多的出现在互联网中,此前,就有网友发现,亚马逊网上书店有两本关于蘑菇的书籍为AI所创造。这两本书的作者,署名都为 Edwin J. Smith,但事实上,根本不存在这个人。书籍内容经过软件检测,85% 以上为 AI 撰写。更糟糕的是,它关于毒蘑菇的部分是错的,如果相信它的描述,可能会误食有毒蘑菇。纽约真菌学会为此发了一条推特,提醒用户只购买知名作者和真实采集者的书籍,这可能会关系到你的生命。
AI合成除了引发版权相关的争议,也让AI诈骗有了更多的空间。当前,AIGC的制作成本越来越低,也就是说,谁都可以通过AIGC产品生成想要的图片或者其他内容,但问题是,没有人能承担这项技术被滥用的风险。今年以来,已经有太多新闻,报道了AI生成软件伪造家人的音频和视频,骗钱骗财。据FBI统计,AI生成的DeepFake在勒索案中已经成为了不可忽视的因素,尤其是跟性相关的勒索。当假的东西越真时,我们辨别假东西的成本也越大。
AI技术同时也引发了数据安全的争议。比如,今年6月,由16人匿名提起诉讼,声称OpenAI与其主要支持者微软公司在数据采集方面违背了合法获取途径,选择了未经同意与付费的方式,进行个人信息与数据的收集。起诉人称,OpenAI为了赢得“AI军备竞赛”,大规模挪用个人数据,非法访问用户与其产品的互动以及与ChatGPT集成的应用程序产生的私人信息,根据这份长达157页的诉讼文件,OpenAI以秘密方式从互联网上抓取了3000亿个单词,并获取了“书籍、文章、网站和帖子——包括未经同意获得的个人信息”,行为违反了隐私法。
显然,尽管ChatGPT称得上是一项革命性的突破,但其与其他生成式AI应用对人类社会造出的风险也是不可忽视的。
随着AI风险的凸显,各国也把对于AI的监管提上日程。
斯坦福大学发布的《2023年人工智能指数报告》中提到,对127个国家立法记录调研的结果显示,包含“人工智能”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。报告对81个国家2016年以来的人工智能法律法规记录的分析也同样表明,全球立法程序中提及人工智能的次数增加了近6.5倍。
具体监管方面,欧洲议会在今年6月,率先通过了一项名为《人工智能法案》(AI Act)的法律草案,该法案将对被视为该技术最危险的用途施加新的限制——投票禁止实时远程生物识别技术,欧盟禁令意味着不能在公共场合实时人脸扫描;同时要求OpenAI和谷歌等公司必须进行风险评估,并披露更多用于创建程序的数据。不仅如此,《人工智能法案》将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。
在美国,7月21日,包含亚马逊、谷歌、微软、OpenAI、Meta、Anthropic和Inflection在内的7家人工智能巨头公司参与了白宫峰会,这些公司的代表与美国总统拜登会面,为防范AI风险做出了8项承诺。
其中有一项内容很有意思,这7家AI巨头联合宣布——将会开发出一种水印技术,在所有AI生成的内容中嵌入水印。OpenAI在官网中表示,将会研发一种水印机制,加入到视频或音频中。还会开发一种检测工具,判断特定内容是否含有系统创建的工具或API。谷歌也表示,除了水印以外,还会有其它创新型技术,把关信息推广。
就国内来看,今年4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》,到7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局发布《生成式人工智能服务管理暂行办法》,仅仅用了3个月的时间,并且自2023年8月15日起施行。
与此同时,《办法》做出了一系列的规范和管理措施,《办法》明确了提供和使用生成式人工智能服务的总体要求,提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
这也让我们看到,面对AI技术挑战,人类已经开始了自律行动,目的就是让AI更好的服务于人类社会。正如以往的任何一次工业革命,尽管都对人类社会带来了巨大的影响,也存在一些负面伤害,但人类最终都能在技术的协同中,将正向价值发挥到最大,并且最大程度的通过一些规则来降低技术的负面影响。
同样,在AI技术所引发的第四次工业革命浪潮下,尽管目前我们还不清楚技术的潜在负面,但对于已经预见到的潜在影响,人类已经在寻找解决方案。
其实,不管监管会怎样前进,最终目的都是引导人工智能向善发展,只有人工智能向善,人类才能与机器协同建设人类文明。当然,这个问题本身并不复杂,本质上来看,作为一种技术,人工智能并没有善恶之分,但人类却有。
可以预见,随着ChatGPT的进一步发展,人工智能还将渗透到社会生活的各领域并逐渐接管世界,诸多个人、企业、公共决策背后都将有人工智能的参与。而如果我们任凭算法的设计者和使用者将一些价值观进行数据化和规则化,那么人工智能即便是自己做出道德选择时,也会天然带着价值导向而并非中立。
说到底,ChatGPT是人类教育与训练的结果,它的信息来源于我们人类社会。ChatGPT的善恶也由人类决定。如果用通俗的方式来表达,教育与训练ChatGPT正如果我们训练小孩一样,给它投喂什么样的数据,它就会被教育成什么类型的人。这是因为人工智能通过深度学习 “学会”如何处理任务的唯一根据就是数据。
因此,数据具有怎么样的价值导向,有怎么样的底线,就会训练出怎么样的人工智,如果没有普世价值观与道德底线,那么所训练出来的人工智能将会成为非常恐怖的工具。而如果通过在训练数据里加入伪装数据、恶意样本等破坏数据的完整性,进而导致训练的算法模型决策出现偏差,就可以污染人工智能系统。
有报道表示,ChatGPT在新闻领域的应用会成为造谣基地。这种看法本身就是人类的偏见与造谣。因为任何技术的本身都不存在善与恶,只是一种中性的技术。而技术所表现出来的善恶背后是人类对于这项技术的使用,比如核技术的发展,被应用于能源领域就能成为服务人类社会,能够发电给人类社会带来光明。但是这项技术如果使用于战争,那对于人类来说就是一种毁灭,一种黑暗,一种恶。人工智能由人创造,为人服务,这也将使我们的价值观变得更加重要。
过去,无论是汽车的问世,还是电脑和互联网的崛起,人们都很好地应对了这些转型时刻,尽管经历了不少波折,但人类社会最终变得更好了。在汽车首次上路后不久,就发生了第一起车祸。但我们并没有禁止汽车,而是颁布了限速措施、安全标准、驾照要求、酒驾法规和其他交通规则。
我们现在正处于另一个深刻变革的初期阶段——人工智能时代。这类似于在限速和安全带出现之前的那段不确定时期。人工智能发展得如此迅速,导致我们尚不清楚接下来会发生什么。当前技术如何运作,人们将如何利用人工智能违法乱纪,以及人工智能将如何改变社会和作为独立个体的我们,这些都对我们提出了一系列严峻考验。
在这样的时刻,感到不安是很正常的。但历史表明,解决新技术带来的挑战依然是完全有可能的。而这种可能性,正取决于我们人类。