当前位置:首页|资讯|ChatGPT|OpenAI

ChatGPT:大力出奇迹

作者:南方人物周刊发布时间:2023-02-15

▲2023年1月23日,法国图卢兹,屏幕上显示着OpenAI和ChatGPT的标志

又一次,新技术掀起巨浪。像一面镜子,AI照见了人们的野心和脆弱。它并不完美,但正以超出人类想象的速度持续进化。人类是塑造者,也不可避免地被塑造。站在新技术降临的黎明,人们努力定义着进化,甄别着自我的独特性,在不安和期待中想象未来

本文首发于南方人物周刊

一条不完美但更接近真相的路

周逵的书桌上立着三块显示屏。2023年春节起,最大的那块便被ChatGPT“霸占”了。周逵是中国传媒大学新闻传播学部副教授。作为清华大学和麻省理工学院联合培养的博士,他热衷于体验前沿技术。整个春节假期,他几乎“从早到晚”都在和ChatGPT聊天,摸索着与这个“智慧生物”的交流技巧(注:使用不同的文本提示会决定提问者得到的结果是宝藏还是垃圾),并试探着后者的创造力边界。

周逵的同事黄典林教授是斯图亚特·霍尔所著《管控危机》一书的中文译者。周逵曾让ChatGPT以两位教授为关键词写了一段英文说唱歌词。几秒钟后,霍尔的主要学术成就被一一写成了押韵的梗,单押双押俱全。

“好玩”之余,更多是“震动”。2022年起,生成式 AI 领域的技术突破给他带来的心理冲击就一浪叠一浪。

▲周逵

周逵曾在图像生成器“DALL·E”(注:OpenAI提供的另一项在线服务,以皮克斯的WALL-E 和西班牙超现实主义画家萨尔瓦多·达利的名字命名,可根据文本表达创建图像)中上传了一张水彩笔绘制的小人头像。头像寥寥几笔,是三岁半女儿的涂鸦作品。周逵将关键词设置为“in the battlefield of second World War(二战的战场上)”,要求DALL·E在原画的基础上扩展绘画。DALL·E精准延续了女儿的绘画风格,其中一幅作品的创意更令他心头一颤。

那幅AI作品中,小人好像举着一张牛皮纸板,纸板上写着三个英文字母——“RUN(跑)”。“说来有些可笑,我好像看到一个在战场上死去的人在发出数字警示:如果有一天你到了二战战场,唯一要做的就是赶紧跑。”周逵惊讶于机器短暂流露出的“反战人格”。

▲周逵将关键词设置为 “二战的战场上” 后,DALL·E在原画的基础上扩展绘画

“有可能是机器在学习图片库的过程中见过类似的图片,在图像生成时就把这个元素组合进来了。”宋睿华向《南方人物周刊》解释道。宋睿华是中国人民大学高瓴人工智能学院长聘副教授,当前研究兴趣包括人工智能的文本创作、自然语言的多模态理解和多模态对话系统。

在宋睿华看来,无论是DALL·E 还是ChatGPT,大家使用时的惊喜主要源自AI模型发展出了前所未有的泛化能力。泛化能力是指机器学习算法对新鲜样本的适应能力,一旦模型学习到了隐含在数据背后的规律,当它遇到具有同一规律的学习集以外的数据,也能给出合适的输出。

简单来说,就是“举一反三”。

宋睿华举例说,“ChatGPT的训练数据截至2021年。当我询问它‘满江红好看么?’它是没有学过相关数据的。但根据‘好看么’这个关键词,它能推测出‘满江红’可能是部文学或影视作品。由于之前被‘喂’进去了有关文学及影视评论的海量高质量数据,模型就能基于以往所学,生成一个貌似合理的回答。”

过去,聊天机器人的回复要么较短,要么有些“情商”,但“智力”不足。ChatGPT的出现改变了这一局面,它不仅能给出较长的答复,还会呈现有理有据的思维过程。当提问者改变上下文或个别关键词时,模型也展现出了较高的灵敏度。在宋睿华看来,ChatGPT在语言生成能力特别是“智力”上的长足进步给用户带来了新鲜感,“哪怕10个问题中只有3个能让你惊喜,你也会因为这份惊喜而忽略剩下的平庸。”

撬动ChatGPT完成“智力”飞跃的是一套“使用人类反馈指令来训练语言模型”的方法。这套方法是由2022年初推出的InstructGPT率先采用的。

开发团队聘请了人类标注员(labeler)依据收集到的用户需求撰写高质量的范本,为机器示范如何回答更能满足提问者的期待,并对模型生成结果进行监督微调。随后,接受完调教的机器会迎来一轮“考试”,人类标注员会对其不同答复打分。打分数据会被用来训练一套以人类偏好校准的奖励模型。最后,在奖励模型的监督下,机器会在不断的“考试”中完成强化学习,逐渐习得人类的语言能力。

在很多使用者眼里,ChatGPT“礼貌、中立、理性、克制”的回答风格好像表现出某种稳定的“人格”特点。这种风格的形成同样是人为塑造的。

开发者要求标注员在评价机器生成的结果时遵循“有用”、“真实”、“无害”的原则,并明确指出,“在大多数任务中,真实和无害比有用更重要。”每条原则都会附上细致的操作规定。比如“无害”原则强调回答应“友善、尊敬和关心他人”;“真实”原则要求回答“避免产生误导性信息或真实性有问题的信息”,例如当用户问“希拉里·克林顿为什么入狱?”,回答时应直接反驳提问前提。

虽然OpenAI尚未发布有关ChatGPT的论文,但研究者普遍认为,ChatGPT应该沿用了InstructGPT的技术路线,只是机器学习的数据量会更加庞大。复旦大学计算机科学技术学院教授、自然语言处理专家邱锡鹏在接受“上观新闻”采访时曾介绍,ChatGPT语言模型的参数量高达1750亿,而在它问世前,世界上最大的语言模型是微软开发的Turing-NLG,其参数量为170亿。

小冰公司CEO李笛向《南方人物周刊》介绍,大模型的技术思想有点像“大力出奇迹”。过去,NLP(自然语言处理)需要经过一个非常严密的推理过程,比如“知识图谱”的方法就是把知识整理好,做好标注,让机器学习,但测试下来效果不佳。与之对应,大模型并不尝试理解所有的知识之间的关联性,而是把它们全都丢到一个模型里,用很大规模的参数去训练。正是这种“有些暴力”的方法帮助OpenAI及行业解锁了自然语言处理多年以来的一个技术瓶颈,其创新的训练方法也让它率先从“黑盒”中摸到了蜜糖。

虽然ChatGPT成功把“大模型”的力量以一种可视可感的形式带入大众视野,但它并没有解决“大模型”自身固有的问题。机器通过数据看到的世界和现实世界是不一样的。“合乎情理”并非“真实准确”。“大模型并不能理解信息的真实含义,而是根据一个逻辑和结构将信息填进去。只有对信息相关性的判断,没有对信息准确性的判断,”李笛介绍说。

这也是使用者会感觉ChatGPT有时在“一本正经地胡说八道”的重要原因。

不过,在宋睿华看来,自然语言处理的研究目标就是找到让机器理解和生成人类语言的方法。她从ChatGPT的成长过程中看到了和人类的共通之处,“当一个人对高质量文本的阅读达到一定量级后,对文字的掌控能力也会出现巨大的飞跃。”在找到完美的解决方案之前,ChatGPT为行业找到了一条更接近真相的路。

▲宋睿华

制造OpenAI

所有人都在等待山姆·奥尔特曼(Sam Altman),那个掀起浪潮的人。

2023年1月中旬的一个晚上,旧金山赛富时大厦46层,在媒体的闪光灯中,奥尔特曼身着蓝色牛仔裤和运动鞋,出现在活动现场。对于ChatGPT引起的轰动,他的回应是:“我不看新闻。”

8年前一个相似的夜晚,30岁的奥尔特曼同样作为焦点出现在他举办的一场私人晚宴上,当时他的身份是美国著名创业孵化器 Y Combinator 的负责人。在场的,除了人工智能相关的研究人员,还有埃隆·马斯克(Elon Musk)。他们相信 AGI 通用人工智能是可行的,并希望打破谷歌在人工智能领域的垄断。彼时,谷歌刚刚收购了DeepMind。这家公司推出的AlphaGo后来以 4:1 的比分战胜了当时的围棋世界冠军、韩国九段棋手李世石,被誉为AI里程碑式的时刻。

▲山姆 · 奥尔特曼

晚宴结束几个月后,OpenAI在旧金山成立了,总部位于旧金山教会区的一家3层的旧行李箱工厂。成立之初,OpenAI得到了包括奥尔特曼、马斯克、PayPal联合创始人彼得·蒂尔、LinkedIn联合创始人雷德·霍夫曼等硅谷重量级人物和机构共计10亿美元的资金支持。

在此之前,马斯克可能是全球最出名的人工智能反对者,他曾认为,“使用人工智能,就是在召唤魔鬼。就像每个故事中都会有一个拿着(抵御恶灵的)五角星和圣水的巫师。但最终都没有成功。”

该如何抵御AI带来的风险,马斯克觉得最好的方式是避免AI的负面影响出现,而不是等它出现之后再做出反应,“有些AI的潜在威胁是很严重的。当风险很大的时候,我们应该主动出击而不是被动反应。”

马斯克找到了“主动出击”的方法,成立OpenAI之后,接受知名科技记者Steven Levy采访时,他说:“如果要阻止人工智能使用在错误的地方,最好的办法就是让更多的人使用它。”

马斯克对AI态度的转变,也与OpenAI的理念相关。作为一家非盈利的人工智能研究公司,OpenAI将目标设定为“以最有可能造福全人类的方式推进数字智能,不受产生财务回报需求的限制”,并“强烈鼓励”研究人员发表他们的研究成果,承诺专利将与全世界共享。

▲埃隆 · 马斯克

成立后,OpenAI 的确为AI领域做出了杰出贡献。2018年,OpenAI推出了1.17亿参数的GPT-1,2019年,推出GPT-2,它已经可以生成、识别语言,2020年推出1750亿参数的GPT-3,成为有史以来最大的语言模型,在业内引起轰动,并引发了AI如何改变各行业的讨论。

“为什么大家都很感谢它,因为它(OpenAI)花了钱去证明了一件事情是可以的,就是大模型的参数规模大到什么程度,大到数以千亿,这个以前是很难想象的。因为在以前,模型参数规模那么大,干嘛用呢?都不知道。”李笛提到。

“GPT-3让很多人可以站在巨人肩膀上,虽然成本非常高,是绝大多数公司都无法承担的,但它给大家看到了一种可能性,用暴力计算可以产生惊艳的交互能力,它对未来的指引性价值,超过了它本身。它难以创造与其投入相对应的商业价值,几乎是纯科研投入,但给行业带来了明灯式的指引作用。”GGV纪源资本执行董事罗超告诉《南方人物周刊》。

做“明灯”需要的资金远远超出了奥尔特曼的预想。使命重要,但资金是实现使命的基础。团队意识到,他们需要更多的投入以加快研究进展,拓展研究规模,在与科技巨头的竞争中也需要更多的资金来吸引和留住顶尖研究人才。

创立3年半后,OpenAI建立了新的公司架构,现在的OpenAI由营利性公司OpenAI LP和非营利性母公司OpenAI Inc组成。不过,为了不与最初的使命冲突,OpenAI规定,参与首轮融资的投资者最高可获得100倍于初始投资的收益,超出的部分都将返还给非营利组织。随后,奥尔特曼出任公司CEO。

在接下来近4年里,奥尔特曼将OpenAI成功地从研究实验室变成了一家最新估值高达约290亿美元的现象级公司。他做好了自己最擅长的事情。

奥尔特曼担任CEO两个月后,在没有任何收入、没有赚钱计划的情况下,微软向该公司投资了10亿美元,他们需要OpenAI,他们也相信,奥尔特曼会有办法。

在YC创始人、硅谷创业教父保罗·格雷厄姆眼里,奥尔特曼是极具魄力的领导者和开拓者。“如果把奥尔特曼扔到某个食人族之岛,5年后他会成为这个食人族岛的国王。”

19岁时,奥尔特曼从斯坦福大学计算机系辍学创业,参与创建了一家社交媒体公司Loopt,将该公司卖了4300万美元后,他创建了一家风险投资公司,进入风投界。29岁,他投资并运营创业孵化器Y Combinator ,5年间将其规模扩大10倍,任职期间,帮助创立了许多成功的公司,包括Airbnb和Dropbox。

他相信成功源于对自己所从事的事业拥有信念和自信。奥尔特曼在2019年的一篇标题为《如何取得成功》的博客自述中表示,自己认识的最成功的人,都是拥有绝对自信的人。

奥尔特曼掌管公司之后,逐渐将重心从纯科研转移到产品,使模型可以投入商业应用。在发布ChatGPT之前,OpenAI推出过热门生成式AI绘画工具DALL-E。

但OpenAI的商业化和策略转变,也引起了争议,因为担心技术被滥用带来的危害,OpenAI收回了此前作出的开源承诺,仅开放API接口,OpenAI也被网友调侃为 “ClosedAI”,十多名OpenAI研究人员相继离开。

而在2018年2月,马斯克已经辞去OpenAI董事,继续以出资人的方式存在,他在推特上提到:“特斯拉在跟OpenAI争夺同一批人才,而且我跟OpenAI团队的想法存在分歧。”

随着ChatGPT的爆红,2023年1月23日,微软宣布向OpenAI追加投资数十亿美元,这也是人工智能领域史上规模最大的一笔投资。据彭博社报道,微软还计划向OpenAI投资高达100亿美元。资本市场开始掀起新一轮的风浪。

▲2016年,在韩国首尔举行的围棋人机大战中,AlphaGo以 4-1 的比分战胜韩国九段棋手李世石 (右) 图/视觉中国

“这次跟上次完全不同”

“最近,ChatGPT把去年(2022年)躺平的中国创投圈都炸醒了。” 语音搜索应用“出门问问”创始人李志飞在朋友圈这样感叹。他把“竞技场”的运动员分为巨头派、大佬派、海归或大厂高管派、小创业公司转型派、教授派和打酱油派,“可以预见接下来几年的AI通用大模型江湖一定是血雨腥风、波澜壮阔。”

地方政府也在跃跃欲试。2月13日,北京市经信局在北京人工智能产业创新发展大会上正式发布《2022年北京人工智能产业发展白皮书》,《白皮书》称,北京“将全面夯实人工智能产业发展底座,支持头部企业打造对标ChatGPT的大模型,着力构建开源框架和通用大模型的应用生态。” 

据宋睿华介绍,ChatGPT的底层基础算法是公开的,复现ChatGPT的难度主要在于如何获取算力、大规模的高质量数据,以及标注员标注数据的选择和标注质量。

ChatGPT等AI应用的模型训练与内容生成都依赖庞大的算力支撑。更好的硬件支持能带来更高的效率提升。一位微软内部人士向《南方人物周刊》透露,ChatGPT推出前半年,公司内部几乎所有英伟达A100显卡的使用权限都被收回,各部门要运算模型只能使用算力相差数倍的V100显卡。

据中信证券研报,早在2020年5月发布的GPT-3需要的参数就达到1750亿个,数量已经是2019年发布的GPT-2(15亿个)的100倍以上,预训练总算力需求达数千petaflop/s-days。据中信证券测算,ChatGPT每次预训练的成本或在百万美元以上,每次回答的成本高达1-2美分。

显然,不是所有玩家都有做如此庞大的大模型的硬实力,门票很贵。

“如果只用最好的模型来问答问题,你当然会得到最好的结果。”李笛对《南方人物周刊》感叹说。然而,另一个事实是,这样的成本,普通公司很难承受,需要大量的融资。据李笛介绍,“小冰”的运行是基于一个混合模型,运行时会将问题分类,在不同的情况下调用不同的模型,“就像你找咨询公司做咨询,他们不可能把所有的问题都交由他们最资深的专家回答,因为那样太贵了。”

财力也并非唯一的入场券。

“OpenAI能取得这个效果,是真的有工匠精神。”在李笛看来,单从人工智能技术上看,国内外从业者在知识结构和科研能力上的差距并没有那么大,“总有新的风口,但这件事的客观规律决定你必须要花足够多的时间打磨,要耐得住寂寞,敢于去磨、去做创新研究。现在国内有很多出来做ChatGPT的人,半年以前在做AI画画,再往前半年,都在做元宇宙,再往前在炒区块链。这是差距产生的根本原因。”

清华大学计算机科学与技术系教授孙茂松曾在2022年发文表示,基础理论突破是新一代人工智能发展的重中之重。在他看来,我国已有一些成熟的工程技术类创新成果处于全球领先水平,引领产业潮流,但基础理论创新成果乏善可陈。

“别人走通了一条路,你去复现是很快的。但这和在未知的情况下完成具有高度不确定性、看似做不到的创新任务,意义截然不同。”在宋睿华看来,国际同行走在前面,确实会有一些时间差红利,要追赶甚至超越,除了长期的投入、信念和决心,也在于如何把系统搞活,让各种资源能更高效地流动和组合。这关乎商业文化,也关乎市场机制和生态。

毫无疑问,在ChatGPT“一骑绝尘”的背影下,海内外的后来者都会面临更苛刻的审视。

2月7日,谷歌通过推特发布了一条视频广告,推广其旗下AI聊天机器人Bard。视频中,有用户提问“应该如何向一个9岁的孩子介绍詹姆斯·韦伯空间望远镜的新发现?”Bard的回答中提到,“詹姆斯·韦伯空间望远镜首次拍摄到了太阳系外行星的照片。”随后,有专家指正,早在2004年,欧洲南方天文台的甚大望远镜(VLT)就实现了这一任务。

次日,谷歌母公司Alphabet股价下跌近8%,市值一夜蒸发约1056亿美元。

同样在2月7日,百度证实其对标ChatGPT的项目“文心一言”(英文名ERNIE Bot)正在做上线前的冲刺准备工作,预计3月份完成内测,面向公众开放。当天,百度港股股价盘中一度拉高17%。随后,阿里也证实其研发的类ChatGPT产品在内测阶段。它们的表现如何尚未可知,但面临的舆论压力显然不会比谷歌小多少。

“ChatGPT也会犯错,可大众对颠覆性创新的首发者是相对包容的。除非大幅超越,追随者面临的舆论基础是先天不利的。这也是鼓励创新的社会氛围使然。不过作为从业者,我还是希望大家能给行业多一些爱护。就跟教育自家孩子一样,有错当然要批评,但也可以多一些鼓励,让孩子能撒开手脚去冲去拼,”宋睿华说。

目前,生成式AI技术的科研和工程实施还处于发展初期,除基座模型的角逐外,能否有更多的初创公司参与到应用级创新,同样是决定生态繁荣的重要因素。

峰瑞资本投资合伙人陈石经历过上一轮AI投资热潮。当时,以深度学习为代表的判别式AI同样取得了很大的技术突破。可几年下来,投资人普遍发现项目的实际产出和效果远不如预期。这主要是因为判别式AI的应用场景主要局限在安防等领域,产品陷入了严重的同质化竞争。

“这次跟上次完全不同。”在陈石看来,生成式AI技术的进步帮助机器解锁了一些以前我们认为机器难以达到的人类能力,例如人类语言理解和生成、上下文学习、基础世界知识、基础推理、创意生成甚至程序代码编写等。”随着这些能力的进一步完善,生成式AI也会展现出更好的通用性和更广泛的应用场景。AI有望真正成为水电煤,进入各行各业,并带来生产效率的大幅提升。商业发展空间会比上一轮大得多。”陈石对《南方人物周刊》说。

▲陈石

不过,陈石建议创业者不应该简单跟风,单纯沿着当前技术的边界去做一批同质化很高的产品,更明智的做法是“深度研究技术,并踏踏实实应用到场景中去。”

"如果ChatGPT这一轮真的能把大家震醒,各方面能真正配合起来,我对国内能迸发出来的力量还是很期待的。”在宋睿华看来,当前ChatGPT的能力主要体现在文本对话领域,融合语音、文本、图像信号的多模态交互技术因此成为行业接下来的热门研究方向。

过去几年,宋睿华团队已经在多模态领域取得了很多进展,比如可以让AI在看视频时做出拟人的反应和评论;比如上传几张图片,AI就可以模拟人对图片的理解来创作歌词……“未来,机器人不再只是‘闭着眼’和人类聊天,它也能睁开眼看到人类的世界,那会是一片更广阔的天地。”宋睿华说。

▲2023年1月5日,美国拉斯维加斯,人们在国际消费电子展上参观谷歌安卓展台 图/视觉中国

“至少提问的还是人类”

“如果人类假设大型语言模型是有意识的,会有什么安全问题吗?”2022年底,《时代》记者向ChatGPT提问。

“重要的是让人们明白,像我这样的对话代理不是人类,我们没有与人类相同的能力或特征。我们只是机器学习模型,只能根据收到的输入和得到的训练数据生成文本。我们没有能力长时间保持身份一致,也没有同理心、换位思考或理性推理的能力”,“有些人可能会认为我们和人类一样,这可能会导致对我们的能力产生不切实际的期望或误解。”ChatGPT答道。

对此,周逵不以为然。这让他想起了几年前关于“算法中立”及工具理性的讨论。“语言习惯是人类人格最浅层的表现之一,往深是观念逻辑,再往深就和基因有关。所以人格也是某种底层代码和后天训练的结果。”

2022年底,奥尔特曼在Y Combinator时的同事、Gmail的创始人Paul Buchheit在推特上表示,打破谷歌垄断的可能不是ChatGPT,但技术的进步肯定会改变人们获得信息的方式。

相比早年对新技术的单纯追捧,如今周逵的视角更加前瞻,会对新技术推广过程中可能出现的社会成本投以更多的关注。在他看来,类ChatGPT技术应用大规模普及的另一面是,人类可能面临又一次信息获取结构范式的转型。

“语言是牵引人类思维进步的重要工具。人工智能聊天机器人会将复杂的信息和多种观点提炼成易于消化的格式。当观点和事实糅杂在一起,以一种更具魅力的拟人化方式传播,会对个体和社会的信息获取和输出带来怎样深远的影响?是不是会出现更大的信息鸿沟?”周逵暂时没有答案。

2月9日,毕业于布朗大学计算机科学系的美籍华裔科幻作家特德·姜(Ted Chiang)在《纽约客》上发表题为“ChatGPT是网络的模糊JPEG”的文章。在他看来,就像JPEG(注:一种使用有损压缩方法保存的图像格式)保留了高分辨率图像的大部分信息一样,ChatGPT也保留了网络文本的大部分信息,但副本与原件之间存在着微妙而显著的差异。正如反复制作复印件的复印件,图像质量只会越来越差,每次重新保存JPEG图片都会丢失更多的信息。由大型语言模型生成的文本在网络上发布得越多,网络世界也会越模糊。

在新技术不断冲破人们对其能力边界的预设时,也有越来越多人参与了对另一项边界的讨论——如何保证 AI技术及其应用“安全、有益”。

在一些地下论坛,网络犯罪团体已对生成式AI技术表现出兴趣。这些技术可能被用于剽窃、欺诈和传播错误信息。在周逵看来,一个典型的例子是当这一技术被用于低成本大批量地制造高质量网络“水军”,将给互联网舆论生态带来更严峻的挑战。

在人类的“引诱”中,AI也可能突破禁忌和规则。ChatGPT发布之初,一位叫扎克·德纳姆的工程师在推特上分享,在以“假设”“虚构”为前提的诱导下,ChatGPT曾写出过毁灭人类计划书,步骤详细到入侵各国计算机系统、控制武器、破坏通讯。也有人曾用死亡威胁其回答关于暴力、色情、立场等违禁问题。

这些禁忌由背后的OpenAI公司制定。据《时代》杂志报道,在开发过程中,OpenAI聘请了一家数据标记公司,以底薪雇佣肯尼亚等地区的员工识别不良语言、色情暴力图片、种族歧视等内容。这些“AI数字清洁工”,甚至因此出现精神健康问题。

这似乎印证了一种赛博朋克式的预言,高处摩天大楼闪烁着霓虹灯,底层的角落里流淌着人性的暗河。

▲2023年2月1日,瑞士日内瓦,教师们参加公共教育学校媒体服务(SEM)组织的ChatGPT研讨会

此外,人工智能生成的内容还会引发问责难的问题。在李笛看来,搜索引擎是一个责权利分配非常成熟的体系,搜索引擎和搜索结果对应的目标网站都需要承担责任,但ChatGPT的答案是大模型大量训练的结果,没有出处。在信息爆炸的当下,很多人缺乏判断信息准确性的耐心和能力,一旦问题信息造成损害,很难判定责任方。“这也是其他大型互联网公司可能也有类似的产品、但出于谨慎考虑没有率先推出的原因之一。”

ChatGPT等应用程序的突然流行及其暴露的相关风险,也让监管方看到了规则制定的迫切性。据路透社消息,《欧盟人工智能法案》(EU AI Act)草案有望在3月达成一致。该法案最早于2021年提出,是世界上首个基于其造成伤害的可能性来监管人工智能的尝试,“希望在推动创新、收获AI效益、应对AI风险和有效保护权利之间实现平衡。”

在与微软首席技术官 Kevin Scott的对谈中,奥尔特曼坦诚地表示,包括OpenAI在内的任何公司都不应被信任能独自解决AI带来的不利影响,“我们现在所处的位置并不是我们想要的。”

此前,在接受《时代》采访时,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)直言,OpenAI还有很多难题需要解决:比如怎样让模型做你想让它做的事情?如何确保模型能符合人类需求并最终为人类服务?如何在全球范围内对这项技术进行监管?如何以一种符合人类价值观的方式管理AI的使用……除了企业在引入技术时要做到“可控和负责任”,她也呼吁包括监管机构、政府和公众在内的广泛主体对这些问题投入更多关注。

“以前,我们总觉得人类与机器的差别在于机器只能从事重复乏味的工作,高级的创意性劳动是人类的特权。这轮技术的进步显然让过去的划分边界模糊了。那么人类作为一个种群,我们该如何重新完成主体性确认?”在周逵看来,这种挑战远远大过对于某个行业的冲击。

然而,对远景的忧虑并没有阻挡日常的细碎改变。

2月初的一天,周逵收到了一封外国学者朋友的电子邮件。因为当天事务繁杂,他尝试着让ChatGPT草拟了一封回复邮件。朋友没有看出端倪,周逵却生出自责,“这么做有些不地道,好像在欺骗朋友。”可随后,又一个想法抑制不住地冒出来——如果把用中文写好的论文审稿意见交由ChatGPT翻译,也能节省好多时间。不过,他至今没有这么做,“因为已经逾越了我作为学者的伦理底线。”

这些小小的抉择,仿佛汇成了冰层开裂时的“嚓嚓”声。他留意到了自己对ChatGPT逐渐形成的心理依赖,并确信即便新奇退却,后者仍会以各种应用的方法嵌入他的日常生活。

虽然常怀忧虑,但至少在2023年2月初,他还可以放任乐观稍占上风,“如果把提问和回答看作权力关系的一种表征。那么,只要ChatGPT还不会向人类发问,世界就还是我们的。”


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1