当前位置:首页|资讯|ChatGPT

ChatGPT很好,好就好在让胡锡进无路可走?

作者:将军箭发布时间:2023-02-10

无所不能的ChatGPT

众所周知,学术论文对规范性要求颇高,里面充斥着大量生僻而冗长的“行话”(jargon)。因此,很多国内学者经常与国际学者合作,在国际期刊上发表文章,甚至由此催生了一个朝阳产业:

专门为学术论文提供加工润色服务的专业机构。

专业的服务自然要对得起美丽的价格。一篇像样点的文章,润色的费用基本是5位数起,还不打折。

然鹅,2022年12月,计算生物学家Casey Greene和Milton Pividori邀请了一位特殊的学术助手,对他们的论文进行内容检测与文字润色工作。

在短短15分钟内,神通广大的助手不但很好地平衡了3篇论的可读性与严肃性,还揪出了一个方程式中的引用错误。更重要的是,两位科研狗仅需对完成以上工作的论文助手支付1.5美元

俗话说,“先帝创业未半而中道蹦迪”。游走在学术与商业边缘的论文润色产业,还没有等到“大碗喝酒,大秤分金”的好日子,就这样迎来了残酷的内卷,实在是一项令人忧心忡忡的:

降维打击。

这位特殊的学术助手,就是由OpenAI公司开发的人工智能算法GPT-3。而基于GPT-3的下一代大型语言预训练模型(large language model,LLM),就是目前火遍全球的:

ChatGPT。

(ChatGPT的进化树)

请注意,这不是一个猎奇的新闻段子,而是2023年2月9日,国际顶级学术刊物《自然(Nature)》发表的一篇特稿的开头,该文标题是:

The promise and peril of generative AI

《生成性人工智能的前景与风险》

从特稿的封面配图可以看出,《Nature》的编辑显然是从阿拉丁的神灯中得到了启示,把ChatGPT视为放出魔瓶的灯神。

而ChatGPT能回答人类的,远不止灯神被限定的3个问题。

ChatGPT的商业应用,分分钟推动上千万甚至上亿美元的股价波动。1月26日,素有“美国版今日头条”之称的BuzzFeed宣布,公司将使用ChatGPT开放的API协助创作个性化内容,并承诺“由AI创造的内容将从研发阶段转变为核心业务的一部分”。与此同时,公司还解雇了180名内容创作类员工。受此影响,该公司股价创下公司上市以来的最大涨幅(随后2个交易日股价涨了3倍),市值暴涨超过1亿美元。

在万恶的美帝,ChatGPT成为大学生考试与论文撰写的必备神器。今年1月底,全美最大的全科学习网站Study.com做了一项抽样调查,发现89%美国大学生曾使用ChatGPT完成日常作业与测试,有53%的学生将其用于论文撰写。

有测试者让ChatGPT参加明尼苏达大学法学院的研究生考试,4门考试的最终成绩是C+,已经达到了“学术咸鱼”的平均分;参加SAT考试的ChatGPT获得1020分,达到了整个考生水平的平均分数(相当于百分制的60分)。

出乎众人意料,ChatGPT最具有明确前景的商业化领域,居然是学术论文撰写。2022年12月,通过对ChatGPT输出文本进行持续性的人工校对,一篇成熟的论文被发表于医学研究论文平台MedRxiv上,ChatGPT 是该论文的第三作者。

难怪《Nature》在总结ChatGPT发展史、探寻AI伦理与责任边界等厚重话题之余,罕见地以“文青”口吻评价道,ChatGPT自2022年11月公开上线以来,迅速地做到了:

Shot to Fame(一夜走红)。

为什么“时灵时不灵”?

(一)ChatGPT怎么训练AI

ChatGPT之所以火出圈,是因为它在人机对话过程中表现出强大的可读性与逻辑性。具体情况相信列位有所耳闻,在此不再赘述。这里仅举个最近比较火的例子,某媒体就社会问题向ChatGPT提问,得到的答案如下:

话说,ChatGPT的这些回答,至少比某些专家更像人啊。

ChatGPT整出这样的优秀“花活”,并不是因为它具备真正的自然语言处理能力,更不是因为它具有人类一样的认知与思考,而是因为它能够对AI会话进行大规模预训练(Pre-trained Transform)。

简单说来,ChatGPT的工作原理与大多数自然语言处理 (NLP)模型一样,基本分为3步:(1)用户输入自然语言;(2)ChatGPT理解提问的自然语言;(3)ChatGPT从资料库里搜索素材,有逻辑地展示出来。

但在此过程中,ChatGPT使用了不同的AI训练策略。

(1)在理解用户提问时,ChatGPT使用了监督微调(SFT)的方法,即先由真人回答提问,再由AI模型学习这样的问答模式。

(2)在反馈交互过程中,ChatGPT使用奖励模型训练法(RM)。即由人类和AI模型分别对同一个问题生成的N个回答按照“好坏程度”进行排序,让AI模型分析与人类评判的差异,从而学习人类的打分标准。

(3)在强化学习中,ChatGPT使用近端策略优化(PPO),即采用上一步的打分模式,不断给自己生成的回答评分排序,在强化中持续提升回答质量。

据悉,为了提供足够的监督微调,Open AI将人工干预的活儿外包给了一家名为Sama的肯尼亚公司,由该公司超过1000名员工不断评价ChatGPT的回答,提高后者的学习能力;为了使ChatGPT快速迭代学习各种语言模式和风格,并生成高度准确的响应,ChatGPT模型已经拥有了1750亿个参数。是全世界最大、最强大的语言模型之一。

这是一项极度“烧钱”的算力竞赛,幸好OpenAI获得了微软的风投(光是2019年双方合作时,微软就一次性投入10亿美元),最终硬生生地把这个项目给搞成了。

(二)ChatGPT的未来

值得注意的是,ChatGPT是一种生成式AI(Generative AI),而不是决策式AI(Discriminant AI)。

所谓决策式AI,是根据已有的数据信息进行分析判断和预测,典型的例子就是各大视频平台的算法推荐。而生成式AI则是根据现有信息不断演绎。

举个例子,如果你在问题中仅包含“锂、垃”两个字。决策式AI会从素材库中检索哪些内容同时包含这两个字,最终可能得到关于锂电池耗尽后的垃圾处理。

但生成式AI是一个字一个字地组词,分别进行“联想与整合”。例如对于“锂”,它会联想到“金属锂”、“锂电池”、“锂矿”;对于“垃”,它大概率会联想到“垃圾”,并因此组合出“锂矿开采时的垃圾处理”、“废弃锂电池的垃圾处理”等内容。

也许你会认为,这两者生成结果似乎也差不多嘛?然鹅,决策式AI是从已有资料中去提取信息、不断推测出哪个回答最符合题意,回答的内容是在现有资料范畴内的;但生成式AI的“组词规则”意味着很多不确定性,在每次演绎中都可能包含创新性的回复。

例如对“垃”进行词汇联想,99%的概率出现“垃圾”一词,但也有较小概率出现“金坷垃”这样的奇葩词汇。于是,ChatGPT很可能捣鼓出一篇“从锂电池到金坷垃,高科技与农业的结合与颠覆”之类的魔幻回答。

注意了,这还是“组词”严重受限的情形。如果是更加灵活的词素(例如“人”、“物”、“做”、“好”…),ChatGPT可以“恶意联想”出各种千奇百怪的回答,脑洞远超常人。

可见,ChatGPT最适合那些开放式的、没有既定标准的回答,例如创造性的写作。一篇以“锂”、“垃”、“神”等关键词提问的ChatGPT回答是这样的:

科学哲学中有一个著名的“无限猴子定理”:

在无限长的时间里,无数多的猴子在打印机上胡乱敲字母,则在理论上,它们甚至可以打印出莎士比亚全集。

这个思想实验常用于描述“无限的本质”。ChatGPT的出现,则为“无限尝试中酝酿着一切可能”提供了一定的可操作性。

这也意味着,生成式AI拥有光明的前途。

(三)ChatGPT的局限性

明白了生成式AI的运行规则,我们才能理解,如何正确地使用ChatGPT。

简而言之,提问与纠错门大学问。

详细的指令式提问,是获得满意答案的前置条件,即先采用“问答示范”的方式,提供限定的关键字样本对AI进行训练。例如为了在描述性的新闻中萃取有用的投资信息,用以下提问更可能得到满意结果。

这种“问题(Q)-回答(A)”启发式提问方式具有广泛的应用场景。2023年2月6日,财通证券分析师运用ChatGPT写成了第一篇试验性研报,在写作过程中,分析师表示:

尽管形成专业可信的研究报告仍需不少改动,但效率高,具备基本逻辑可读性较强,未来肯定会替代人工。

但反过来,为了防止程序跑偏,反复调整与纠错是非常有必要的。《自然》的最新特稿就强调,用ChatGPT写学术论文时的五个关键问题,最重要的一条就是:

务必以人工方法对模型进行持续校对…ChatGPT的“词汇联想机制”导致了工作过程中“编造”一些似是而非的内容,其中包含了一些事实错误、错误陈述和错误数据。这些错误可能是由于ChatGPT的训练集中没有相关的文章,未能提炼出相关的信息,或者无法区分可信和不太可信的来源。

别说是学术研究了。哪怕是常识性问题,ChatGPT的联想与解析,也可能生造出一个尴尬的回答来。

这个回答初看起来似乎模有样,不但补全了“床前明月光”的全诗,还对作者创作背景进行了一番洋洋洒洒的解释,看起来很厉害的样子。

可惜,几乎所有中国人都知道,“床前明月光”出自李白《静夜思》。但这个回答中,ChatGPT却硬说是《月下独酌》。至于原因,无外乎是:

ChatGPT在检索和联想过程中,检测到了“李白”、“月”等关键词,然后又在《月下独酌》一诗中,得到了相应的信息,于是张冠李戴…

心理学中说到一种“光环效应”,即人们交往中,往往从少数突出的正面印象中过度归纳正面倾向、喜好的特性。同理,提问者如果第一时间就被ChatGPT华丽的词藻、旁征博引的论述所震慑,很可能就会省去对关键信息的复核,甚至被错误(或有偏见)的信息所误导。

这就和短视频的病毒式营销一样,观众觉得某个短视频说得很正能量、金句运用得很接地气,就对该视频全盘接受,而不会去思考、质疑短视频作者是否存在逻辑错误、片面引用、捏造事实等问题。

所以《自然》特稿的最终结论是:

为了防止人类自动化偏见(注:这里特指人类过度依赖自动化系统),强调问责制的重要性将变得更加关键。我们认为,人类应该始终对科学实践负责。

ChatGPT在中国

对于广大中国网友而言,ChatGPT的应用场景似乎没有那么严肃,目前主要用于段子创作。例如2022年12月,就有网友利用ChatGPT,创作关于前《坏球时报》主编的段子。

事实表明,ChatGPT “车轱辘话来回说”的答题技巧、“无法回答但就尴聊”的“嘴强王者”属性,特别适合于模仿东城区胡扯大主编、朝阳区居民司马北,以及各种神奇的经济学家。

一个广为传播的AI创作范例如下图所示:

这“茶艺十级”的才气展示,不得不让热心网友婶婶地为胡大主编担心起来:

ChatGPT这么灵活圆润,会不会让老胡无路可走?

你还别说,胡主编还真的公开回应了这个问题。当然,回答的风格还是老样子——说了很多,但我不知道他到底要表达什么意思。

窃以为,从技术上看,ChatGPT可以把胡主编的答题技巧模仿得惟妙惟肖(例如围绕着问题来回蹭,就是不挺身而出直指核心的腻歪劲)。但是,像胡主编这样的专家,最大的优势是善于算账、善于理解大是大非,善于抛开事实不谈…的混沌理论啊。

毫不夸张地说,OpenAI公司哪怕投入再多的AI训练,哪怕把后台的CPU烧熔化了,也教不会ChatGPT在短期内自相矛盾的答题本领。

(来看看老胡的中肯分析嘛)

还有一点,在很多时候,专家们主动跳出来强行答题,不是为了普及专业知识,而是为了表演“强行挡刀”绝学。试想,人民群众对着胡说八道的专家一顿臭骂,对专家论及的具体事项就来不及关心了;而即使专家玩大了,责任也完全在专家个人,都是他(她)不学无术、良心大大的坏呐。

这门挺身而出当靶子的绝学,充满了悲壮的黑色幽默感,又被戏称为:

100%空手被入白刃。

所以,像ChatGPT之类的技术性工具,只会逮着着问题发散性思维,哪能理解其中的弯弯绕绕呢?

不要用你的算法,去挑战专家的用心良苦。

未来展望

ChatGPT刚推出来的时候,我的内心有点小焦虑。因为它无穷无尽的联想功能,特别适合于发散式的脑洞创作,这对于专注码字的我来说,似乎不是一个好消息。

但接触下来,ChatGPT等生成式AI“逐字逐句、不断联想”的创作范式,决定了在使用过程中需要提供精心制作的问题大纲,以及时时刻刻纠正“睁着眼睛说瞎话”的老毛病,这正是专业人士存在的价值。

例如上文中说到的国内首篇ChatGPT创作的研报,财通证券的分析师总结道:

报告撰写过程大约花了半小时,但人工提问与纠错过程大约用了两个多小时。

人类在ChatGPT创作过程中的提示、调试与反馈,就是最重要的Prompt Engineering(引导工程)。

说白了,不具备独立创作能力的AI还是一个黑箱工具,最终的产出质量,在很大程度上取决定于输入内容。这也是信息处理中老生常谈的:

Garbige in, garbige out.

(垃圾进,垃圾出)

再进一步思考,以ChatGPT为代表的大语言模型,可能是一把双刃剑。它们可以在一定程度上帮助人类进行公平竞争,例如通过消除语言障碍,使不善于书面表达的人有机会写出高质量的文章。但是,与大多数创新一样,洞悉算法原理、具备专业知识的人员很可能更高效地驯服大语言模型,以加速他们自己的研究并扩大产出的不平等。

我寻思,在利用AI的竞争中,自己怎么也不会沦落到最糟糕的地步吧?

这个道理同样适用于组织、国家之间的竞争。例如这几天,微软支持的ChatGPT、谷歌支持的Bard竞争激烈,恨不得把蛋黄都给打出来,它们在这场竞争中似乎已经处于先发地位。

然鹅,一个略悲伤的事实是,ChatGPT上线后,主动封杀了中国(含中国香港)IP的注册。这让习惯于“中赢、大赢、特大赢”的某些人傻了眼:

从前都是挟市场换技术,不怕鬼子不登门。现在他们真不带我玩了…肿么办?

目前,国内的科技公司(包括百度、阿里、腾讯、字节等平台公司,以及“AI四小龙”等业界新锐)正在紧锣密鼓地研发及推出类似产品。但因为ChatGPT算法并未开源,产品的性能差距会有多大?而且,面对着ChatGPT单次460万美元的超高训练费用,会给新产品造成多大的迭代压力?

这都是谜一样的问题。

而另一个更魔幻的问题是,ChatGPT等生成性AI充斥着“精神病人思维广、弱智儿童联想多”的开放性特性,天然就面临着伦理道德与政策监管的重大风险。如果保持ChatGPT的生命力与当前国情之前的微妙平衡?

例如2月8日,某高科技独角兽公司发布了ChatYuan,雄心勃勃地向ChatGPT宣战。结果一天以后,该产品就因违规而下架。

鉴于“相关法律法规”的神秘性,我们无法得知具体违规事项是什么。但有老司机分享了一个ChatYuan的问题回复,让我们感受一下它的答题风格。

要我说啊:

你们搞技术的有一个好,就是出了名的快。歪国搞出了个什么新玩意,你们马上就跑了出来。但你们千万要记住了,不要见到风就是雨,回答出了偏差,你们是要负责任的!

面对这些沉重的问题,借用ChatGPT、把胡主编段子玩得飞起的我们,似乎突然之间就索然无味…

当然,乐观主义者也可以反过来安慰我们:

在ChatGPT上线之前,没有人能说清楚自己与胡主编的区别。毕竟如果把你架在他的位置,会说出来什么话还两说呢。

在ChatGPT上线之后,同样没有人能说清楚自己与胡主编的区别。毕竟人人都说着中肯的话,全世界一片和谐。

有同行发文称,相比于不确定的未来,更现实的问题是,为什么ChatGPT无法在我国首先诞生?是什么禁锢了我们的创造力?

我不厚道地笑了,这还不如让我们聊未来呢。毕竟,面对ChatGPT的发展现状,倾向乐观还是悲观,在很大程度上取决于你的认知——而你的选择又关乎遥远的未来。

米兰·昆德拉说:

我们选择了它,正如你选择了你的命运。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1