当前位置:首页|资讯|ChatGPT|人工智能

ChatGPT成功背后的技术原因及其对生命科学领域的启发

作者:动脉网发布时间:2023-02-20

原标题:ChatGPT成功背后的技术原因及其对生命科学领域的启发

ChatGPT是OpenAI开发的一个基于文本生成技术的对话机器人,以其惊艳的效果迅速出圈,在这个低迷的2023年初,凭着一己之力重新掀起了AI领域的热潮。

2017年,一个重要的基础工作Transformer出现了。2019年,在一直未能有重大突破的自然语言处理(NLP)领域,一个叫作BERT的工作脱颖而出,在十几个不同的自然语言处理领域(NLP)任务中都取得了最好的结果,这些任务之间的差别很大,所以BERT工作发表后,马上引起了整个领域的关注。BERT采用了一个叫作 自监督预训练的思路,无需标注数据仅利用文本语料本身存在的约束就可以训练模型(比如某句话的某个位置只能用某些限定的词),这样互联网上存在的优质语料不需要进行人工标定就可以用来做训练,从而一下子使得可用训练数据的数量有了巨大的提高,再配合上大模型,使得BERT模型的效果远远超过过去的模型,并且在不同任务间具有很好的通用性,成为NLP领域里程碑工作之一。

其实在BERT出现之前的2018年,还有个工作叫作GPT(即GPT1.0),更早利用了自监督预训练的思路来做文本生成,即输入前面的文本,模型预测输出后面的文本,领域里面的优质语料无需标注就可以做训练。BERT和GPT都是在Transformer基础上发展而来的,而Transformer也逐渐发展成为AI领域的通用模型。GPT1.0的效果并不惊艳。在BERT出现后不久,GPT很快发布了GPT2.0,模型大小和训练数据量都有大幅提升,作为通用模型(即不用下游任务做训练,直接测试结果)在大多数任务上结果好于现有模型。但由于BERT模型在特征表示上比GPT2.0模型更有优势,也更容易训练,所以这个阶段领域里最受关注的工作还是BERT。但2020年7月,GPT3.0横空出世,以1700亿参数惊艳四座,更重要的是,在效果上,GPT3.0作为一个通用语言模型,只需向它提供一段简单描述,说明想生成的内容,就可以在无需重新训练的情况下,根据提示,生成可执行代码,生成网页或图标,完成一篇文章或新闻,还可以编写诗歌和音乐。GPT3.0出现后,受到了行业的广泛关注,很多开发者基于GPT3.0做了很多好玩的应用。GPT3.0成为最好也最受关注的文本生成模型。

在自监督预训练技术出现之后,我们可以认为新一代人工智能发展到了 第二个阶段,即自监督预训练技术使得可用训练数据有了几个数量级的提升,在训练数据大幅提升的支撑下,模型大小也有了数个数量级的提升(有效模型达到了千亿规模),而在模型效果上,这些模型变得不再依赖于下游任务领域数据的再训练,所以,领域进入到基于自监督预训练的通用大模型时代。

之后,GPT3.0与领域其他工作一起引发了一波模型大小的军备竞赛,但鲜有真正有突破的技术出现。大家意识到仅仅增加模型大小,并不能根本上解决问题。就在大家期待GPT4.0等后续工作出现的时候,整整两年过去,GPT一直没有更新。这段时间内,人工智能领域最活跃的工作主要集中在两个方面,多模态统一模型和内容生成。多模态统一模型,希望构建多模态或跨模态统一模型,尝试将文本、图像、语音等不同模态数据统一表示在一个模型中,其中包括最早的跨模态表示模型CLIP,和后续的一系列多模态统一表示模型。而内容生成领域,一方面在技术层面,出现了扩散模型(Diffusion Model)这样的基础模型,Diffusion Model及一系列变种模型的发展,使得人工智能内容生成(AI Generated Content,即AIGC)领域变得非常热,从图像生成领域扩展到自然语言处理和生命科学领域;另一方面在应用层面,基于文本生成图像领域取得了很多实质进展,其中最有代表性的工作DALLE2,模型能够按照输入的文本描述输出看起来很真实的图像,即使在文本描述超越了现实的情况下,依然可以生成看似合理符合文本描述的图像,如下图所示。DALLE2等一系列工作的成功,一方面归功于大量的文本-图像对应关系数据(大约有数亿对),建模了文本和图像语义之间的对应关系,另外一方面归功于扩散模型克服了GAN、VAE等模型难训练、生成效果细节保留不够等缺陷。图像生成效果的惊艳,甚至让很多人相信AI已经可以创造内容了。

图. DALLE2生成效果

时间来到了2022年11月底,OpenAI发布了ChatGPT。ChatGPT发布后,大家发现这个聊天机器人很不一般,经常给出令人惊艳的回答。对话机器人领域曾出现过很多个对话机器人,比如苹果的Siri,微软的小冰小娜等,这些通用对话系统的体验都不是非常理想,大家拿来调戏一下就扔到了一边。而智能音箱等产品中使用的指令执行式问答机器人,系统框架是基于规则驱动的对话管理系统,存在大量的手工规则,使得这些系统一方面无法扩展到通用领域,只能进行简单程式化的回答,另一方面,无法处理多轮对话的环境语义信息(Context)。从技术层面看,ChatGPT和原来主流的对话系统完全不同,整个系统基于一个深度生成大模型,对于给定的输入,经过深度模型的处理,直接输出抽象总结性的回答。而在产品体验上,ChatGPT也远远超越了过去的聊天系统。作为一个通用聊天机器人,它几乎可以回答任何领域的问题,而且准确率已经达到人类愿意持续使用的要求,在多轮对话的场景下依然保持非常好的体验。

当然,ChatGPT并不完美,作为一个深度学习模型,ChatGPT存在无法百分之百精准的缺陷,对于一些需要精确回答的问题(比如数学计算、逻辑推理或人名等),会出现一些可感知的明显错误。后面又出现了一些改进工作,比如有些工作会提供信息的参考网页链接,而在Facebook最新的工作 ToolFormer中,则尝试在生成模型中,将特定任务交给特定API去计算,不走通用模型,这有望克服模型无法百分之百精准的问题。如果这条路走通,深度生成模型有望成为AGI的核心框架,用插件方式集成其他技能API,想想就很激动人心。

商业上,ChatGPT一方面引发了对于Google等搜索引擎挑战的畅想,另一方面,大家看到了各种自然语言理解有关的垂直产品应用机会。无疑,ChatGPT在自然语言理解领域正掀起一次可能媲美搜索推荐的新商业机会。

ChatGPT为什么能有这样惊艳的效果?其中一个核心原因是 ChatGPT基于生成大模型GPT3.5构建,这应该是当前自然语言理解领域文本生成最好的模型(GPT3.5比GPT3.0使用了更多的数据和更大的模型,具有更好的效果)。

第二个核心原因则是 基于人类反馈的强化学习技术,即Reinforcement Learning from Human Feedback(简写作RLHF)。由于OpenAI并没有发表ChatGPT的论文,也没有代码公开,大家一般认为其与之前的一篇文章InstructGPT(https://arxiv.org/pdf/2203.02155.pdf)中批露的技术最为相近。如下图所示,按照InstructGPT中的描述,第一步,先收集用户对于同一问题不同答案的偏好数据;第二步,利用这个偏好数据重新训练GPT模型,这一步是基于监督信息的精调;第三步,根据用户对于不同答案的偏好,训练一个打分函数,对于ChatGPT的答案会给出分数,这个分数会体现出用户对于不同答案的偏好;第四步,用这个打分函数作为强化学习的反馈(Reward)训练强化学习模型,使得ChatGPT最终输出的答案更偏向于用户喜欢的答案。通过上述过程,ChatGPT在GPT3.5的基础上,针对用户输入,输出对用户更友好的回答。

ChatGPT第一阶段训练GPT生成模型使用的训练数据非常多,大约在几十TB,训练一次模型需要花费千万美元,而第二个阶段,基于强化学习的少量优质数据反馈则只需要数万条优质数据。我们可以看到,ChatGPT技术,是在自监督预训练大模型基础上结合基于人类反馈的强化学习技术,取得了非常显著的进展。 这种新的范式,有可能成为第三阶段人工智能的核心驱动技术,即首先基于自监督预训练的大模型,再结合基于少量优质数据反馈的强化学习技术,形成模型和数据的闭环反馈,获得进一步的技术突破。

关于ChatGPT,我们的观点如下:

(1)ChatGPT确实是这个时代最伟大的工作之一,让我们看到了基于自监督预训练的生成大模型与基于少量优质数据强化学习反馈策略结果后AI的惊艳效果,某种意义上改变了我们的认知。

(2)ChatGPT相关技术具有非常大的商业价值,使得搜索引擎在内的很多产品都面临被重构或者颠覆的机会,无疑会带来很多新的商业机会,整个NLP领域都会受益。

(3)基于自监督预训练的生成大模型与基于少量优质数据强化学习反馈策略的学习范式,有望成为未来推动各个领域前进的动力,除NLP领域外,有望在生命科学、机器人、自动驾驶等各个领域引发新一轮人工智能热潮。

(4)ChatGPT并不能证明人工智能已经有了人类心智,ChatGPT表现出来的一些创造性和心智,是因为自然语言理解语料中包含了语义、逻辑,基于自然语言语料训练出来的生成模型,统计意义上学习到了这些对应关系,看起来似乎有了智能,但并不是真的有人类心智。ChatGPT很棒,但说他智力等于几岁小朋友的说法,都不够严谨。因为从根本上讲,人学习新知识、进行逻辑推理、想象、运动反馈这些能力,目前AI还没有具备。过度炒作ChatGPT的智能和能力,会劣币驱逐良币,损害整个行业。

(5)在这个领域,中国的技术还有差距,过去两年,我们还没有看到真正复制出GPT3.0效果的文本生成模型,而没有GPT3.0和3.5,就不会有ChatGPT。GPT3、GPT3.5和ChatGPT等工作都没有开源,甚至API都对中国做了封锁,这都是复制工作实际面临的困难。说得悲观一点,大部分想复制ChatGPT效果的团队,都不会成功。

(6)ChatGPT并不是一两个研究人员做出的算法突破,而是在先进理念指导下,非常复杂的算法工程体系创造出来的成果,需要在团队和组织上匹配(类比OpenAI和DeepMind)。纯研究型的团队恐怕不能成功,对深度学习理解不够、太工程化的团队也不会成功。这只团队需要:第一要有足够资源支持,可以支撑昂贵的深度学习训练和人才招聘;第二要有真正在工业界领导过工程化大模型团队的专家领导,ChatGPT不仅有算法创新,更是工程体系创新;第三,也可能是最重要的,需要一个团结协作有统一领导且不追求论文发表的组织(松散型的组织利于算法创新,但不利于工程化算法攻坚),且配备足够多优秀的工程和算法人才。

(7)我们不仅追求做一个ChatGPT,更要持续追求其背后的技术创新,即大力发展自监督预训练生成大模型和基于少量优质数据的强化学习反馈策略技术,这既是下一代ChatGPT的核心技术,也是推动人工智能领域整体进步的技术。最担心的是,由于投机追风,造成力量分散而使大量资源被浪费,或者过度宣传ChatGPT损害了行业。

(8) ChatGPT还存在改进空间,也不是唯一值得关注和期待的技术。对于AI,最常见的误区是,高估其短期表现,而低估其长期表现。这是一个AI成为核心推动力的伟大时代,但AI并不会那么快无所不能,需要我们长期努力。

这里,我们简单总结一下2012年以来深度学习引起的新一代人工智能浪潮里面的关键技术演进:

(2)第二个阶段,关键进展是 自监督预训练大数据驱动的通用大模型,自监督预训练技术使得可用训练数据有了几个数量级的提升,从而支撑着模型大小也有了数个数量级的提高,成为无需依赖下游任务领域数据再训练的通用模型,这个阶段进步最大、最活跃的是自然语言理解领域;主要的局限在于需要海量数据训练,且模型非常大,训练和使用都非常昂贵,重新训练垂直场景模型也非常不方便。

(3)第三个阶段,目前虽然还不能盖棺论定,但呈现出一定趋势。 未来非常重要的技术关键在于,能否在大模型的基础上,用强化学习、Prompting等方式,仅通过少量优质数据就能显著影响大模型的输出结果。如果这个技术走通,那么无人驾驶、机器人以及生命科学等数据获取昂贵的领域将显著受益。过去,如果想改善AI模型存在的问题,必须采集大量的数据重新训练模型。假如,在需要线下交互的机器人领域,在预训练大模型的基础上,仅通过告知机器人真实场景中一些正确和错误的动作选择就能影响机器人的决策,那么无人驾驶和机器人领域在技术迭代上会更加高效。生命科学领域,如果仅通过少量的试验数据反馈,就能显著影响模型预测结果的话,整个生命科学领域与计算融合的革命将会来得更快一些。在这一点上,ChatGPT是非常重要的里程碑,相信后面还会有非常多的工作出现。

让我们把目光回到我们更关注的生命科学领域。

由于ChatGPT带来的技术进步改善了大多数NLP相关领域,所以,生命科学领域内和信息查询检索抽取有关的技术和产品,会优先受益。例如,在未来有没有可能出现一个生命科学领域对话方式的垂直搜索引擎,专家可以向它询问任何问题(比如关于疾病、靶点、蛋白等有关的问题),它一方面可以给出综合趋势的判定(也许没有那么精确,但大概正确,有助于我们快速了解一个领域),另一方面可以给出关于某个话题的相关有价值资料,这无疑会显著改善专家的信息处理效率。还例如,能否构建一个AI医生,病人可以咨询有关疾病的知识和处理办法(限于技术的局限,AI无法给出精确的答案,更无法代替医生),但可以给出很多信息参考和后续该做什么的建议,其体验一定会显著优于现在的搜索引擎。

生命科学领域本身还存在很多没有被解决的重要任务,比如小分子-蛋白结合构象和亲和力预测、蛋白-蛋白相互作用预测、小分子表示和性质预测、蛋白质性质预测、小分子生成、蛋白质设计、逆合成路线设计等任务。目前看这些问题还没有被完美解决,如果在这些任务上取得突破,那么药物发现甚至整个生命科学领域,都会迎来巨大变化。

基于大模型的AIGC领域,以及基于专家或试验反馈的RLHF领域,受益于ChatGPT的推动,一定会引来一轮新的技术进步。其中AIGC(人工智能内容生成)技术,在过去一年中,已经在小分子生成、蛋白质设计等领域取得了不错的进展。我们预测,在不远的未来,下列任务将显著受益于AIGC生成技术的发展,产生技术阶跃:

(1)小分子生成和优化技术,即如何不依赖活性配体信息,而是基于蛋白口袋结构信息生成综合考虑活性、成药性、可合成性等多种条件约束的配体小分子,这部分技术将显著受益于AIGC领域的发展;

(2)构象预测某种意义上可以看作是生成问题,小分子和蛋白结合构象预测任务也会受益于AIGC相关技术的发展;

(3)蛋白质、多肽、AAV等序列设计领域,也一定会受益于AIGC技术的发展。

上述AIGC相关任务,以及几乎所有需要试验验证反馈的任务,包括但不限于活性预测、性质预测、合成路线设计等,都将有机会受益于RLHF技术带来的红利。

当然也存在很多挑战。受限于可用数据数量,当前生命科学领域使用的生成模型还比较浅,主要使用的是GNN等浅层深度学习模型(GNN受限于消息传递的平滑性,层数只能使用到3层左右),生成效果上虽然体现了很好的潜力,但依然没有ChatGPT那样惊艳。而基于专家或试验反馈的强化学习技术,受限于试验数据产生速度以及生成模型表示能力不够的影响,惊艳效果呈现也会需要一定的时间。但从ChatGPT技术演进趋势推演,如果能训练足够深、表示能力足够强的生成大模型,并且利用强化学习,基于少量优质试验数据或者专家反馈来进一步提升生成大模型的效果,我们可以预期AIDD领域一定会迎来一次革命。

简而言之,ChatGPT不仅是自然语言理解领域的一项技术进步,会引发新一轮信息服务和内容生成领域的商业潮流,同时,其背后基于海量数据的深度生成技术,以及基于人类反馈的强化学习技术,是更长远的进步动力,会引起生命科学等领域的长足发展。我们会再迎来一次AI技术进步和产业落地的浪潮。

*参考文章

InstructGPT论文:

https://arxiv.org/pdf/2203.02155.pdf

本文来自:

声明:动脉网所刊载内容之知识产权为动脉网及相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。

动脉网,未来医疗服务平台


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1