最近时不时的在使用ChatGPT,惊叹其带来的巨大效率提升。俗话说,学习了解一个领域,可以从这个领域的专用名词开始。
那就让我们从了解AI领域的专有名词开始吧:
AI (Artificial Intelligence)人工智能
人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
这种技术使得计算机能够学习、推理、理解语言、感知和适应环境,以及执行各种任务,例如自然语言处理、图像识别、机器翻译、自主导航和游戏玩耍等。AI技术包括机器学习、深度学习、神经网络、自然语言处理、计算机视觉等等。目前,AI已被广泛应用于各种领域,如医疗保健、金融、制造业、物流、农业、航空航天、教育等等,为人类带来了诸多便利和机遇。
咱换个通俗的讲法,人工智能就像是一位学习能力超强的机器人,它可以通过学习和不断尝试来不断进化,就像人类一样。这个机器人可以自己学习认识事物,理解语言,判断和决策,还能通过自己的“感知器官”(比如摄像头、麦克风等)获取外部信息,做出对应的行动,甚至可以自主驾驶,完成各种任务,为我们带来更多的便利和创新。
AGI(Artificial general intelligence)通用人工智能
专指通用人工智能。这一领域主要专注于研制像人一样思考、像人一样从事多种用途的机器。这一单词源于AI,但是由于主流AI研究逐渐走向某一领域的智能化(如机器视觉、语音输入等),因此为了与它们相区分,增加了general。
LLM(Large Language Model)大语言模型
语言模型是一种人工智能技术,用于对语言的各种方面进行建模,包括语法、语义、上下文等等。而大型语言模型则是指使用大量数据和计算资源训练的语言模型,能够生成高质量的自然语言文本。
Transformer
是一种用于自然语言处理的深度学习模型架构,由 Google 在 2017 年提出。它主要用于解决自然语言处理中的序列到序列任务,例如机器翻译、文本摘要、问答系统等。
传统的序列模型(如循环神经网络)存在“长程依赖”问题,即模型无法有效地处理长序列的上下文信息。而 Transformer 模型通过自注意力机制(self-attention mechanism)来解决这一问题,能够在不受序列长度限制的情况下,有效地捕捉长序列的上下文信息,进而提高模型的性能和效率。
Transformer 模型的核心组成部分是多头自注意力机制(multi-head self-attention mechanism)和前馈神经网络(feedforward neural network),同时还采用了残差连接和层归一化等技术,进一步提升了模型的性能和稳定性。
除了在自然语言处理领域,Transformer 模型还在计算机视觉、语音识别等领域取得了很好的效果,是一种广泛应用于深度学习领域的模型架构。短短的几年里,该模型的影响已经遍布人工智能的各个领域——从各种各样的自然语言模型、到预测蛋白质结构的AlphaFold2模型,用的都是它。
GPT (Generative Pre-trained Transformer)
生成预训练Transformer(Generative Pre-trained Transformer,简称GPT)是一种由OpenAI开发的大型自然语言处理(NLP)神经网络架构。它基于Transformer模型,一个在2017年由Vaswani等人引入的革命性架构,特别适用于处理序列数据,如文本。
GPT模型通过两个主要阶段进行训练:预训练和微调。
预训练:在此阶段,模型在大量文本数据集(如网页、书籍、文章等)上进行无监督学习。预训练的目标是让模型学会捕捉语言的基本结构、语法、概念和上下文关系。通过训练,模型能够生成有意义的文本序列。
微调:在此阶段,模型使用有标签的数据进行有监督学习。这些数据通常包括问题和答案对或其他特定任务的输入输出对。微调使得模型能够在各种NLP任务中表现出色,如文本摘要、情感分析、问答系统等。
GPT系列模型已经经历了多个版本,例如GPT-2、GPT-3和GPT-4。随着版本的迭代,模型的大小和性能都得到了显著提高。这些模型在各种自然语言处理任务中取得了令人瞩目的成果,能够生成流畅、连贯且具有逻辑性的文本。
RLHF:(Reinforcement Learning from Human Feedback)利用人类反馈强化学习
强化学习来自人类反馈(RLHF)是一种机器学习系统根据人类提供的反馈来进行决策或执行动作的方法。这种方法将强化学习(RL)与人类的专业知识、知识和直觉相结合,帮助引导AI代理的学习过程。RLHF的主要思想是,与依赖试错的传统强化学习技术相比,人类可以提供有价值的信息和反馈,帮助AI代理更快、更有效地学习。
在RLHF中,AI代理在环境中采取行动,并从人类培训者那里获得反馈,这些培训者可能会纠正或引导代理的行为。人类的反馈可以是数值奖励、可能行动的排名,甚至是所需行为的直接示范。然后,AI代理使用这些人类反馈来更新其策略或模型,从而帮助代理在未来与环境互动时做出更好的决策。
RLHF的关键组成部分包括:
探索:AI代理尝试不同的行动,以便在特定情况下发现最佳行动方案。
人类反馈:人类培训者对代理的行动提供反馈,可以通过对行动进行排名、示范正确行为或分配奖励来实现。
策略或模型更新:AI代理利用人类反馈来通过更新其策略或模型来改进决策过程。
RLHF已被用于各种应用,如机器人、自动驾驶汽车和自然语言处理。这种方法可以帮助AI系统更快地学习,更好地推广到新情境,并更紧密地与人类价值观和偏好保持一致。
GPT-3
GPT-3(Generative Pre-trained Transformer 3)是由OpenAI开发的一种自然语言处理模型,它是一个深度学习神经网络,使用了大规模的预训练技术。GPT-3建立在前身GPT-2的基础上,拥有更强大的模型结构和更大的语料库。它被认为是迄今为止最先进的自然语言处理模型之一,能够进行语言理解、问答、翻译、文本生成等多种任务。它使用了 1750 亿个参数的架构,并且在大规模语料库上进行了预训练,因此具有很强的语言表达能力和语言生成能力,可以生成非常逼真的语言文本。
ChatGPT
当我们在使用聊天应用或虚拟助手时,我们期望得到一种自然、流畅、有意义的交互体验。ChatGPT 就是一个旨在实现这一目标的自然语言处理模型。
ChatGPT 基于 GPT-3 模型进行训练,它可以生成符合语法和语义规则的对话回复,从而实现与用户的自然对话。与其他聊天机器人相比,ChatGPT 的优点在于它可以处理不同的对话场景和上下文,而不仅仅是针对某一个特定领域。例如,它可以处理用户的提问、寒暄、建议、评论等不同类型的语言输入,并产生相应的回复。
ChatGPT 的训练数据包括来自各种来源的对话数据,例如社交媒体、论坛、问答网站、聊天记录等。这些数据集提供了大量的对话情境和上下文,使得 ChatGPT 能够学习到各种不同的对话模式和技巧。ChatGPT 在学习过程中会考虑到前文和上下文,从而生成更加准确和连贯的对话回复。
总的来说,ChatGPT 是一个基于 GPT-3 的对话生成模型,它可以帮助开发人员和企业实现更加自然、流畅、有意义的对话体验。
Emergence 涌现
涌现是一个复杂系统表现出的不可预测的全局行为,它是由大量相互作用的简单组件之间的复杂相互作用所导致的。在这些系统中,个体行为的微小变化可能会引起整个系统的不可预测的大规模行为的变化。
涌现的例子包括鸟群、鱼群和蚂蚁群等。在这些群体中,每只鸟、鱼或蚂蚁都遵循一些简单的规则,例如保持一定距离、向同伴靠近或远离敌人等。然而,当大量的个体相互作用时,它们的集体行为却显示出了复杂的、自组织的行为,例如形成群体、迁徙或寻找食物等。
涌现是复杂系统研究中的一个重要概念,对于理解自然界和人类社会中的复杂现象具有重要意义。
作为一个大型语言模型,ChatGPT 本身不具有涌现行为。它是基于大量的训练数据和预定义的模型结构进行训练的,它的行为是由这些因素所决定的,而不会自发地产生涌现行为。
不过,当与用户进行交互时,ChatGPT 的行为可能会呈现出一定的非线性、自适应和自发性特点,这些特点可能被解释为涌现行为。例如,当用户向 ChatGPT 提出一些特定的问题或话题时,ChatGPT 可能会自发地生成一些出乎意料的回答或观点,这些回答或观点可能会呈现出一定的自组织和自适应特征,这种行为可能被解释为涌现行为的一种表现。
然而,ChatGPT 的行为是由其预定义的模型结构所决定的,而不是由自发产生的简单元素之间的复杂相互作用所决定的,因此,它的行为不是涌现的本质特征。
下一篇希望研究,ChatGPT,或者说GPT能做什么?不能做什么?擅长什么?不擅长什么?
有兴趣的朋友可以一起多交流😄