当前位置:首页|资讯|ChatGPT

ChatGPT的胜利,宣告知识图谱的消亡?

作者:科技云报道发布时间:2023-05-24

过去10年,知识图谱可谓是最接近“人工智能”的概念。业内普遍认为,知识图谱的概念最先是由谷歌于2012年正式提出,主要用来支撑下一代搜索和在线广告业务。

此后,这项技术迅速火爆,被国内外多家搜索引擎公司所采用,如:美国的微软必应,中国的百度、搜狗等,都在短短的一年内纷纷宣布了各自的“知识图谱”产品,足以看出这项革新对整个搜索引擎界的整体影响。

但这项技术的应用并不仅拘泥于搜索引擎领域范围。由于让人工智能具备了认知能力和逻辑能力,知识图谱进而实现了智能分析、智能搜索、人机交互、个性化推荐等场景应用,成为互联网知识驱动的智能应用的基础设施。

可以说知识图谱与大数据和深度学习一起,成为推动互联网和人工智能发展的核心驱动力之一。

然而,ChatGPT的横空出世让整个AI界都沸腾了。

ChatGPT带来的震撼在于,它不用借助知识图谱就可以很好地解决用户对话知识问答相关的任务,具有非常强大的理解能力、流畅的对话能力和上下文的刻画能力。

更重要的是,它将原来基于特定任务的模型变成了一个统一的、基于提示的、任务无关的模型,可以去尝试解决非常复杂或困难的、人类参与很多的任务。

这也让AI界认知产生了分化,有观点认为有了ChatGPT这种大语言模型后,知识图谱完全没有存在的意义,甚至有的公司已经彻底抛弃了知识图谱路线。

那么,在大模型时代,知识图谱真的要消亡了吗?

知识图谱vs大语言模型

在讨论这个问题之前,先来了解一下知识图谱和大语言模型的异同。

知识图谱从字面上看,可以拆分为知识+图谱,这样就可以理解:将需要的知识数据(结构化或非结构化数据)以图谱的形式进行展示,这种简单的过程也是知识图谱的构建过程。

知识图谱通常包含实体、关系和属性三个要素,例如人名、国家、语言等实体,以及人口、首都、官方语言等关系和属性。它可以根据图谱中定义的关系提供精确且逻辑一致的答案,因此对于信息检索、问答和结构化数据推理等任务特别有用。

大语言模型是基于深度学习和神经网络,像GPT-4这样的大语言模型是在大量文本数据上进行训练,以学习模式、上下文以及单词和短语之间的关系。

它们可以生成类似人类的文本、回答问题、提供建议以及执行其他自然语言任务,还可以很好地处理模棱两可和不完整的信息,并且处理广泛的主题。

不难发现,两者在知识的学习、分析、推理方面有着类似的功能,但却各有优劣势。

知识图谱通常需要手动或半自动构建,是一种非常耗时耗人力的工作,随着知识的不断扩展和变化,知识图谱也需要不断更新;

同时,它的作用仅限于图谱编码中的知识范围,这使得它在处理模棱两可或不完整的信息时准确率较低。

但它的优势在于准确的知识库,对于事实性的、专业性的知识有着非常高的准确度。

相反,专业知识在大模型训练语料里占比非常少,这也使得ChatGPT等语言大模型生成的内容的可靠性和真实性备受质疑。

它无法将真实与想象、真实与虚构分开,这种现象甚至促使创造了一个新术语:人工智能幻觉,维基百科将其定义为“人工智能的自信反应,其训练数据似乎没有合理性”。

同时,语言大模型需要大量的计算能力和资源来进行训练和微调,其花费的时间和成本也不容小觑。

目前,语言大模型只在通用领域给出了较为惊艳的表现,至于在知识图谱广泛应用的垂直领域,语言大模型暂时未显示出领先的一面。

知识图谱退场为时尚早

正因为语言大模型暂时还无法解决事实准确性、可信度、可追溯等问题,知识图谱的存在就非常有意义。

知识图谱或者类似的知识库、知识引擎,能够为大模型提供准确的知识,它可以被用来通知、聚焦、过滤和控制生成式人工智能,增强大模型响应的智能和可靠性,使其更适合关键任务。

当大模型真正落地到工业应用时,也需要有知识图谱对专业领域知识的支撑,至少短期来看是非常需要的。

因此,我们也可以说,知识图谱的构建原来有各种各样的构建方式,现在又多了一种构建方式——用大模型去辅助整个知识图谱构建,通过大量语料和大数据的学习,通过Prompt去进行知识的激发。

同时知识图谱反过来也能够去推动大模型Prompt工程里的相关工作,融入到大模型的训练中,使得生成更可控,更准确。同时,知识图谱也可以提供很多额外的语义信息,帮助大模型的知识推理做得更好。

所以从本质上看,大语言模型出现后,并不是将知识图谱消灭了,而是可以发挥知识图谱和大模型这两种技术的优势:在需要可控知识或可控逻辑的时候,知识图谱会发挥更大作用;在需要更自由的交互任务理解和生成时,大模型发挥更好的作用。

结合这两种方法的优势,可以产生更强大和有效的自然语言处理系统。

知识图谱与大语言模型的结合

那么,知识图谱如何与大语言模型相结合呢?

有意思的是,ChatGPT给出了将知识图谱集成到大语言模型中的几种方法:

使用知识图谱数据进行预训练

将知识图谱中的知识注入到大语言模型的预训练阶段,可以帮助大模型学习实体与其属性之间的关系。可以通过将知识图谱三元组(主语、谓语、宾语)转换为自然语言句子并将它们添加到训练语料库中来完成。

使用基于图的目标进行微调

在预训练之后,使用基于图的目标对特定任务的模型进行微调,可以帮助大模型学习使用图中编码的知识进行推理和推理。这可能涉及将自然语言查询转换为基于图形的查询,以及开发将基于图形的推理与基于文本的推理相结合的方法。

例如,可以对模型进行微调,以预测图形中缺失的实体或关系,这可以提高其对底层结构的理解。

改进实体链接和消除歧义

增强模型识别文本中的实体并将其链接到知识图谱中相应节点的能力。这可以通过在训练或微调期间结合高级实体链接和消除歧义技术来实现。

集成图嵌入

图嵌入是一种用于将图中的节点、边或整个子图转换为连续向量或低维表示的技术,机器学习算法可以更轻松地处理这些向量或低维表示。

图嵌入在知识工程的上下文中特别有用,因为它可以帮助将知识图谱中的结构化信息转换为可以更容易地与机器学习算法(尤其是神经网络)集成的格式。

使用图神经网络或其他图表示学习方法学习,并可用于丰富模型对实体及其关系的理解。

推理时查询知识图谱

当模型遇到需要精确、结构化知识的问题或任务时,可以查询知识图谱获取相关信息。这可以通过将自然语言查询转换为基于图形的查询(例如,使用SPARQL),然后使用检索到的信息来回答问题或执行任务来完成。

知识图谱引导生成

将大语言模型的生成能力与知识图谱中的结构化信息相结合,可以生成更准确、更相关的文本。例如,在生成实体的摘要或描述时,模型可以对知识图谱中的信息进行优先级排序,以确保事实的正确性。

混合模型

开发包含基于图和基于神经网络的组件的混合模型,可以利用这两种方法的优势。例如,图神经网络(GNN)可用于学习图结构数据的潜在表示,然后可以将其与大语言模型集成以执行自然语言处理任务。

鼓励可解释性和可解释性

开发允许大语言模型基于知识图谱为其推理和预测生成解释的方法。这可以帮助用户了解模型如何利用知识图谱中的结构化信息,并有助于调试和优化模型。

结语

技术的浪潮总是汹涌而至,在新的技术革新来临之际,我们更应该客观看待新旧技术的优劣,而不是冲动地去拥抱新技术,抛弃现有成熟技术。

对于知识图谱来说,大模型的出现并不是一个冲击,恰恰是给了知识图谱一个新的生长空间。当我们将大模型与自身优势的行业应用去深度结合,形成数据和算法的持续迭代,必将看到更好的结果持续涌现。

本文来自微信公众号“科技云报道”(ID:ITCloud-BD),作者:科技云报道,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1