当前位置:首页|资讯|ChatGPT

大模型专题:2023爱分析·大模型厂商全景报告(附下载)

作者:烟树晚雁发布时间:2024-02-22

原标题:大模型专题:2023爱分析·大模型厂商全景报告(附下载)

今天分享的是大模型系列深度研究报告:《大模型专题:2023爱分析·大模型厂商全景报告》。

(报告出品方:爱分析

报告共计:80

海量/完整电子版/报告下载方式:公众号《人工智能学派》

研究范围定义

大模型是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的模型。2023年以来,ChatGPT 引爆全球大模型市场。国内众多大模型先后公测,众多互联网领军者投身大模型事业,使得大模型市场进入“百团大战”阶段,2023年成为公认的“大型元年”。

企业用户方面,大模型的应用速度之快超乎想象。2023 年初,企业管理层对大模型的话题还停留在大模型是什么,是不是概念炒作。短短半年,大模型已经从饭后谈资走向落地应用。大企业管理层们希望了解到大模型能为企业发展带来哪些变革,大模型的应用路径是什么,如何提升大模型的投资回报率,以及应该为拥抱大模型做哪些准备。而且,大模型吸引的人群也愈发广泛,不仅吸引 CIO.CTO 等技术管理者的关注,CEO、CMO 等非技术类管理者同样期待大模型在业务中发挥价值。这些转变表明,大模型的变革之力正日益得到产业界的认可。

通过对市场规模数据的分析,能较为直观地体现出企业对大模型应用落地的热情。爱分析数据显示2023 年中国大模型市场规模约为 50 亿元(人民币,下同)。2023 年,企业在大型方面的采购特点是论证多、采购少,各企业计划在 2024 年开始大量释放大模型预算,因此市场规模将大幅增长,预计达到 120 亿元。

爱分析认为,大模型市场从技术架构角度可以划分为基础层、模型层、中间层和应用层。基础层是 指为大模型训练推理而提供的基础环境,包括湖仓一体、向量数据库、智算中心、大模型安全流通 平台等。模型层是指基础大模型以及微调后的大模型,包括通用大模型、行业大模型、领域大模型 和企业大模型。中间层是模型层和应用层之间的“桥梁”,有利于大模型在各种实际场景快速落地, 包括大模型应用开发工具、LLMOps 工具等。应用层是指大模型应用和解决方案,包括知识库问答、 智能客服、对话式分析等。大模型市场划分详见下图。

市场分析与厂商评估

知识库问答

甲方核心需求: 成本可控、验证速度较快、覆盖的企业内部用户比较多等多重因素共同作用下,知识库成为大模型在企业落地的首选场景之一。从渗透情况来看,大模型在知识构建、知识校验和知识库应用三个环节渗透较深。

基于大模型在知识库场景的渗透情况,当前甲方对知识库问答主要有三项核心需求,一是压缩知识库冷启动时间,二是降低知识校验环节对人工的依赖,三是企业亟需解决幻觉问题。

  • 压缩知识库冷启动时间。当前,知识构建工作比较依赖话术师,他们负责整理问答对和扩写相 似问,此过程比较依赖他们的个人经验。一个话术师整理一类知识库通常需要耗费大约 1-3 个 月的时间。知识构建是知识库冷启动的核心环节,知识构建效率偏低会直接导致知识库冷启动 时间比较长。企业需要借助大模型的理解能力和生成能力压缩知识库冷启动时间。引入大模型 之后,可以提升问答对整理和相似问扩写的速度,甚至可以直接采用“大模型+文档库”的方 式,实现更极致的冷启动压缩。
  • 降低知识校验环节对人工的依赖。在完成知识构建后,企业需要校验知识准确性以及文法细节, 此环节主要靠人工来实现。并且,该工作对相关人员的工作经验有较高要求。企业希望借助大 模型实现自动化知识校验。
  • 知识库交互方式变化,企业亟需解决幻觉问题,生成可信的答案。传统知识库主要采用人工检 索方式,很难直接告诉用户答案,该交互方式比较低效。企业需要利用大模型的生成能力直接 生成用户所需的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。

厂商能力要求: 厂商需要满足三项能力要求,一是具备利用大模型进行知识分类、知识抽取和问答对拆分的能力, 二是具备解决两个校验难题的方案,三是具备 RAG、微调等缓解大模型幻觉的能力。

  • 具备利用大模型进行知识分类、知识抽取和问答对拆分的能力。引入大模型之后,首先可以做 知识域的自动分类。第二个作用是自动抽取知识点的实体和关系,本质是基于大模型做预处理,降低对人工的依赖程度。第三个作用是问答对拆分和相似问扩写。过去,该环节非常依赖话术师,有大模型以后可以实现自动化,相关人员则转变为审核职能,即主要负责知识管理,而非 知识创建。
  • 具备解决两个校验难题的方案。直接利用大模型进行知识校验存在两个比较明显的问题。首先 是过度校验。即原来的回答比较准确,但大模型会演绎出很多新内容,导致校验工作质量下降。 第二个问题是新词校验存在滞后性,因为大模型背后的知识是无法实时更新的。厂商可以通过 Prompt 工程、RAG、微调大模型等方式解决上述两个问题。
  • 具备 RAG、微调等缓解大模型幻觉的能力。企业需要利用大模型的生成能力直接生成用户所需 的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。厂商需要具体幻觉大模型幻觉的能力,主要有 RAG、微调两种方式。RAG 是指在大语言模 型推理生成答案时,额外检索调用外部的知识,然后综合其检索结果进行回答生成。RAG 为大 模型提供了准确、丰富、可解释的知识支撑,从而实现更准确的语义理解、答案推理以及答案 解释。微调则是厂商根据行业或企业数据,对基础大模型进行优化,以便其更好地胜任特定任务。对基础大模型进行后训练也是一种缓解大模型幻觉的方式,但较高的成本导致其可行性较低。

报告共计:80

海量/完整电子版/报告下载方式:公众号《人工智能学派》


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1