当前位置:首页|资讯|AIGC|客服

AIGC商用瓶颈怎么破?多模型集成了解一下

作者:橡果商业评论发布时间:2023-06-29

原标题:AIGC商用瓶颈怎么破?多模型集成了解一下

作者 | 辛芊芊

编辑 | 覃拓

运营 | 陶子枫

输入不到百字的剧本创意和关键词,一分钟内可以看到三个不同版本的故事情节;用户提出未被知识库覆盖的“超纲”问题,机器人客服也能给出答案,无需转交人工客服处理……

2023年春天,陈锡言和荀鹏俊负责的产品分别推出了上述新功能。两人分别来自一览科技和Sobot智齿科技,各自聚焦视频创作和客户联络业务。

虽然人工智能技术早在几年前就置入他们的产品功能,但由ChatGPT掀起的AIGC(生成式人工智能)浪潮仍让他们看到了新机会机会。

这正是AIGC应用层百花齐放的缩影,除视频和客服,办公、文旅、医疗等领域的AIGC产品也层出不穷。

大语言模型被视作支撑AIGC的重要基座。在应用层开发商竞相“尝鲜”之时,国内的“百模大战”也已打响。

2023年3月以来,从百度、阿里等科技“大厂”,到光年之外、序列猴子等创业公司,都竞相发布了自研大模型产品或相关计划。

根据科技部新一代人工智能发展研究中心主任赵志耕公开披露的数据,据不完全统计,中国10亿以上参数规模的大模型已经发布了79个。

大模型层竞争日益激烈,另一种声音也在不少垂直应用开发者的心中响起:“市面上这么多大模型,我该选择哪一个?” 事实上,由于刚刚起跑的大模型还在快速迭代,且商业化程度有限。

对于任何一家上层应用开发者商说,把“基座”建设押注单一大模型上都未必是最优解。那么如何在现有技术条件下抓住AIGC风口?一些云厂商正在以多模型集成的方式提供解题答案。

一:大模型怎么选?

“AIGC给用户的带来体验是,我提出一个问题之后你能很快地做出分析、给出回答。这个体验流程跟智能客服非常类似。所以我们认为AIGC在客服行业落地的可能性也相对更大。”

荀鹏俊是一体化客户联络解决方案提供商Sobot智齿科技的副总裁,抱着上述看法,其所在公司从2022年12月开始做AIGC相关研究,今年4月正式推出接入了大模型的MVP(最小可行化产品),目前大概有百余家客户参与测试。

据荀鹏俊介绍,其公司此前自研的AI客服机器人主要通过检索预设知识库来回答客户问题,一旦问题的答案超出知识库范围,就必须转交给人工客服处理。

“而接入大模型后的机器人则会根据知识库的内容自动生成一个答案,这样既提高了客服机器人的直接回答率,也减少了企业前期做知识库运营的工作。”除此之外,客服管理、产品营销也是智齿科技陆续会探索的AIGC落地场景。

陈锡言担任联合创始人和CTO的一览科技同样看中了AIGC的内容生成能力。AIGC爆火之前,这家视频创作服务商主要利用AI的内容理解能力为视频推荐和运营环节提效。

“当我们看到AIGC之后,发现之前需要投入大量人力的工作,比如写剧本、起标题、写口播稿,也可以用AI的方式可以快速生产。”陈锡言介绍,目前其公司正在编剧、拍摄、剪辑、运营等视频生产环节落地AIGC技术、推出相应产品。

在他看来,AIGC不仅帮助视频创作者大大提效,其生成的广泛内容也为内容创作者提供了更多灵感来源。

AIGC给智齿科技、一览科技等上层应用公司带来的颠覆性可能不容小觑,但一个不得不承认的事实是,由于大模型仍处于起步期,市面上很难找到一款大模型能够独立支撑起AIGC应用层产品的商业化需求。

对于荀鹏俊从事的智能客服行业而言,溢出率是产品接入大模型时考虑的重要因素。所谓的“溢出”是指AIGC工具输出的答案有可能超出预设知识库范围。

荀鹏俊坦言,在智能客服场景下,AIGC的一大弊端是该模式下输出的答案生成内容的准确度并不可控,可能答非所问。“如果是日常闲聊,AI答非所问还会给用户带来一些乐趣,但是放在商业环境里面就会有大量的风险。”

为了规避这一风险,智齿科技目前采用自研问答引擎与AIGC引擎相配合的“双引擎”模式。具体而言,即优先启用自研引擎,在自研引擎无法作答的情况下再启用AIGC引擎,并把后者生成的答案回调给自研引擎进行审核。

正因如此,在选择接入产品的大模型时,荀鹏俊团队会特别关注溢出率。“我们其实测试了非常多的大模型引擎,目前各个引擎表现的结果不一样的,有些引擎即使我们限定了输出内容的范围,它也会额外地加一些它从互联网上学习的一些推送。”在荀鹏俊看来,溢出问题是AIGC+客服智能实现商业化亟需解决的问题。

数据安全性则是荀鹏俊和陈锡言共同关注的另一个要素。算力、算法、数据是人工智能的核心,陈锡言坦言,对于泛内容领域而言,数据也是关乎能否做出差异化AIGC应用层产品的宝贵资产。

“基于业务数据产生具有业务特色的产品,这样才不用担心同质化的问题。”但对保密性相对较高的企业或行业来说,把业务数据“投喂”给大模型,也意味着一定的安全风险。

“一些数据相对敏感的企业,可能会选择私有云部署的方式,但大模型对整个算力资源的占用是非常高的,这个就导致更广泛的方式只能用这种公有云,这也就带来了对数据安全的一些担忧。”

二:多模型下的新解法

为适配不同客户的差异化需求,在大模型的选择上,荀俊鹏和陈锡言所在的公司都没有锁定单一模型,而是在多个模型中择优选用。

譬如,海外市场和国内市场的用户的数据安全要求有所差异,智齿科技根据客户具体需求接入合适的模型。

这与业内的一种观点有所契合:“国内大模型正在快速迭代,不同大模型在特定任务上各有千秋,企业不必急于绑定一家大模型,而是应该结合自身业务场景,综合评估使用效果和成本,在不同场景选用更具性价比的模型。”

众所周知,大模型给AI智能化水平带来质变的关键是参数规模够大。目前最先进的大模型参数级别已经上万亿,业内也普遍认为,参数在千亿级别的自然语言模型方可被称为“大模型”,

除了参数数量,本轮AI浪潮另一个突破之处是,在模型层加入了基于人类反馈的强化学习(RLHF)。

通俗理解,即大模型迎来了二次学习的机会,除了模型开发阶段的预训练,在使用阶段还会由人类训练师按需“投喂”专业的数据资料,模型以此为基础进行微调(fine tuning)和迭代。

这更像是一个因材施教的过程,对于大模型在专业领域的应用尤为关键。陈锡言介绍,为了帮助视频创作和消费者提供有业务特色的产品,一览科技团队也会结合相关业务数据,以微调的形式对模型进行提升。

甚至有观点认为,在一些特定场景下,模型微调比模型参数规模更重要。资料显示,微软以医学文章数据精调了生物领域的BioGPT-Large模型,虽然基座仅有15亿参数,其在 PubMedQA 基准测试中的准确率却优于有着上千亿乃至数千亿参数的大型通用语言模型。

但无论是从一众模型中按需择优,还是基于行业数据对大模型进行微调,每一次试验于AIGC应用开发商而言都意味着成本支出。能否同一个工作流中完成模型的挑选和调试?瞄准这一需求,多模型集成平台应运而生。

三:火山引擎“答卷”

“百模大战”如火如荼,字节跳动旗下公司火山引擎从多模型集成切入,交出了答卷。6月28日,火山引擎推出的大模型服务平台“火山方舟”启动邀测,助力大模型应用降本。

该平台集成川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等七家企业及科研院所的大模型。

企业可基于平台的多模型架构同步试用多个大模型,选用更适合自身业务需要的模型组合,同时也可享受该平台提供的模型精调、评测、推理等全方位的平台服务(MaaS)。

“火山方舟”之所以从多模型集成切入,正与大模型百花齐放、各有所长的现状息息相关。

火山引擎总裁谭待判断,未来企业使用大模型的方式可能会呈现“1+N”的模式:“1”是通过自研或深度合作,形成1个主力模型;建议成本、场景复杂多元等原因,还会有N个模型同时应用。

除提供多模型架构,在大模型应用方看中的数据安全和模型精调上发力。数据安全方面,火山引擎智能算法负责人吴迪介绍,“火山方舟”已上线了基于安全沙箱的大模型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现了模型的机密性、完整性和可用性保证,适用于对训练和推理延时要求较低的客户。

为进一步满足不同业务场景下的数据安全要求,目前“火山方舟”也在与NVIDIA合作,探索新一代硬件支持的可信计算环境、基于联邦学习的数据资产分离等多种方式的安全互信计算方案。

模型精调方面, “火山方舟”提供了丰富的模型精调和评测支持,企业可用统一的工作流对接多家大模型。

对于复杂需求,可先设置高级参数、验证集、测试集等功能,再通过自动化和人工评估直观对比模型精调效果。而在不同业务场景里也可切换不同的模型,实现最具性价比的模型组合。

不过谭待坦言,“火山方舟”目前还在起步阶段,工具链和下游应用插件需要持续完善。未来该平台还将接入更多大模型,并逐步扩大邀测范围,与企业客户共建开放合作的多模型生态,加速大模型在各行各业的应用落地。


Copyright © 2025 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1