来源:移动支付网 作者:木子剑
大模型作为新一代人工智能技术,受到极高关注。不过,其纵有万般好,也不是完美的。其中,幻觉问题就是大模型实际应用时存在的问题之一。
银行大模型应用场景以对内为主,幻觉问题或是主因之一
据《银行科技研究社》整理,之前银行透露的大模型、生成式AI应用场景主要包括网点运营、客服及远程银行、数字人、消保、研发、智慧办公、营销、风控、企业金融等方面。
比如在网点运营方面。工行基于大模型的网点员工智能助手已上线,为一线员工提供多方面支持,提升网点效能,2023年运营领域智能处理业务量3.2亿笔,比上年增长14%。邮储银行赋能运营管理上线柜面“小邮助手”,为柜员提供在线业务知识问答,提升业务办理效率。
在客服及远程银行方面。农行基于大模型,在客服知识库上线答案推荐、知识库辅助搜索等功能。基于大模型,建行智能客服工单生成每单平均节约客服工作时间15-20秒,可用率达82%,一致性达80%。微众银行通过大模型AI Agent技术对客户对话内容进行小结,助力坐席快速定位用户问题。
以此可知,即便是在网点运营、客服及远程银行等客户服务相关场景,大模型也更多的是充当银行员工的助手,为其提供帮助。
总体而言,目前大模型在银行业的应用以对内为主。这或许是考虑到大模型存在幻觉等问题。
大模型幻觉问题,是指模型生成的内容与现实世界事实或用户输入不一致的问题。通俗一点来说,就是“一本正经地胡说八道”。
据悉,哈工大和华为发布的关于大模型幻觉的综述指出,大模型幻觉分为事实性幻觉和忠实性幻觉。
其中,事实性幻觉,是指模型生成的内容与可验证的现实世界事实不一致。事实性幻觉又分为事实不一致(与现实世界信息相矛盾)和事实捏造(不存在,无法根据现实信息验证)。
忠实性幻觉,是指模型生成的内容与用户的指令或上下文不一致。忠实性幻觉可分为指令不一致(输出偏离用户指令)、上下文不一致(输出与上下文信息不符)、逻辑不一致(推理步骤及与最终答案之间的不一致)。
幻觉问题导致各家机构不敢轻易大范围应用大模型,那么如何才能解决大模型幻觉问题呢?
微众银行称可解决大模型幻觉问题,多地成立语料联盟
据《银行科技研究社》了解,在7月初举行的以“大模型时代AI前沿与金融应用”为主题的微众媒体学院系列活动中,微众银行介绍,在业务实践中,该行自研的生成式AI技术能够有效解决大模型幻觉等技术难点,满足监管合规要求,已深度应用于客服、营销、质检、反欺诈、科技金融等核心业务场景,覆盖金融服务“前-中-后台”各个环节。
每日经济新闻采访微众银行人工智能首席科学家范力欣时透露了更多内容。
关于如何防范和纠正生成式AI出现的幻觉问题,范力欣表示,在技术层面,可以基于内容严谨的数据库查询和校验。目前,这一过程已经在实际应用中得到实施。
首先,在生成内容之前,生成式AI需要先查询信息。当查询来源为网络时,信息的可靠性参差不齐,查询结果的准确性并非总是能够得到保证。但在金融机构的实际应用中,所依赖的是内容严谨的数据库,这构成第一层保障。
其次,生成的内容需再次与数据库进行校验,以确保生成的内容与数据库之间不存在矛盾。这是技术层面上的第二层校验。
在流程层面上,其系统并不直接面向实时生成业务。以客服为例,客服背后有一个庞大的数据库支撑。以往,数据库中一个问题对应一个答案。现在通过生成式AI可扩展问题的表述范围,使其能够覆盖用户可能的表述,从而达到答案与问题的“多对一”匹配。由于数据库是离线的,且可以人工审核,从应用层面避免了“模型幻觉”问题。
其中,包含两个数据库:一个是事实材料库,即背景库,用于查询和联合校验;另一个是面向服务端客服的问答库,该问答库本是一问一答模式,现已发展为多问一答模式。
范力欣还表示,校验过程由人机配合完成,由大模型进行校验,但最终会进行人工审核。
据《银行科技研究社》了解,解决大模型幻觉问题需要从数据、模型以及训练与推理策略等多方面进行优化。比如在数据方面,进行数据清洗、数据标注等操作,提高数据集的质量。
目前,已有多地成立大模型语料数据联盟。在这些联盟的助力下,大模型通过训练更高质量更丰富多样的语料数据,或能在提高泛化能力的基础上,生成更准确的内容,在一定程度上纾解幻觉问题。
另外,在2024世界人工智能大会暨人工智能全球治理高级别会议上,业内人士指出,可通过引入知识图谱、RAG(检索增强生成)、联邦学习等技术,解决大模型幻觉问题。
无论如何,解决好幻觉问题,才能让大模型广泛落地应用。