当前位置:首页|资讯|人工智能|金融|客服

人工智能在金融领域的应用及监管进展

作者:Chinamoney发布时间:2023-12-26

原标题:人工智能在金融领域的应用及监管进展

内容提要

近年来,人工智能技术迅速迭代,并与金融行业深度融合,被广泛用于智能客服、信用评分、智能投顾、风险管理等多个场景,央行等金融管理部门也在探索利用人工智能加强经济监测、分析和预测。人工智能有助于改善金融服务效率、促进普惠金融并提高监管效能,但也增加了金融风险、数据安全、高科技犯罪、算法歧视等风险。中、美、欧等主要经济体已着手加强对人工智能的监管。

一、人工智能在金融领域的应用日益广泛

人工智能(AI)技术正从“分析式”进化为“生成式”。分析式AI(Analytical AI)是指利用机器学习算法计算数据中的条件概率分布,根据已有数据集进行分析、判断和预测的模型,主要应用于广告推荐、辅助决策、数据分析等领域。然而,分析式AI并不能“无中生有”,只能基于特定规则处理特定任务,但不能创造任何新生事物,因此也被称为“狭义AI”或“弱AI”。生成式AI(Generative AI)则可针对更广泛的数据集进行训练,学习其底层逻辑并生成新的数据集,并创造出文章、图片、音乐、计算机代码等新内容。相比分析式AI,生成式AI具有更强的理解、推理和生成能力,因此应用场景更为广泛。目前最具代表性的生成式AI是大语言模型,OpenAI的ChatGPT、百度的文心一言、阿里的通义千问等均属于此列。目前,全球已有超200个大模型,其中90%由中美两国的科技公司研发。

AI与金融行业天然契合。数据是AI最重要的投入品,不论分析式还是生成式AI,都离不开大量的数据训练。金融行业数字化程度较高,在日常业务中积累了海量用户及交易数据,因此是AI应用最理想的场景之一。事实上,金融机构也普遍在利用AI技术升级或创新金融业务。美国咨询平台Business Insider调查显示,全美80%的银行认为AI有助于改善金融服务,并已经或计划将AI与金融业务相结合;到2027年,预计全球AI金融服务市场规模将增至1300亿美元。

目前,金融机构主要是利用分析式AI辅助人类员工工作。应用场景包括如下领域:

一是智能客服。客服这项工作具有明显的程序化特征,因此是AI最广泛的应用场景之一。目前,智能客服主要承担两项工作:其一,为客户答疑解惑,例如,美国银行的智能客服Erica利用语音识别和自然语言处理技术,分析客户问题并提取关键信息,提供对应解决方案;马来西亚联昌国际银行的Eva专门解决中小企业诉求,可7*24小时工作,在疫情期间为中小企业救助发挥了较大作用;中国平安银行的AI客服已承担了80%的工作量。其二,个性化的业务推荐,例如,富国银行与谷歌公司合作,基于交易数据、社交数据等分析用户特征,有针对性地推荐金融服务或投资产品。

二是信用评分。传统的信用评分模型主要使用结构化数据,如果客户没有银行账户以及相关的交易转账记录,则无法对其进行信用评分。AI可广泛使用结构化(如交易记录)和非结构化数据(如就业历史、消费习惯等)进行信用评分,可大幅提高效率、准确度和覆盖范围。例如,菲律宾联合银行建立了基于人工智能技术的信用评分模型,为没有银行账户的群体进行信用评级,从而提高了贷款可得性。

三是智能投顾。利用AI技术构建的智能投顾系统可以通过分析投资者的风险偏好、财务目标和市场情况等信息,生成适合投资者需求的投资组合,并根据市场运行情况适时调整投资策略。这有助于降低投资门槛,为不同财富水平和风险承受能力的投资者提供更精准的投资选择。美国摩根大通、中国同花顺等多家中外金融机构都已推出智能投顾服务。

四是风险管理。基于AI技术的风险管理模型可通过大数据分析,对金融、投资、信贷等领域中的风险因素进行分析、识别和预测,并采取措施降低风险,保护金融机构和消费者利益。例如,新加坡星展银行利用AI改进反洗钱/反恐怖融资的报警优先级排序,大大降低了误报数量。我国多家商业银行已建立了AI反洗钱模型,利用机器学习、知识图谱等技术对反洗钱进行实时监测和智能分析。

近期,金融机构正在尝试将大模型等生成式AI与业务结合。美国摩根大通基于ChatGPT构建了一个预测美联储货币政策的模型,该模型利用过去25年间美联储发布的声明和官员讲话作为训练集,构建了“鹰鸽分数”,发现该分数每上升10个点,美联储下次议息会上加息25个基点的概率就会上升10%。摩根大通计划将该模型拓展至欧央行、英国央行等30多家央行的政策预测中。中国农业银行推出了大模型ChatABC,目前正在研发服务、智能客服、辅助编程等多个场景进行试点。建设银行等也在进行金融大模型的研发。

图1 AI技术在金融领域的应用

除了私人机构外,央行也在探索利用人工智能提升效率。欧央行构建了一个基于分析式AI的通胀预测模型,发现与传统模型相比,AI模型在预测近期核心通胀率方面的表现更出色,主要因为其能够更准确地刻画部分因素对通胀的非线性影响。中国人民银行建设并运营的国家金融基础数据库利用AI技术挖掘量级更大、颗粒度更细的金融数据,用于分析、监测、预警和模拟,为央行决策提供更精准、全面的信息支持。

二、人工智能用于金融领域的利弊分析

对金融体系而言,人工智能是一把“双刃剑”,带来的机遇与风险均十分突出。机遇包括:

一是提升业务效率。AI技术在处理金融业务方面的速度和准确度不仅高于人工,也高于已有的电子化手段。例如,平安银行表示,智能客服使得其客服业务的工作效率提升了2~3倍。人工智能公司Snorkel AI为美国一家银行构建的用以评估贷款政策和风险敞口的模型,在一天内处理了25万份文档,准确度高达99.1%,远超人工及现有技术。据桥水预测,生成式AI将带来更大的效率提升,其影响需在未来10~20年才能完全体现。

二是促进普惠金融。在传统模式下,金融机构为部分“长尾客户”提供服务的成本大于收益,导致部分人群被排除在金融体系之外。AI技术极大提升了数据可用性以及处理数据的能力,且提供服务的边际成本很低,因而可以将“长尾客户”纳入业务范围,例如AI用于信用评分可以为没有银行账户的人群提供贷款、智能投顾让可支配收入较低的小型投资者也可进行投资,提高其财产性收入等。

三是提高金融监管效能。理论上,大模型可帮助金融管理部门从多渠道获取多元化的数据,对金融体系运行情况进行实施监测。其强大的分析和预测能力可以辅助金融管理部门进行政策模拟,从多种政策组合中挑选最优政策。大模型还可提前识别和预判风险,帮助金融管理部门以事前监管的方式更好维护金融稳定。

不过,AI技术也会为金融领域带来诸多挑战。

一是导致金融风险更加难以甄别。神经网络等AI技术普遍存在“算法黑箱”的问题,即很难解释输入变量与输出变量间的因果关系,或阐明其传导机制。这可能导致金融风险难以在事前或事中识别,只有当风险发生后才能被观测到,且很难解释这些风险是如何产生的。如果将AI技术同时用于多项金融业务,还可能导致风险的交叉传染更加隐蔽,一旦风险发生,对金融体系的冲击可能更大。

二是数据安全问题。AI的训练和使用需要用到大量用户数据,不同的AI模型之间还会涉及数据共享问题。这对于金融机构在收集、存储、使用、共享用户个人信息和交易数据方面提出了更高要求。此前,金融机构或金融科技公司滥用用户数据、泄露个人隐私的例子屡见不鲜。对此,主要经济体均已出台数据安全和隐私保护的相关法律,但这些法律在金融领域的落实情况以及金融机构的合规情况仍有待观察。

三是滋生金融犯罪。目前,已有多起利用AI技术进行“换脸”对个人隐私和声誉造成了严重侵犯的案例。若不法分子将之用于金融领域,例如利用“换脸”技术欺骗人脸识别,冒充本人进行取款或转账;在训练大模型时故意插入“有毒”信息,误导大模型的判断并为自己谋私利;或是通过算法推荐功能对客户进行心灵误导等,可能严重损害消费者利益。

四是算法歧视。如果用于训练的数据集缺乏包容性和多元性,或者程序员基于自身价值观、经验和背景知识在编写算法时有意或无意识地引入偏见,可能引发算法歧视问题,导致结果的不公平。例如,在AI招聘中已出现多例性别歧视的情况。在信用评分业务中,如果算法是有偏的,可能倾向于给某些群体或某类性别更低的评分,反而降低信贷可得性。

三、主要经济体对人工智能的监管

总体而言,主要经济体对AI的监管方式可分为三类:

第一类是出台针对AI监管的法律法规,代表性经济体为中、美、欧。欧盟对AI的监管最为积极。欧委会从2021年就开始制定《人工智能法案》,该法案采取基于风险(risk-based)的方法,按风险等级将AI分为四类:不可接受、高风险、有限风险和最低风险,风险等级越高,受到的监管和信息披露要求越严格。金融行业中的AI属于高风险AI[1],因此受到严格的监管。金融机构在向客户提供AI服务前,需遵循以下义务:一是向监管当局提供AI系统及用途的必要信息,以便监管当局评估其合规性;二是对AI进行充分的风险评估;三是提供高质量数据集,避免算法歧视;四是记录并保存AI生成的日志和数据,确保信息可追溯;五是为用户提供清晰且充分的信息,例如若金融机构使用AI客服,需告知客户其在与AI进行交流;六是对AI进行适当的人工监督,以降低风险等。2023年6月,《人工智能法案》已获欧洲议会投票通过,下一步将由欧洲议会、欧委会及欧盟成员国举行三方谈判,有望在2023年末获得最终批准。

美国也在加速制定AI监管法规。尽管美国AI发展十分迅猛,在金融领域应用也较多,但2023年以前美国政府对AI基本持放任自流的态度,主要依靠科技企业自律,仅少数部门和地方政府按现有监管要求对AI加以规范,例如,2022年5月,美国消费者金融保护局(CFPB)依据《平等信贷机会法》指出,金融机构需确保在使用AI进行信贷决策时不会歧视贷款申请人。不过,从2022年末起,美联邦政府层面开始从立法层面加强对AI的监管。2022年末,美政府发布《人工智能权利法案蓝图》,提出AI发展和使用的五项基本原则:建立安全和有效的AI系统;以公平的方式建立和使用AI系统,避免算法歧视;保护数据隐私;确保AI系统及时通知和清晰解释;做好AI系统失灵时的备案。不过该蓝图仅提出AI监管的原则,并没有制定相应的监管措施。

2023年10月,美总统拜登签署首个关于人工智能监管的总统行政令,核心原则是建立安全、可靠、可信赖的AI系统,具体包括以下内容:一是制定AI安全、生成内容、生物合成筛选等方面的标准;二是加强数据和个人隐私保护,并要求最强大的AI系统开发者必须与美国政府分享其安全测试结果和相关数据;三是促进公平和公民权利,尤其是保障学生、病患等弱势群体的权益;四是促进创新和竞争,例如为小型开发者提供援助,帮助小企业的AI商业化应用,为境外AI相关人才的赴美签证、学习、居留提供便利等;五是确保政府有效且负责任地使用人工智能,为各机构提供培训、增加AI相关人才招聘等;六是提高美国在海外的领导力,例如牵头搭建人工智能国际框架、与盟国合作制定和实施人工智能国际标准等。

中国于2023年8月开始实施《生成式人工智能服务管理暂行办法》,强调促进AI创新和维护国家安全并重,并规定了AI服务提供方的责任义务,包括:一是确保用于训练的数据具有合法性、高质量等特征,并及时进行算法纠偏;二是在提供AI相关服务时,需对生成和传播内容进行合规性评估,并确保服务稳健性;三是服务提供方需对生成式AI进行算法备案、算法披露、安全评估等;四是建立切实可行的个人信息保护机制,遵循“最小、必要”原则收集个人信息,确保数据正确地存储和使用等。

第二类是将AI纳入现有监管规定,代表性经济体包括英国和日本。英国央行和金融行为监管局曾表示,过度监管将不利于AI的发展,仅提示金融机构在使用AI提供贷款时需避免歧视性后果。2023年3月,英国政府发布《人工智能白皮书》,提出各监管部门有权监管本领域内的AI,暂不对AI制定新的监管法律或设立新的监管机构。日本也仅在现有法律框架下对AI进行监管,例如《数字平台透明度法》要求提供平台服务的大型科技公司使用AI时应确保透明度和公平性,加强信息披露;《金融工具和交易法》要求使用AI从事算法交易的机构需在政府注册,建立风险管理系统并维护交易记录。

第三类是暂不考虑对AI进行监管,代表性经济体为印度、新加坡等新兴经济体。印度政府于2023年3月表示,正在建立必要的政策和基础设施,促进国内AI产业发展,并评估与AI相关的道德风险,目前不打算出台法规以规范AI发展。新加坡于2023年6月表态称,不急于制定AI法规,也暂不考虑监管AI,而是与企业合作开发AI工具,促进企业负责任地使用AI技术。

综上,主要经济体对AI的监管目前呈现两大特点。

一是对AI的监管策略上存在明显区别,主要受本国AI技术发展和应用程度的影响。第一类经济体中,中美是目前全球AI产业发展最快的两大经济体,有必要出台法规以规范其发展。欧盟尽管没有本土的大型AI产业,但AI技术在境内的应用较多,如德意志银行、法国巴黎银行等大型金融机构均已在金融业务中大量使用AI技术,且近年来欧盟出于战略自主化考虑,十分重视对科技产业的监管,先后出台了《通用数据保护条例》(GDPR)、《加密资产市场监管法案》(MiCA)等,以约束境外大型科技公司在欧展业的行为,保护本土居民和企业的利益。第二类经济体AI的发展和普及不如第一类经济体快,将现有监管规则沿用至AI即可满足当前的监管需要。而且其需要利用AI技术弥补国内短版,例如日本政府指出AI有望成为劳动力的替代品,缓解其经年累月的人口老龄化问题。因此,这些经济体认为暂无必要针对AI监管专门立法。第三类经济体以新兴经济体为主,其更希望利用AI技术加速全要素生产率,实现“弯道超车”,因此现阶段不愿对AI监管,避免限制其发展。同时,监管AI可能存在一定的试错成本,这些经济体更倾向于采取观望态度,待AI监管框架成熟后再借鉴相关经验。

二是监管主要侧重于AI伦理,对金融风险的关注度不高。目前,针对AI的监管措施主要关注技术发展中的伦理问题,例如服务提供商需确保训练数据集和算法的公平性,避免形成用户歧视,加剧不公平现象;在收集和处理个人数据时需确保数据安全合规,避免数据滥用或个人隐私泄露等。尽管AI已在金融行业得到广泛应用,由此带来的潜在风险也在增加,但目前该领域的监管尚处于空白。

四、思考及建议

从全球趋势看,AI与金融的深度结合是大势所趋,近期召开的中央金融工作会议也提出要做好包括数字金融在内的“五篇大文章”。对此,我们应该:

一是秉持技术中立态度,鼓励借助AI技术推动金融创新。目前,我国不少金融机构已将分析式AI技术与金融业务相融合,在改善服务效率、降低交易成本、推动普惠金融方面发挥了积极作用。相比分析式AI,生成式AI的潜在应用场景更广阔,不仅有助于进一步促进现有金融业务的升级,还可能创造新的业务模式。未来,金融机构可积极探索生成式AI在金融领域的应用。同时,金融机构也可与科技公司合作,在安全合规的前提下,发挥各自的比较优势,加速AI技术与金融业务的深度融合,进一步提高我国金融科技的国际竞争力。

二是坚持监管与发展并重,提前考虑制定AI金融的监管规定。目前,全球普遍缺乏金融领域AI监管的相关规定。历史经验表明,若金融创新过度领先于监管,不仅会导致金融风险暴露,威胁金融稳定;还可能引发监管的过度反弹,抑制有益的金融创新发展。因此,金融管理部门可基于“相同风险、相同监管”的原则,仔细研究AI用于金融领域可能带来的风险与挑战,并提前制定相应的监管规则,引导AI金融的良性发展。

三是加强AI监管的国际合作。国际社会关于AI监管的竞争与合作均在开展。竞争方面,美、欧两大经济体正在争夺全球AI标准及监管规则制定的话语权;合作方面,2023年5月,七国集团(G7)在广岛人工智能会议上发布了《生成式人工智能的报告》指出,G7成员同意制定行为准则,规范各大公司开发和使用AI系统。11月初,全球首届人工智能峰会在英国召开,中、美、欧、印度等多国代表参会。各方签署了《布莱切利宣言》,同意采取全球范围内的共同行动管理人工智能的潜在风险,确保人工智能以安全且负责任的方式研发应用。考虑到当前国际局势复杂多变,若相关标准制定由西方主导,可能不利于我国AI产业的发展。因此,我国也应积极参与国际AI监管规则制定的相关工作,并在重要国际平台上积极开展AI监管相关的多双边合作,输出中国标准。

[1] 《人工智能法案》规定,高风险AI包括具有生物识别、教育、执法或影响人类潜意识等功能的AI。金融机构利用AI进行信用评分(生物识别)、智能投顾或产品推荐(影响人类潜意识)属于高风险AI。

作者:益言


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1