当前位置:首页|资讯

周延礼:尽快制定人工智能技术在保险业应用的国家标准、行业标准、团体标准

作者:金融界发布时间:2024-10-20

10月20日,在2024金融街论坛年会的以“AI重塑金融与安全治理”为主题的平行论坛上,十三届全国政协委员,原中国保监会党委副书记、副主席周延礼发表主旨演讲。在肯定大模型技术在金融保险业应用的意义重大的同时,周延礼呼吁业界高度重视保险业引用人工智能技术带来的潜在风险。“保险行业应联合相关技术专家和安全专家,共同制定适用于保险行业的国家标准、行业标准和团体标准,确保人工智能在保险业务每个环节的应用都符合安全要求。”他表示。

得益于数字经济发展与数字金融融合协调推进,“人工智能大模型赋能保险行业的时代已经到来”。周延礼认为,大模型可以为金融保险行业带来五个方面管理能力的提升。一是可提升风险管理能力。大模型可以通过分析大量历史数据,识别出潜在的风险信号,帮助金融保险机构采取相应的措施来管理风险。二是可提升防骗保欺诈能力。大模型可以通过分析用户的行为习惯和交易模式,识别出潜在的欺诈行为,帮助金融保险机构采取相应的措施来防止欺诈行为。三是可提升个性化营销推荐能力。大模型帮助金融机构与客户进行全方位的链接和精细化经营。四是可提升智能客服能力。五是可提升实现降本增效能力。

然而,保险业引用人工智能技术带来的潜在风险不可小觑,周延礼呼吁业界高度重视三方面问题,即:客户的个人隐私和数据安全风险问题;人工智能技术如何保障决策过程的公正、透明和可解释性,而不是过度依赖算法等问题;保险公司关注的是用户体验和业务价值创造。如何将人工智能这一创新技术和保险公司的经营目标更好地结合起来,使AI大模型这种新技术的应用具有可行性和可持续性。

基于此,周延礼建议业界应尽快制定符合行业特征的技术标准规范,全面构建保险业人工智能安全技术体系,借助第三方科技力量加强检测评估。

周延礼表示,保险行业应联合相关技术专家和安全专家,共同制定适用于保险行业的国家标准、行业标准和团体标准,形成涵盖从数据收集、处理到模型训练、决策输出全过程的安全标准体系,确保人工智能在保险业务每个环节的应用都符合安全要求。

针对技术内生、应用衍生、数据安全和隐私保护等方面的安全挑战, 周延礼建议,构建人工智能安全治理技术体系,在自身安全、功能安全、隐私安全、可信赖安全方面加强前沿安全技术研究,通过产学研用联合技术攻关,推动关键技术成果转化应用。“这是落实人工智能安全治理的必要措施。”他强调。

他还建议,要针对性地加强人工智能安全检测评估体系建设,加大测评技术的攻关力度、丰富测评内容、开发更智能的检测工具、建立更加高效的监测预警平台、开展更加广泛的测评实践。保险公司应定期邀请第三方科技力量对保险行业的人工智能系统进行独立的安全检测和评估。保险公司应根据评估报告对系统进行优化和改进,提高系统的整体安全性能等。

来源:中国银行保险报


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1