当前位置:首页|资讯|人工智能

两会声音丨加强人工智能可信治理有何良策?全国人大代表楼向平:构建人工智能技术标准和评估体系

作者:央广网发布时间:2024-03-05

原标题:两会声音丨加强人工智能可信治理有何良策?全国人大代表楼向平:构建人工智能技术标准和评估体系

央广网郑州3月5日消息(记者 彭华)当前,生成式人工智能异军突起,掀起了通用人工智能技术引领与应用创新的发展浪潮,成为近十年来AI领域最具变革性的技术,将给经济社会发展带来巨大影响。在今年的全国两会上,全国人大代表,河南移动党委书记、董事长、总经理楼向平围绕人工智能建言献策。

全国人大代表楼向平(央广网发 受访者供图)

“诸如人工智能生成物的可版权性以及权利归属问题、训练数据来源的合法性问题、隐私保护问题、人工智能侵权问题以及虚假生成内容的责任认定等,在当前法律制度体系中存在一定立法空白。当前人工智能算法训练和使用过程中面临的各类数据安全、网络安全、隐私泄露等问题,已经成为制约人工智能健康发展的关键痛点,亟须形成一套可信人工智能技术标准和评估体系来加以规范。”对此,楼向平从法律法规等多个层面提出切实建议。

构建系统化的人工智能法律法规体系

楼向平认为,首先,应积极推动人工智能领域立法进程。“建议建立国家层面的立法研究工作组,充分收集学术界、产业界意见,汲取国外立法经验,兼顾约束不当行为和营造产业优良发展环境的目的,积极开展人工智能专项立法研究,推动立法进程,促进人工智能产业健康发展。在新法律颁布前,可通过在现有《数据安全法》《著作权法》等法律规定基础上制定行政法规,或发布司法解释、指导性案例等方式阶段性缓解人工智能发展中面临的法律问题。”

同时,明确生成式人工智能“事前—事中—事后”全链条监管机制。“出台人工智能的风险等级规范,针对不同类型、不同风险等级,施加不同的监管措施。引入算法认证标识、监管沙盒机制,指导和支持企业在监管机构的监督下进行创新活动。”楼向平表示。

最后,楼向平提出,还要建立人工智能责任认定和追责机制、各利益相关方共同参与的系统化治理体系。“以技术的使用为主线,将经济利益与责任承担深度结合,形成完整的链式责任分配机制,通过相应主体的分段分层可控,实现生成式人工智能发展的总体可控。”

构建统一的可信人工智能技术标准和评估体系

楼向平建议,应构建统一的可信人工智能技术标准和评估体系,加强内生安全防御技术研究,实现人工智能“生成即安全”。具体有三项:

设立人工智能可信性指南,构建可信人工智能标准框架。在训练语料库方面,构建高质量中文语料库和数据集,更好支撑国内人工智能模型训练。在数据收集和使用方面,根据数据的价值和对利益的影响,明确人工智能训练数据的分类分级保护标准,制定不同类型和不同级别数据的处理规则和安全保护措施。在数据存储和传输方面,强化数据脱敏和数据加密要求,防止数据还原为原始信息,引入对称或非对称加密技术降低敏感信息泄露的风险,抵御未经授权的访问和数据泄露。在隐私保护方面,引入差分隐私、同态加密和安全多方计算等技术,确保模型在隐私受限环境中的训练和生成。

依托人工智能可信性指南,建立可信AI评估工作机制。打造国内权威、公平科学的可信AI评测平台,构建自主可控的可信AI检测工具体系。面向训练数据,打造训练数据检测工具,进行防投毒数据、侵权数据、有害数据的分析判断,保证使用合法的数据进行训练,防范与事实不符或有毒的内容注入AI系统。面向生成内容,打造内容生成检测工具,自动识别并报告通过人工智能技术生成的虚假、有害的内容,确保内容质量,保护知识产权。

加强安全技术攻关,构建内生安全底座。强化内生安全防御技术,赋能人工智能应用系统,有效阻断和控制应用系统硬件环境存在的漏洞、后门等内生安全的共性问题,使内生安全问题难以发展成为内生安全事件。加强内生安全技术攻关,通过内置安全模块,提升自适应防护能力,使人工智能系统具备稳健性和安全性,有能力应对恶意使用,防范恶意监听、病毒文件、隐私泄露、犯罪技术等违法程序或内容的输出。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1