当前位置:首页|资讯|人工智能

国家治理 | 以法治化解生成式人工智能风险

作者:社会科学报发布时间:2023-08-30

原标题:国家治理 | 以法治化解生成式人工智能风险

国家治理 | 以法治化解生成式人工智能风险

国家治理

以ChatGPT为代表的生成式人工智能拥有高精参数、海量数据、超强算力、极致调优等技术性能。这种自我学习和自我迭代的技术性能给监管部门提出了前所未有的挑战。如何促进生成式人工智能的健康发展和规范应用,化解生成式人工智能的高危风险和安全隐患已然成为当前迫切需要解决的问题。党的二十大报告明确指出:“防范化解重大风险,保持社会大局稳定”,是全面推进党的建设新的伟大工程的重要内容。因此,必须充分发挥法治的保障作用,规范生成式人工智能产品的应用风险,以确保其在正确的轨道上为人类的生产和生活服务。

原文 :《以法治化解生成式人工智能风险》

作者 |重庆邮电大学网络空间安全与信息法学院副教授 徐伟

图片 |网络

生成式人工智能的法律风险

沦为犯罪工具的风险

由于科技的快速迭代和迅猛升级,规制生成式人工智能的法律规范存在严重的滞后性。虽然生成式人工智能在设计上已充分考虑对违法问题的直接拒绝功能,但是变通问法的违法问题仍然可以避开这一技术设计,并使生成式人工智能沦为犯罪工具。实践中,生成式人工智能通常在两种情况下会被用于犯罪。第一种,利用生成式人工智能自动生成文本、图片、视频,并用于网络炒作、恶意发帖攻击、淫秽物品传播等一般犯罪;第二种,利用生成式人工智能组建钓鱼网站、制作恶意软件、升级加密功能,并实施颠覆国家政权、煽动国家分裂、发动恐怖袭击等危害国家安全的严重犯罪。

损害道德伦理的风险

生成式人工智能的技术原理,是基于输入者提供的文本语言、选择的强化算法,以及系统设计者强加的价值观念等多方面的因素综合输出。这些输出内容看似客观中立,实则藏匿主观偏见,面临道德沦丧的风险。首先,以输入者为中心,选择文本语言、数据算法本身就意味着输出内容的主观偏见性。在这种主观偏见性的主导下,经由生成式人工智能输出的内容极有可能违背社会主义核心价值观,违反公序良俗。其次,公众基于生成式人工智能输出的偏见内容,做出错误决策,引发道德危机。最后,过度依赖生成式人工智能,必然动摇人类主体地位。

侵害知识产权的风险

生成式人工智能的训练数据主要源于互联网数据库,其中不乏原创作品,有侵犯知识产权的高危风险。具体而言,生成式人工智能在回复用户时可能过度借鉴、模仿或抄袭他人作品,导致输出的次生作品中残留原创作品的内容。此外,受利益驱动的用户会频繁使用残留原创作品的输出内容,会衍生叠加侵权,并由此加大知识产权的保护难度。

传播虚假信息的风险

生成式人工智能具有跨领域的知识迁移能力,可生成逻辑性极强的对话文本。在这一生成过程中,倘若用于生成式人工智能的训练数据未经实质筛查和严格过滤,则可能混入虚假数据和错误数据,进而导致输出内容的虚假性,传播虚假信息风险由此剧增。如利用虚假信息吸引流量、增加广告收入、操纵股票市场等。根据中国信息通信研究院和京东探索研究院发布的《人工智能生成内容(AIGC)白皮书(2022年)》明确表示,机器学习后生成的内容变得愈发“专业”,甚至能够以假乱真。更为严重的是,一些用户坚信生成式人工智能输出内容的准确性并视其为权威,由此导致恶性后果。

泄露隐私数据的风险

生成式人工智能具有自动收集用户个人信息、隐私数据和商业机密的功能,并将其作为训练数据进行反复学习,以便提高输出质量。如果生成式人工智能在输出时参考了这些隐私数据,就有侵害公民私权、危害国家安全的数据泄露风险。正如中国支付清算协会发布的倡议书所称,像ChatGPT这样的智能化工具已经出现了跨境数据泄露风险。这些隐私数据泄露包括个人信息泄露、商业秘密泄露、国家秘密泄露等。例如,三星电子引入ChatGPT不到20天就爆出芯片机密泄露事件。

生成式人工智能风险的法治化治理路径

完善面向生成式人工智能的法律法规

一是适应中国国情,制定管控生成式人工智能技术应用领域的法律法规。立法机关应及时出台相关法律法规,明确生成式人工智能的责任主体和担责方式,以凸显数据安全和知识产权保护,并着力推动生成式人工智能的市场规范化,保证生成式人工智能的良性发展。二是联袂相关法律法规,及时应对生成式人工智能的未知风险。《生成式人工智能服务管理办法》目前正处于征求意见阶段,在正式公布生效前,应充分利用现有法律制度及时应对生成式人工智能的未知风险。例如,可以结合《网络安全法》《数据安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等专门领域法律法规,以及《民法典》《个人信息保护法》等普适法律法规,全面保障公民权益,解决突出问题。

构建生成式人工智能全过程监管机制

加强对生成式人工智能产品全生命周期的监管至关重要。从算法设计、模型生成、训练数据选择,到投放市场后的迭代升级和市场退出等环节,均应受到严格监管。具体应采取以下监管措施。一是事前监管。建立市场准入清单,严格审查生成式人工智能训练数据的真实性、客观性、准确性,明确生成式人工智能的安全评估和算法备案制度,多角度增强生成式人工智能的安全性、可解释性和可追责性。二是事中监管。建立生成式人工智能投诉举报的专属通道,完善生成式人工智能的投诉举报机制。明确政府主动审查和用户举报相结合的监管方式,全方位保障生成式人工智能的监管质量和监管力度。三是事后监管。严密生成式人工智能的事后惩罚措施,约谈违反生成式人工智能法律规定的研发公司和责任人并责令整改。对违反行政法规的,予以行政惩罚;构成犯罪的,追究刑事责任。此外,联袂行业协会,健全生成式人工智能行业自律机制,强化行业监管。

聚焦生成式人工智能生成内容的治理

生成式人工智能存在的高危法律风险,主要源于生成内容的谬误性。因此,如何确保生成式人工智能输出内容的准确性至关重要。具体可采取如下措施。一是结合技术和人工审核方式,加强对违法内容的检测和过滤。政府和生成式人工智能研发公司应共同努力,加速建设自检测模型,积极增强风险提示功能。同时,设立人工审核机制,从源头上杜绝违法内容的生成。二是建立生成内容的质疑和辟谣机制。这一机制应立足提示功能,旨在实现虚假数据、错误信息和违法内容的及时标记,以便于提醒后续用户。三是积极推进生成式人工智能产品的研发和推广,建立生成内容的识别机制,促进知识产权的动态保护。政府应重点支持有关识别生成内容的技术研发,并制定相关政策和法律予以保驾护航。积极鼓励相关企业和机构在生成式人工智能的产品研发、技术创新、市场推广等方面进行深度合作,共同推进生成式人工智能识别技术的应用和发展。

提高研发公司和用户的“合规”意识

一是加强生成式人工智能研发公司的合规意识。首先,应推动数据合规,保证数据来源的合法性,加强对数据主体权益的保护。具体而言,应及时征得相关用户同意,公开信息数据来源,确保训练数据不含有侵犯他人知识产权的内容。其次,应落实安全管理义务,防止用户隐私、商业秘密泄露。生成式人工智能公司应加强对研发人员和使用客户的管理,严格用户输入数据和输出结果的审核。同时,健全不良信息审查、过滤、即时处置机制,完善鉴伪和辟谣机制。明确禁止非法留存能够推断用户身份的信息。二是提高用户法律意识和防范能力。首先,监管机关和生成式人工智能公司应提醒用户在使用生成式人工智能时避免输入涉及他人隐私、个人信息、商业秘密和国家秘密的内容。其次,用户在使用生成式人工智能生成的文本数据时,应尽量保持“借鉴性”使用,避免“复制性”使用,并确保使用内容符合相关法律法规要求。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1866期第3版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:王立尧

拓展阅读

人才强国 | 人工智能时代职业技能迭代向何处去

生成式人工智能来了,如何保护未成年人?| 社会科学报


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1