2023年7月13日,我国7个部委联合发布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)——全球首个管理生成人工智能的规则。对比之前的《生成式人工智能服务管理暂行办法(征求意见稿)》,这部法规的思路发生了重大的转变,从强监管、御风险,转变为“包容审慎”、“鼓励”发展。
这就向我国人工智能的整个产业链释放了一个积极的信号。中国要在人工智能领域取得领先地位,又要保证其“可靠和可控”,在这种平衡之间的分寸并不好掌握,但:
《办法》第一条的法律依据中,除了《网络安全法》《数据安全法》《个人信息保护法》之外,《办法》在《征求意见稿》的基础上增加了《科学技术进步法》。这部法律经3次修订后,最新版于2022年1月1日起实施,主要强调了“增强自主创新能力”,除了要加大对科技的投入,对“企业科技创新”还进行了专章规定(第四章),甚至放在了“科学技术研究开发机构”的章节之前。《科学技术进步法》在《办法》中的出现,意味着在监管人工智能产业之外,增加了对科技创新的要求。
除此以外,《办法》使用了4个“鼓励”以及多个“支持”、“推动”等措辞,增加了“人工智能产业创新、构建生态、国际和机构间协作”的条款。《办法》第五、六条,更强调政策对产业的引导、鼓励、推动和促进作用,特别是底层技术层面——生成式人工智能基础设施和公共训练数据资源平台建设。
中国是美国市场之外唯一一个拥有完整AIGC产业链多国家,包括基础设施层、模型层和应用层。在底层技术方面,我国还存在一定的差距。虽然国内众多厂商开始布局AIGC,但是目前的商业模式还不成熟,技术层面的不足也限制了应用端的发展。
▲ 图片来源:中国信通院2023年7月7日发布《2023大模型和AIGC产业图谱》
在“世界人工智能大会”(WAIC)7月8日的闭幕会上,中国工业和信息化部副部长徐晓兰表示,中国正在努力开发“完整的人工智能价值链”,中国政府将加大对国内人工智能产业的支持力度。多个城市也在响应这一政策:
所以,此次《办法》的出台非常积极,与国家目前的政策相一致。中国政法大学法理学郑玉双教授在接受记者采访时表示,管理办法明确指出“鼓励生成式人工智能技术在各行业、各领域的创新应用”,还指出“对生成式人工智能服务实行分类分级监管”。这意味着,百度、华为这类深耕行业、面向toB的大模型提供商会被获批给企业提供服务。
1、给“研发”和创新更多政策空间
《办法》对其适用范围进行了限定,即仅适用于向公众提供的生成人工智能服务,而不是研究机构正在开发的服务。
这说明政策制定者意识到,AIGC的发展刚刚开始,现有的法律规则可能很难预测未来AIGC服务的形态、生产力及相应的风险,应该为产业的研发提供了一个更宽泛政策空间,避免扼杀新兴技术和重大的创新研究。
2、分类分级的监管
《办法》中对“分类分级监管”的规定,还处于原则式陈述,并没有分级标准和各级别如何规制的具体规定。
这在某种程度上可能是吸收了欧盟拟议中《人工智能法案》的思路,但更多的可能是,吸纳了中国企业对于“一刀切式”监管难以执行的意见,并且明确了AIGC在不同领域的应用应当适用不同的监管。这在第二条“新闻出版、影视制作、文艺创作等活动另有规定的,从其规定”的条文中也能够体现出来。
3、“暂行办法”的升级与未来的《人工智能法》
《人工智能法》目前已经进入国务院2023年度立法工作计划,《办法》的标题中又增加了“暂行办法”的措辞,说明不久的将来,随着人工智能产业的快速发展,以及《人工智能法》的落地,监管方向和措施还需要进行一定调整,避免技术创新与法律监管的平衡被打破。
上海同济大学教授陈吉栋在6月的一次采访中曾表示:“如果想要制定一部促进法,可能较为简单,但若想制定一部综合性法律或者以治理为主要特色的法律,则较为困难……从这个意义上来讲,制定一部人工智能法案的最大难处在于如何对法律本身进行定位。”
从目前《办法》的监管思路来看,《人工智能法》应该会包含较多“促进产业发展”的内容。
中国政法大学法理学郑玉双教授分析,大模型正在进入产业落地期,让企业尽快用上用好大模型、促进数实融合,应该也是本《办法》出台的核心目标之一。
在OpenAI发布ChatGPT后,全球已发布数百个大模型,上半年在中国发布了80多个大模型产品,中国10亿参数规模以上的大模型已发布79个。就在上海2023年世界人工智能大会期间,已有10多款AI大模型产品集中发布或即将发布(不完全统计),比较有代表性的大模型产品包括:百度的文心大模型升级到了3.5版本;阿里巴巴的绘画大模型“通义万相”、中国电信的类ChatGPT产品“TeleChat大模型”、商汤科技联合香港中文大学和清华大学等推出的“书生通用大模型体系”、第四范式专注企业软件领域的“式说”大模型。
根据百度、华为等企业近期密集发声情况来看,企业应用大模型主要有三种方式:
第一种是构建基础大模型。只有少数企业会自建大模型,因为训练大模型的成本和技术壁垒都非常高。
第二种是建立行业大模型,通常是了解行业know-how的企业,结合自身掌握的行业数据,用基础大模型精调出更贴合实际场景的行业大模型。
第三种是在基础大模型和行业大模型之上,开发AI应用。这类企业其实是大多数,他们要思考的是:如何在这个大模型之上做好提示词工程,解决特定应用场景的问题。如何从模型效果、迭代速度、工具链这三大方面去选择一个好的大模型。
而面对这种大模型疯狂内卷,华为常务董事、华为云CEO张平安表示,如果一个大模型不能解决行业问题,参数再多也没有意义。
四、发展中仍有红线
尽管《办法》给行业发展注入了积极因素,但AIGC企业在日常运营中必须意识到,政府监管的红线并未放松。中央网信办主任庄荣文近日曾表示,需要确保人工智能“可靠、可控”。
在过去几个月,监管机构与百度和阿里巴巴等推出AIGC的公司一直保持着沟通,确保这些重要的人工智能产品不会违反监管规定。
而《办法》对人工智能最重要的监管在于“内容”方面,“坚持社会主义核心价值观”的条款下,还增加了“社会稳定”和“有害信息”,这与《征求意见稿》相比,伦理要求显然更加宽泛。
“暂行办法”也表明,政府并未停止权衡并解决“科林格里奇困境”——一项新兴技术如果因为人们担心不良后果而过早实施控制,这项技术就很难发展;反之,控制过晚可能变得“一发不可收”。一旦AIGC的发展触碰了红线,监管的权重必然增加。
作者:《互联网法律评论》
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。