当前位置:首页|资讯|生成式AI|OpenAI

欧盟正式通过AI监管草案:生成式AI需更加透明,版权问题或将解决

作者:GameLook发布时间:2023-06-15

欧盟正式通过AI监管草案:生成式AI需更加透明,版权问题或将解决

继OpenAI的Sam Altman等一众行业领袖发布警告,称AI有朝一日可能毁灭人类后,欧盟的监管部门作出了行动,最近通过了一项被视为具有里程碑意义的人工智能 (AI) 法规的草案,即欧盟人工智能法案(EU AI Act),旨在确保欧盟使用的生成式AI工具的安全性、透明度,并明确一部分问责制度。

据悉,欧盟的AI法案试图通过针对AI工具潜在的不同风险级别,引入不同的规则来解决这些风险。其中包括了严格限制AI实时生物特征识别系统,坚决禁止有争议的“社会评分”系统(类似黑镜里的那种)等。

而在该法案中,生成式AI被划定为高风险,因为它们会对用户或第三方的安全、基本权利等产生负面影响。根据法规的草案规定,高风险的AI在投入使用之前需要承担严格的义务。这些义务包括:

进行合格评定以验证系统是否符合法律要求

在欧盟数据库中注册系统

向用户提供有关系统功能、限制和用途的清晰准确的信息

确保人为监督和干预系统运行

实施技术和组织措施以确保数据质量、安全和隐私

建立风险管理体系和上市后监控体系

向当局报告所有严重事件或系统故障

除此之外,欧盟人工智能法案还要求生成式AI的开发人员,在AI投入使用后发布用于训练系统的受版权保护材料的摘要,包括数据库中有版权的书籍、文章、歌词或代码等。

对于这一规定,根据欧盟官方公示的信息,以及此前各种新闻报道,内容出版和发行业自然无比欢迎,此前生成式AI因为训练时会依赖大量受版权保护的材料而没有支付相应的版权费用,就被美术、编剧等多个创作行业而抵制,认为AI开发团队的这种行为构成了对其知识产权的未经授权使用。

而发布培训数据摘要将使他们能够确定并为他们的成果索取适当的报酬。

但AI相关技术开发人员则表示,发布训练数据摘要这一要求是“不切实际且成本高昂的,因为大型生成式AI在训练中通常会使用来自各种来源的数十亿的数据”。

欧盟对于不同风险级别AI工具的态度

不过无论如何,仅从草案的内容来看,欧盟的人工智能监管法确实解决了当下AI领域很重要的几大问题,包括AI的监管,以及一直在社交网络处于风口浪尖的版权问题,或许会对欧美国家整体AI监管的风向产生影响,甚至其中对于透明度的强调,可能还会影响未来AI是会走向以开源为主,还是以OpenAI为代表的闭源为主。

根据欧盟官方的说法,该法律旨在为人工智能开发者和用户创造更多的确定性、透明度和相互信任,以此进一步刺激企业、基金等对于欧洲AI企业更多投资,推动欧洲具有创新、高质量和道德等特点的AI解决方案的出现。

当下全球AI的发展硬件方面由英伟达领头,谷歌、亚马逊、甲骨文、微软等公司紧随其后,软件方面也以OpenAI、Anthroic以及英国的Stability AI等企业声量最大,欧盟再一次在互联网发展的关键进程中暂时失声,也不难理解为何欧盟如此激进,试图通过明确的法规为欧洲人工智能市场扩大竞争力和吸引力。

但在欧盟宣称该草案将刺激欧洲AI市场的同时,也有人质疑该法律中的部分条款,比如上文中提到的公布训练数据摘要,可能会为AI开发者和用户带来更多负担和障碍,尤其是缺乏资源或技术积累的中小型企业或初创企业。

图源:Pixabay

当然,这一欧盟人工智能法案目前尚未最终确定,它仍需要得到欧盟理事会(代表成员国)的批准,然后由议会和理事会正式通过,最多可能还需要数年的时间。而即便该法律在欧盟生效,成员国转化为国家法律也有两年的缓冲期。

并且目前许多欧美国家还有更迫在眉睫的问题需要处理,比如美国的债务危机等,从欧盟人工智能法案这一框架,到具体详细的监管落地,AI距离戴上镣铐还有很长的时间。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1