当前位置:首页|资讯|生成式AI

为狂奔的生成式AI安上监管“刹车”

作者:新京报发布时间:2023-04-14

原标题:为狂奔的生成式AI安上监管“刹车”

日前,意大利个人数据保护局宣布禁止使用ChatGPT,马斯克与1000多名人工智能专家和行业高管联名发布公开信,呼吁暂停开发最先进的人工智能系统,以便制定安全政策。三星也传出ChatGPT泄露数据的消息,呼吁慎用ChatGPT。

与任何一场颠覆式革新类似,生成式AI具有典型的“双刃剑”效应,在赋予人类更先进技术工具、解放社会生产力的同时,也可能会导致个人隐私泄露、数据安全漏洞、生成具有错误乃至严重偏见的内容等风险。对此,世界各国政府机构、业界乐观者有之、谨慎者亦有之。

面对生成式AI浪潮的狂飙突进,亟待出台更具针对性的法律规范。尽快构建起人工智能介入与干预社会经济生产、人们日常生活等方方面面的权责边界,已然成为各国共识。

作为人工智能产业快速发展的国家,中国也正将相关监管体系的建设提上议事日程。日前,网信办发布《生成式人工智能服务管理办法(征求意见稿)》,《办法》就生成式AI的定义与运用范围、生成式AI在研发、应用等不同环节需遵循的社会伦理、对知识产权与个人隐私的保障等法律义务,生成式AI服务平台违反相关法规所应承担的责任,都有了明确标准和要求。

这也预示着,未来我国围绕生成式AI的技术研发和产业推进,都将置于一个更加规范、透明的监管体系下,参与其中的高校、学术机构、企业及用户,也都能各自参照《办法》所赋予的权利与义务标准,更好保障自身权益,规避因监管盲区带来的种种风险,进而形成中国生成式AI产业有序发展的合力。

正如《办法》所指,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。近年来,中国AI产业的投资力度不断增强,政府也接连颁布系列扶持性政策,如2017年国务院制定了《新一代人工智能发展规划》,科技部成立了人工智能规划推进办公室、战略咨询委员会和人工智能治理专业委员会。在市场机遇和政策利好的双重推动下,随着生成式AI技术逐渐融入医疗、教育、交通、文化等众多产业,有望成为加快产业转型升级、生产力整体跃升的科技新动能,为我国经济高质量发展创造巨大增量。

与此同时,正因为生成式AI的功能如此强大,如果被滥用,则可能给社会带来重重风险,之前出现的“AI写假新闻”“AI一键脱衣”等事件,证明了让任何技术利器如果被不怀好意的人或组织利用,则会带来严重后果,包括对个人隐私安全的侵犯,对社会治理秩序的挑战等。

此次《办法》的推出,就是要为狂飙的生成式AI列车上装好“刹车”,及时发现前行过程中存在的安全隐患,并启动相应监管预案高效处置,为其良性运转保驾护航。

我国率先推出针对生成式AI的监管办法,对于生成式AI产业的发展更具利好,能够有效防止科技滥用带来的“贪吃蛇效应”。曾经有观点认为,某些互联网科技公司的发展过程犹如一条贪吃蛇,如果过度追求技术或者产品的快速发展,可能会采取激进的发展模式,如为了满足生成式AI对海量数据的需求,不加甄别地输入任何内容,同时向用户输出,最终形成对个体权益乃至社会公共利益的严重侵犯,也会因带来的种种后果惹怒政府和公众,从而被反噬。

因此,我国制定针对生成式AI发展的管理办法,就是为这一新兴产业提供更细化的政策指引,在企业技术研发到应用的全流程中,哪些发展路径是合规的、哪些禁区不可触及,避免无监管状态下的技术失控,也不至于在危机爆发后采取一刀切手段。

知名科幻小说作家阿西莫夫提出了“机器人三原则”:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾;被称为人类创造科技产物时应遵循的必由之路。然而,“机器人三原则”是抽象的理论,须转化为更具体、具有可操作性的法律规范。如何更好应对生成式AI浪潮?正如我国科技部此前指出,对科技发展要趋利避害,让利更好发挥。《生成式人工智能服务管理办法(征求意见稿)》的出炉,就是为了监管与创新同频共振、互为促进,达成人工智能更好服务于社会的愿景。

财经评论人 毕舸

编辑 徐超

校对 卢茜


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1