当前位置:首页|资讯|元宇宙|AIGC

数智周刊丨跳好AI监管“刀锋之舞”

作者:中国经济时报发布时间:2023-04-14

原标题:数智周刊丨跳好AI监管“刀锋之舞”

找寻AI平衡发展之道

编者按

2023年以来,ChatGPT开始“挂帅”人工智能(AI)领域,不仅在数字经济领域异军突起,更是用几乎“日行千里”的迭代技术更新和进步,向全世界重新定义了新一代数字技术的“方生方死、方死方生”。面对AI技术迅猛突围,一股针对人工智能可能衍生诸多不确定性的思潮正席卷而来,意图通过一场“叫停AI”的行动,为正呈悬崖转石之势的人工智能按下“暂停键”,更待“先完善监管环境再行技术研究”。试问:AI发展与监管如何博弈平衡?

政策前哨

片来源/摄图网

■ 中国经济时报记者 李海楠

中国工程院院士庄松林曾言:所有的科技监管历来都是“刀锋上的舞蹈”,必须准确掌握监管与创新的平衡点。稍微偏左或者稍微偏右,都有可能失之毫厘、谬以千里。

面对有着“一日千里”更新迭代速度的生成式人工智能(AIGeneratedContent,简称AIGC),4月11日,国家互联网信息办公室“及时出手”,就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,彰显出鲜明的中国版监管态度:促成我国AI产业理顺科学、有序发展逻辑,杜绝野蛮生长。

未雨绸缪开全球规范之先

今年以来,ChatGPT引领AI人工智能技术率先“出圈”,由此衍生出一系列关联反应值得关注。其中,就包括各国政府对发展生成式人工智能技术采取的态度。

3月底,意大利个人数据保护局宣布禁止使用ChatGPT,此后,德国、加大拿、法国等也相继表达相似态度,一度让AIGC在欧洲陷入僵局。

反观我国,尽管未能抢占先机优势,但一众IT巨头密切跟踪并纷纷下场开发AIGC产品。阿里、华为、百度、商汤等科技企业近期相继发布各自生成式人工智能产品,“合体”向世界展示了中国科技实力。

论及我国AI产业发展,用一句“风景这边独好”也是恰当的。我国政府对科技新事物历来包容,相对宽松的监管环境只为确保产业规范发展。《征求意见稿》的发布开全球规范之先,让我国再一次走在了规范科技发展政策的前列。

“科技发展在打开未知的同时,也会成就一番全新的未来,元宇宙、AIGC正在改变人们的日常工作与生活。”北京信息产业协会元宇宙专家委员会主任、武汉元宇宙研究院院长龚才春对中国经济时报记者表示,要更好地发展和应用AIGC大模型及相关产品,就必须积极应对其可能带来的知识产权、安全、伦理、环境等方面挑战,实现科学有效坚持监管与创新发展的平衡,以顺应这一轮不可逆的趋势。

北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括也认为,《征求意见稿》的发布体现了提前研判、介入和监管的政策思路。“有助于企业提前构建合规解决方案,提前布局必要的合规机制和工具,有效减少风险。”他对本报记者表示,其所透露出“强调权益保护、数据治理、内容治理”的多维治理思路,也对未来国内外一众科技企业在中国市场合规发展提前构建了规范框架,利好相关方面及时调整和适配自身的产品和服务。

《征求意见稿》明确,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。

科学、专业顺应趋势方能“舞步轻盈”

花开两朵,各表一枝。如果说ChatGPT在意大利遭遇“闭门羹”有可能引起整个欧洲对AIGC类产品的集体“叫停”,从而让AIGC在欧洲遭遇“滑铁卢”,那么,即便是在ChatGPT诞生地的美国本土,AIGC的发展同样不够顺遂。

3月底,马斯克等1100余名科技人士联名签署公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。“直到独立专家开发、实施和审核这一类设计的共享安全协议,并呼吁开发者与决策者在治理和监管机构方面进行合作。”

马斯克代表的科技界人士对AIGC大模型训练的担忧主要集中在两方面:一是AI技术未来可能失控,给人类文明带来风险;二是AI技术可能被恶意使用,造成错误虚假信息传播、侵占版权或被用来犯罪。

“随着科技水平的进步,生成式AI在文化创意产业、新闻媒体、金融、医疗等领域得到广泛应用。其中一大风险就是可能被用于恶意目的,因此,政府、企业及其相关组织应该加强监管,及时有效地预防生成式AI技术及产品的滥用。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林对本报记者表示,有必要对AIGC实施监管,但监管目标应该是使用AI的人而非AI本身,即以“了解AI使用者想要达到的目的”为监管初衷。

显然,对于科技界而言,培育温和良性且能兼顾监管和创新发展的政策环境实属必要。龚才春认为,抓住科技发展机遇能让我们获得科技发展的红利;错失科技发展机遇,则让我们可能失去发展良机。

“科技新事物开始的时候一般都会出现这样和那样的问题。放纵科技恣意发展显然不可取,但直接将科技新事物扼杀在摇篮中,则有可能让我们失去一个发展的时代。”龚才春强调,互联网发展的历史经验表明,没有政府监管的网络世界只能遵循丛林法则。如今,元宇宙、AIGC等作为数字经济产业集合体,更需要科学化、专业化的政府监管,绝不能走曾经“先发展再治理”的老路。

数智前瞻

多层面加强人工智能监管势在必行

片来源/摄图网

■中国经济时报记者 林春霞

日前,科技界人士呼吁叫停ChatGPT训练,用6个月时间制定相关约束,同时,多国呼吁限制GPT,如意大利因隐私问题已成为第一个禁止ChatGPT的西方国家。

从火遍全球到被多国“围堵”,ChatGPT在短短两个月内经历了从高峰到低谷的起伏,这也进一步引发了人们对ChatGPT以及人工智能的技术漏洞和安全监管的关注。

ChatGPT究竟触碰了什么红线

从ChatGPT腾空问世给人们所带来的惊喜到对其安全隐患的担忧,ChatGPT的境遇发生了180度急转弯。那么,ChatGPT究竟触碰了什么红线?欧洲多国意欲暂停使用ChatG?PT,主要原因在于ChatGPT存在隐私泄露以及数据安全等问题。

中国社会科学院信息化研究中心主任姜奇平在接受中国经济时报记者采访时表示,ChatGPT从高峰到低谷起伏有一个明显的规律,高峰跟技术有关。低谷、碰到红线,与社会相关,从政治、法律,再到道德、伦理、隐私,还与知识、信息、判断真假等有关。“人工智能技术应用既涉及技术又涉及社会,技术专家对社会问题考虑不周全是很自然的,甚至有一定必然性。”他认为,一旦被广泛应用技术,就必须承担起社会责任。

“未来如何恰当、科学使用人工智能是个关键问题。”中央财经大学中国互联网经济研究院副院长欧阳日辉对本报记者表示,人工智能对舆论、文化、人物评价、政府监管等都会提出一些新挑战。这些新技术应用到经济社会层面,对原有的经济社会秩序会造成较大冲击。“当我们还没有做好充分应对的时候,技术走得太快,就会容易引起社会混乱,这跟技术促进人类社会进步的宗旨就相悖。”

浙江澜沐浦科技有限公司常务副总经理吴志连对中国经济时报记者分析认为,由于全球范围内不同国家、文化群体的差异,ChatGPT所掌握的知识、信息存在一定偏见、歧视,甚至危害性。另外,它还可能存在着被恶意使用、带来误导性回答、引发隐私问题等。虽然在训练过程中,工作人员已采取一些措施,尽可能地避免ChatGPT回答出具有网络安全危害性的言论,但是工具毕竟不是人,在一定程度的诱导下,它还是会发生数据泄露、歧视偏见、危害国家安全等问题。

应从多层面加强对人工智能的监管

科技是把“双刃剑”,从实验室到经济社会的广泛应用,中间还需要加一道“安全防护墙”。

欧阳日辉表示,对于人工智能技术及其产品的研发和使用,从规范制度体系层面要加强三方面监管。一是通过伦理范畴来进行规范,二是通过标准规范方式来约束技术的使用,三是通过法律法规来加强监管,让技术及其产品在经济社会中规范使用。

从组织层面也要加强规范,欧阳日辉认为,一是研发技术和产品的企业对风险要进行自控,二是相关行业协会对人工智能技术和产品的研发和使用要进行自律,三是政府要通过制定法律法规来促进和约束人工智能及其产品的使用,这是对技术和产品风险控制的“最后一道防线”。当然,这并不是完全为了限制它,而是要促进它朝着有利的方向发展,限制它出现大的风险事件。

“技术漏洞与监管漏洞是两个不同的问题。”姜奇平认为,堵住技术漏洞的主体是企业。出现技术漏洞是技术发展中的正常现象,不断对技术漏洞打补丁,是技术发展的惯例。出现技术漏洞,对企业来说,一是要及时发现,及时修复,二是要降低被恶意使用者利用的风险,这都属于技术安全措施的加强和完善。

堵住监管漏洞的主体是监管者。要根据出现的问题,不断丰富和完善监管手段与措施。一方面,应对技术公司提出要求,及时发现修复技术漏洞,并推动技术标准与行业规范的形成;另一方面,要运用监管手段制止与打击对技术漏洞的恶意利用,其中特别要针对形成产业链、背后有行业利益推动的恶意利用等行为进行严厉打击,不断完善相关法律法规。

在姜奇平看来,进行技术限制应慎之又慎,大模型、芯片、数据算法算力等都属于技术和生产力范畴,我们不可能把限制、“约束”生产力当作任务完成,而是要用合理的生产关系和上层建筑,使技术与人的社会关系相互适应。

吴志连认为,未来可以通过促进人机融合,培养更多能够与ChatGPT等人工智能技术协同工作的人才,为实现人机共生、人工智能与人类的和谐共处打下基础;确保其应用符合法律法规和道德标准,防止恶意不当使用;增强公众的理解和认知,减少不必要的担忧和误解。

数智讲堂

应谨防对AI“膝跳反射式”的监管

片来源/新华社

■杨舸

2023年至今,以ChatGPT牵引出对人工智能的关注热度持续升温,尤其是自3月15日凌晨OpenAI正式发布升级后的ChatGPT-4至今的一个月内,世界范围内针对AI大语言模型带来的迭代更新惊讶之余,也开始刮起了一股“从严监管”风。

比如意大利个人数据保护局3月底就宣布禁止使用ChatGPT;与此同时,美国科技界千余名科学家联名签署暂停训练比ChatGPT-4更强大的AI系统至少6个月的公开信,并呼吁开发者与决策者在治理和监管机构方面进行合作。

这背后是因为人们对于人工智能技术的发展和应用存在着诸多关切和担忧。

浅层原因,是对AI挑战数据与隐私保护、人类职业需求等方面的恐惧,对任何一个国家来说,光是就业机会的缩减,都是触及根本的大问题。

深层原因,是随着AIGC(生成式人工智能)向AGI(通用人工智能)不断挺进,超级人工智能迟早会出现,而一旦出现了超级人工智能,那么或许会带来巨大的对既有人类社会形态的改变。

而对生成式人工智能如ChatGPT类语言模型实施监管,既是对这些担忧的回应,也是保障人工智能技术可持续发展和应用的必要手段。

从技术发展角度看,AI监管的必要性在于防范技术滥用和技术风险。虽然AI技术的应用领域非常广泛,但是也存在一些潜在的风险和危害,比如数据泄露、歧视性算法、自主行动系统失控等问题。AI监管需要关注技术安全、数据隐私、透明度和公正性等方面。

从科学伦理角度看,AI监管的必要性在于确保科学研究和技术应用的合法性和道德性。AI技术的研究和应用需要遵循一些基本的科学伦理原则,比如尊重人的尊严和隐私、维护公正和公平、遵循法律法规等。

那么,对于ChatGPT类的生成类人工智能训练模型来说,现在去谈监管是不是为时尚早?还是已经有点晚了?

AI必须以合适的方式监管,这毋庸置疑,但也要注意的是,监管本身是一个含义模糊的词,根本不让AI发展,也是一种监管,但很显然,这未必是想要的成果。欧洲历来监管更严厉,也因此在过去20年的科技浪潮中明显落后于中国,跟过去认知中欧洲应当在科学技术浪潮中应有的地位完全不相称,固然避免了很多“问题”,但从长远来看是福还是祸很难讲清楚。

那么,如何对AI实施监管呢?其实,对AIGC这样一个生成技术机理还存在很多“黑箱效应”的服务应用,在没搞清技术机理之前,高效的监管可以说是很难的,先“管两头”“管一进一出”——即“训练数据+结果对齐”,这也是目前务实的唯一做法。

监管的核心要义和本质在于平衡发展和风险、平衡权利和义务。在制定监管措施时,需要考虑技术的安全性和透明度、数据的隐私保护和公正性、应用的道德性和合法性等方面,充分尊重和保障人的权利和自主选择权。同时,还需要建立相应的监管机构和制度,加强对技术研究和应用的监督和管理,提高技术评估和风险评估的科学性和客观性。

当然,AI监管的平衡与落地也需要考虑监管的成本和效益、监管的时效性和灵活性等因素,避免过度或不足的监管,保证监管的有效性和可持续性。

平衡监管和发展环境的关系,也是AI监管的重要问题。AI技术的发展和应用需要一个开放、自由的环境,鼓励技术创新和进步。因此,监管不能过于严格和僵化,阻碍技术发展和应用的进步。但是,监管也不能太松散和放任,导致技术滥用和风险加剧。平衡监管和发展环境的关系,需要依靠科学、合法、公正的监管机制和制度,保护人的权利和自由,促进技术的发展和应用。

总而言之,不可做“膝跳反射式”的监管,即在还没有了解这个事情的本质之前,就凭着恐慌或者凭着焦虑的本能反应来作出决定,这种决定很可能不是基于完备的事实而作出的,也不是基于对长远的深刻洞察作出的,落后于现实的监管也不能构成有效的监管。我们必须正视,对于技术的发展,无论高兴也好,焦虑也罢,趋势是挡也挡不住的。或许,有了人工智能助力,人类社会生产力可能呈指数级暴增。

本公众号版权归中国经济时报所有。如转载或引用本文内容须经许可,并注明转自中国经济时报。

热点链接

●时报时评丨人工智能应在发展中深度治理

●区域观察丨淄博:小烧烤背后的大转型

●视点丨转换动力是实现服务业高质量发展的关键

●税收优惠再发力③丨税惠“春雨”焕发小微生机

●绿色低碳丨乘“风”而上 发展海上风电是大势所趋

总 监 制 丨 王辉 王继承

监 制 丨李丕光 王彧 刘卫民

主 编丨毛晶慧 编 辑丨蒋 帅

【中国经济时报--中国经济新闻网 http://www.cet.com.cn


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1