当前位置:首页|资讯|AIGC|人工智能

为AIGC敲响警钟!千亿级赛道为何成了作恶温床?

作者:数据猿发布时间:2023-05-10

原标题:为AIGC敲响警钟!千亿级赛道为何成了作恶温床?

随着人工智能通用大模型的问世,全球对AIGC技术的强大潜力有了更加深刻的认识。然而,这也引发了诸多关于AIGC技术可信度、隐私保护以及知识产权等问题的争议,引起了广泛关注。

5月9日,抖音针对人工智能生成内容出十一条平台规范与行业倡议。

其实,早在今年4月11日,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《意见稿》)公开征求意见。其中之一便对“AI生成的内容要有标识”提出了具体要求。

按照《互联网信息服务深度合成管理规定》,提供者还应对生成的图片、视频等内容进行标识。目前对标识的具体方式还没有很清晰的解释。但加上标识是有利于整治行业乱象的,例如上文提到的换脸造谣事件,AI服务提供方可以依据标识快速辟谣、进行追责。

在AIGC技术火热的当下,一盆冷水迎头而来。

AIGC需要降温

据了解,抖音发布的“关于人工智能生成内容的平台规范暨行业倡议”中提及,发布者需对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实。禁止利用生成式人工智能技术创作、发布侵权、违背科学常识、弄虚作假、造谣传谣的内容。上述违规行为一经发现,平台将严格处罚。

为了便于上述倡议落地,抖音还承诺平台将提供统一的人工智能生成内容标识能力,帮助创作者打标,方便用户区分。此外,平台还将提供虚拟人的注册能力,对已注册的虚拟人形象进行保护,并且提供用户反馈渠道,方便用户反馈违规生成内容。

在Open AI接连对ChatGPT迭代升级的背景下,国内外大厂争相推出旗下有关Al的最新应用。人们对该类技术在歧视、误传和隐私方面的潜在风险的担忧日益加剧。

过去的几个月内,网络上有关AIGC商业泄密、违法信息传播、虚假信息、侵权等问题也接踵而至。

闹剧早有预演。2022年11月,GitHub、微软和OpenAI在一起侵权案中被起诉,程序员指控一款名为GitHub Copilot的AI编程工具抄袭代码。

2023年2月17日,杭州某小区业主尝试用ChatGPT写了新闻稿“杭州市政府3月1号取消限行”,并将其转发至网络上,导致虚假新闻在网络上疯传。

2023年4月29日,乔治·华盛顿大学法学教授乔纳森·特利被ChatGPT列入“性骚扰”名单,声称他在一次去阿拉斯加的旅行中对学生“动手动脚”,并援引了一篇所谓《华盛顿邮报》的新闻报道作为信息来源。

近日,B站上“AI孙燕姿翻”翻唱的《下雨天》《发如雪》点击量已经破百万。“AI周杰伦”,“AI王心凌”也陆续在网络上爆火,歌迷们纷纷惊叹于AI功能的强大,表示“那以后,就能听见黄家驹、张国荣他们唱新歌了。但有网友重视起版权问题,有微博网友笑称,“第一步应该是获得孙燕姿的授权同意吧”。

回顾移动互联网、云计算、大数据、区块链的发展历程,新技术的发展和监管合规往往相辅相成。如何在合规的基础上稳步实现应用落地、推进产品迭代,是入局AIGC的企业后续需要考虑的一点。

AIGC所存在的法律风险正在狂飙

ChatGPT的大火,带来了AIGC技术及相关应用的“强势出圈”。从AIGC的应用行业来看,AIGC为文化传媒、商业、教育、金融、医疗、工业、影视等多领域都带来了颠覆性的创新。

不可否认的是AIGC的发展为各行各业带来了新的变革与机遇,但与此同时,也暴露出了一系列AIGC可能带来的风险。

以下是数据猿整理的关于AIGC可能会涉及的一些法律风险。

1、版权侵权风险

AIGC本质上是机器学习的应用,也就是说基于AIGC所产生和生成的内容是基于数据通过大量的学习而来。目前AI模型的数据来源包括以下几类:公共数据集、公共网站、自有数据、众包数据、合成数据等。除了合成数据没有版权争议外,其他数据都是通过采集互联网获得。

在今年2月,根据《华尔街日报》记者弗朗西斯科·马可尼(Francesco Marconi)公开指责,Open AI公司未经授权大量使用路透社、纽约时报、卫报、BBC等国外主流媒体的文章训练Chat GPT模型,但从未支付任何费用。

AIGC技术开发与应用中的知识产权尤其是版权侵权问题之所以受到高度关注,其根源在于AIGC模型的形成和完善依赖于大量的数据训练,而用于训练的数据往往包含受版权法保护的内容。

2、数据泄露风险

3月20日,ChatGPT平台出现了用户对话数据和付款服务支付信息丢失的情况。这是ChatGPT平台首次遭遇重大个人数据泄露。之后,加拿大隐私专员办公室(OPC)有收到投诉,称OpenAI在未经同意的情况下收集、使用和泄露个人信息。4月,加拿大隐私专员办公室(OPC)宣布,将对AI聊天机器人ChatGPT背后的开发商OpenAI展开调查。

虽然像ChatGPT这样的生成式AI对于提高工作效率非常有帮助,但是将ChatGPT用于工作时还是有许多问题没有解决,比如,三星使用ChatGPT不到20天就发生了芯片机密泄露事件。

3、深度伪造风险

深度伪造(Deepfakes)技术是近年来发展的一种基于深度学习的人物图像合成技术。其主要被运用于AI换脸、语音模拟、人脸合成、视频生成等场景。深度伪造技术被某些群体的恶意运用,将可能导致该技术被用于生成虚假信息、使用模型来模拟某个人的语言或行为模式、进行政治干预、煽动暴力和犯罪等破坏公共利益的行为。例如:AIGC驱动的图像生成器制作出来的美国前总统特朗普和俄罗斯总统普京被捕的照片,在社交媒体上广泛流传。不仅是普京被AIGC“恶搞”,AIGC更是恶意剪辑了乌克兰总统泽连斯基宣布投降的深度伪造视频。这些假图像可能会在社会的关键时刻混淆事实和虚构,削弱公众对信息的信任。

4、信息真假难辨、无法提供信源风险

目前以ChatGPT为代表的大型语言模型(LLMs)是在包含海量数据的大规模数据集上预训练产生的,其“知识库”当然不可能穷尽全部知识,而预训练也意味着数据集仅有“过去”的信息,无法更新到最新数据。

和ChatGPT对话过的伙伴想必都很清楚,ChatGPT并不能完全解释给出回答的事实类信息的真实来源,如果要求它提供,很可能会给出虚假的链接或应用。

基于这些风险存在,AIGC成为各国规范的重点对象,也迎来了全球监管风暴。

千亿级市场,监管是阻碍还是发展前提?

ChatGPT的出现引发了生成式AI技术的快速发展和广泛应用,激发了新一轮的AI技术热潮和竞争。谷歌、亚马逊等科技巨头相继推出了面向用户的生成式AI工具,国内多家科技公司也在加快对AIGC技术的布局。

根据美国Western Securities(西部证券)的分析,预计到2025年,AIGC市场空间将达到40.35亿美元,到2030年市场将达到217.56亿美元(约合人民币1500亿元)。艾媒咨询数据也显示出了AIGC技术在国内的发展速度,数据显示,预计2023年国内AIGC行业核心市场规模为79.3亿元,2028年将达2767.4亿元。这意味着整个市场在未来几年可能迎来爆炸式增长。

这一技术以及近期表现已经引起了多数国家的高度关注。尤其是针对AIGC利用版权作品进行数据训练与输出成果的过程存在风险,各国也出了相应的监管。

3月31日,意大利数据保护局(Garante)以涉嫌违反数据收集规则为由,对ChatGPT的开放公司OpenAI展开调查,并宣布暂时禁止使用ChatGPT,且限制OpenAI处理意大利用户数据。

在意大利宣布调查后的几天里,法国、德国和爱尔兰的数据监管机构已联系意大利数据保护局,要求提供有关其调查结果的更多信息;包括中国、美国、法国、意大利、西班牙和加拿大在内的多国政府已宣布或考虑对生成式AI进行调查监管。

4月11日,美国商务部就相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应该进行核准认证程序。这被视作美国迈出对人工智能领域实行潜在监管的第一步。

美国总统拜登出席了在白宫举行的一个人工智能会议,会见包括谷歌、微软和OpenAI在内的顶级AI公司的首席执行官。会后,美国副总统哈里斯在一份声明中表示,AI技术有可能改善生活,但也可能会带来安全、隐私和公民权利方面的担忧。她告诉这些科技公司的高管,他们有责任确保其AI产品的安全,政府对AI方面的立法持开放态度。

4月12日,意大利数据保护局围绕数据安全问题向OpenAI提出了一系列要求,要求其公开ChatGPT的数据处理逻辑、对用户年龄进行筛查、明确数据主体拥有的权利等。

4月13日,法国国家信息自由委员会决定对ChatGPT提出5项指控,并展开调查。同日,西班牙数据保护局也发表声明,称该机构已经正式对ChatGPT可能的违反法律行为展开初步调查程序。

4月27日,欧盟达成了一项新的立法草案,该草案规定生成性人工智能工具的开发商必须披露其在构建系统时所使用的任何受版权保护的材料。该协议可能为世界上第一部综合性人工智能法律《人工智能法》铺平道路。

虽然多国都已经开始对生成式AI进行监管,但上述做法都只是在尚未形成统一标准的背景下所做的探索。生成式AI为内容生产的方式带来了史无前例的改变,如何更好地应对这种变化,仍然需要在实践中不断尝试和优化。

有网友担心这才刚起步就开展监管是不是太早了?在追赶海外同行的情况下会不会造成阻碍?

AIGC技术作为一种新兴的技术,监管是非常必要的。虽然过早的监管可能会限制其发展,但不加监管可能会导致严重的安全和法律风险。

在AIGC技术的初期发展阶段,建立合适的监管机制可以帮助监督AIGC系统的安全和合规性,从而增强公众对AIGC技术的信任度。同时,监管机制还可以帮助避免AIGC技术被不法分子利用来进行欺诈、虚假广告等违法行为,对保障公共利益具有重要作用。

当然,监管机制也需要平衡创新和监管之间的关系。过度的监管可能会抑制AIGC技术的发展,因此,监管应该是科学合理、可持续的,以充分保护公众利益的同时,尽可能地减少不必要的限制和成本。

如何保障技术高速发展与合规同步进行?

去年11月30日,OpenAI发布聊天机器人ChatGPT,上线2个月月活用户过亿,刷新互联网应用用户增长记录。可以看到,大家对于该技术的发展已产生的浓厚的兴趣。其实,针对AIGC技术的发展,不仅是平台和国家监管的责任,更是每个使用者的责任。可以从以下三个方面来进行规范。

其一,加强内容审查及内容过滤。

AIGC技术日渐发展成熟,可以完成包括写邮件、代码、新闻报道以及论文等多种任务,且表述内容与人类对话风格相似,一般人难以区分。其使用门槛和成本低,生成效率高,能够在短时间内生成大量虚假信息,从而迅速淹没真相。同时,由于ChatGPT等目前并不会核实生成内容信息的真实性与准确性,在发布到平台上后,平台需要及时对信息进行检测,加强来源真实性判断,提升平台治理能力。在发现不良或违法信息时及时向有关部门进行报告,并将日志信息进行封存。

其二,保证真实性。

对于研发AIGC技术的企业来说,由于虚假信息检测是通过与“已收录的虚假信息库”进行比对和判断,未被收录的新信息则需要以人工检测进行判断。研发者应该保障信息来源的真实性,应当遵守《互联网信息服务算法推荐管理规定》以及《深度合成管理规定》等相关法律法规对AIGC的相关规定。按照《深度合成管理规定》要求,AIGC相关企业等深度合成服务提供者和技术支持者应当加强技术管理,定期审核、评估、验证生成合成类算法机制机理。此外,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。

其三,国家监管保障最后一条红线。

制定适当的监管和评估机制,对AIGC系统进行全面的评估和监控,确保其符合相关法律和法规的要求。加强跨领域、跨机构和跨国家的合作和协作,共同应对AIGC系统的安全和法律风险,共同推动AIGC技术的发展和应用。当前,AIGC产业监管方面存在相关法律法规与标准体系不健全、缺乏多部门协同的自上而下的监管体系、监管技术手段落后等突出问题,政府有关部门需要尽快建立健全AIGC研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动AIGC产业健康可持续发展。

但法律总是滞后于社会发展的,AIGC的广泛发展带来的是远超出立法者预设、制度有效供给的超前问题,无论是对于内容创作者,还是AIGC领域企业而言,在没有明确实施规则可以遵守的情况下,更加需要谨慎面对 AIGC可能带来的法律风险,做好合规应对,避免在技术爆炸中迷失发展方向、逾越合规红线。

文:媛媛 乐乐 余小鱼 / 数据猿


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1