当前位置:首页|资讯|OpenAI|AIGC

新一轮AI浪潮下,被侮辱与被损害的人

作者:一条发布时间:2024-02-27

原标题:新一轮AI浪潮下,被侮辱与被损害的人

AI技术高歌猛进,

不久前,OpenAI文生视频模型Sora横空出世,

标志AIGC领域里程碑式的进展,引全球热议。

埃隆·马斯克评论:“gg humans(人类认赌服输)”。

在AIGC(生成式人工智能)狂飙的这一年多,

对AI的抗议之声日渐壮大。

2023年7月,好莱坞发起集体罢工,

创作者要求重新谈论劳资关系,并抵制AI入侵。

工会主席法兰·德瑞雪提到:

“如果现在不昂首挺胸,我们就会陷入困境,

都将面临被机器取代的危险。”

12月,《纽约时报》以侵犯版权训练AI为由,

向OpenAI、微软提起诉讼。

今年1月,由AI伪造的泰勒·斯威夫特不雅照在网上疯传,

对其名誉造成严重损害,引全球粉丝愤怒。

AI浪潮势不可逆,

未来,人类创作者如何与AI博弈与共存?

这其中的法律、版权和伦理问题,

以及新旧两派的利益分配诉求被摆上台面。

但我们发现,国内最受冲击的行业之一,

画师们却陷入另一种困境:噤若寒蝉。

一条与数名国内画师,

防AI训练应用Mist的开发团队成员,

以及开元律所知识产权律师李昀锴对话。

尝试呈现AI时代浪潮下的另一种声音。

据悉,截止发稿前夜,

中国法院作出了全球首例生成式AI服务侵权的生效判决。

撰文:陈沁

“AI社群里的极端者,与其说是‘赛博强盗’,不如说是‘赛博强奸犯’”,画师小鹿告诉我们。

她发来国内AI社群stage1st论坛里的聊天截图,那是关于如何“炼丹”不犯法的讨论,附和的人赞叹真是“劫富济贫”,还有人给出“这年头了,法不责众,炼得越多越安全”的方法论。

在国内,训练AI模型被称为“炼丹”,另一个动词是“喂”,更专业的说法则是“爬取”——将从互联网上爬取的数据用于AI模型的训练。

众所周知,AIGC(生成式人工智能)并不凭空产生内容,训练AI需要庞大的数据集(dataset),这些数据可能本身就存在问题。

2024年1月,艺术家Jon Lam曝光了一份

超过16000位艺术家的数据库

并向美国法庭起诉Midjourney训练AI模型的侵权行为

中国的王羲之、颜真卿、林风眠也在其列

2022年底,加拿大籍艺术家Sam Yang以“为什么艺术家受够了AI绘画”为题发布了一则视频,引起广泛讨论。他解释了生成式AI训练模型的法律隐患,“你的任何艺术作品,甚至你自己的照片、房子、周边环境,一经上传,就会被‘爬’走选入AI训练系统……这对我们每个人来说都是产业级别的侵权行为。”

在国外,对生成式AI的潜在侵权性,各行各业开始发出抨击声音,主要集中在艺术创意和影视媒体行业,涉及艺术家、画师、演员、编剧、作家和新闻机构等。在社交媒体X上,人们打上禁止AI无授权训练的tag,浩浩荡荡地进行宣传。而在线下,人们罢工游行、提起诉讼。

在国内,问题似乎走向另一个极端:“进步道德”成为一面大旗。“一旦你站出来阻止自己的作品被‘炼丹’,AI社群的人会嘲笑你是纺织女工和马车夫”,画师小鹿说。

在一些“炼丹者”看来,画师们“跳脚”,就像工业革命下怒砸机器的纺织女工,无法正视自己终将被取代的命运。提出质疑声音的画师,很多都被扣上“小画师”的帽子,这顶帽子上有时还被贴上另一个标签:“注定被时代淘汰的马车夫”。

所谓“小画师”,用意很明显,指的是那本不属于行业金字塔尖的5%,但这并不能解释一些更极致的“炼丹”行为。

在一份被曝光的游戏行业画师“人矿名单”里,“炼丹者”搜刮超过500名画师的作品,以奶牛名称、牛奶质量、可持续性、枯竭指标将画师分类,无论作品质量高低都是可“炼”的。其中,“可持续性就是画师是否知道自己作品被训练AI,以及知道后是否坚持更新。”曝光这份名单的人解释说。

画师李卡发现,在生成式AI技术的极端拥护者社群,灰色产业链已经形成。有画师的作品被训练成黄色模型,在网上发布甚至出售,这给画风的主人带来了很大的困扰。“如果AI‘溶’的是商业流水美术的图,那是侵权。而如果是真心创作的艺术图,那可能是精神层面乃至心血的打击。”李卡补充道。

在另一个AI相关的QQ频道,有人扬言:“搞黄色才是AI的第一发展生产力”、“不能搞黄色的AI注定被淘汰”。这一问题并不局限在国内,事实上,在国外著名的AI模型网站civitai上,排行榜靠前的模型几乎都是色情成人模型。

与未经授权盗取画师作品训练AI色情模型并产生商业利益——在法律层面上对这一行为做出判断是很容易的——相比,画师群体更忧心的是AI模型对他们创作风格的侵蚀,以及无节制的AI生图所导致的大众审美降级。

在画师小鹿看来,画风是一个画师最核心的东西,“但1000个人用AI跑出来都是一模一样的画风”。另一方面,AI训练模型还可能让某一个画风被迫烂大街,从而对原画师产生反噬。“AI的爹”成了一个网络梗,指的是AI模型生成作品画风的来源者。

去年,画师“小狗”就曾因作品被训练AI模型并商用,导致画风“烂大街”。当被质疑自己的作品是不是AI生成时,画师本人不得不发布一个完整的绘制过程视频,来证明自己不是AI。

画师邵冰所在的公司美术流程照常进行,但据他观察,身边部分画师的甲方转向了AI出图,这不仅是稿酬降低这么简单,“最关键的是AI实际上并不能辅助画师,一些游戏玩家对AI很反感,认为这是廉价和敷衍的象征。而最荒谬的是,行业内用了AI辅助的工作室,最大的工作量反而是想方设法去除‘AI感’,让玩家看不出来掺了AI。”邵冰总结道:“画师从创作者变成了给AI擦屁股的人”。

有些人训练AI模型甚至不是为了商业利益。游戏行业从业者小一告诉我们,“他们拿数据训练模型不为利和名,只为看画师倒霉、生气跳脚,以此为乐。”这背后是掌握先进技术的权力感,以及新道德对旧道德的倾轧。

去年著名的“茶冷事件”中,画师茶冷表达了她对AI技术的立场:“并非抵制AI技术本身,而是抵制无版权炼丹,技术没有好坏善恶之分,有好坏善恶的永远都是使用技术的人类。”

这个声明一经发出,画师本人就遭到了网暴。AI社群里有人“人肉”出茶冷的真实身份,用Chat GPT生成了一封造谣邮件发给茶冷攻读博士学位的学校,甚至把她的生活照制成AI黄色模型在网络上传播。

在国内画圈,讨论AI问题已经风声鹤唳。在画师邵冰看来,和国外不同的是,国内似乎不具备提出质疑声音的条件。“只要发声,就会被扣上纺织女工和马车夫的帽子,现在的风向是‘AI是人类的未来’,大家只好打碎了牙齿往肚子里咽。”

事实上,大部分画师并不抵制AI技术本身,画师小鹿认为,“不拥抱工具的后果是被时代淘汰”的评价,对创作者群体并不公正。“画师群体反而是最愿意接受科技变化的一群人,各种绘画工具、3D辅助建模工具,只有出现我们都乐意去尝试。”

但几位画师都提到了生成式AI与人类之间“畸形的寄生关系”,因为前者并不凭空产生内容。

“就像我们从没见过汽车需要吸马车夫的血去驱动。生成式AI最矛盾的地方是,新的体系还没有成熟和规范,旧的体系已经被扰乱了。”画师小一说。

在AI技术势不可挡的浪潮下,关键的问题是:为什么人们持续提出异议?

据图像预处理应用“Mist”的开发成员楚盟观察,从2012年开始,AI深度学习技术一直是研究热点。大约在2022年,也就是在Chat GPT和Stable Diffussion相继出现之前,关于AI话题的讨论甚至曾一度走向“AI泡沫何时破灭”的追问。

“事实上,和本轮AI浪潮直接相关的技术和算法在此前已经出现了。2022年之后,AI之所以突然实现一个大的跃升,是因为人们发现,大幅度提高训练AI所用的算力和数据的规模,能带来AI性能的根本性提升。我觉得这是此次AI浪潮的底层逻辑。”楚盟说。

但从目的的角度,楚盟有着自己的思虑。他意识到,生成式AI的发展现实,似乎已经有点儿“事与愿违”。

“我很认同网上流传的一段话:‘研发人工智能是希望人工智能帮我们去扫地、做饭、耕田,这样人类就可以去写诗画画了。但现在研发出来的人工智能全在写诗画画,反而把原来写诗画画的人赶去耕田、做饭。’”楚盟补充道。

Mist1.0版本演示介绍

去年4月,楚盟和两位同学,开发了一款防止图像的风格和内容被AI学习的工具Mist。

团队的三位初始成员本科都毕业于上海交通大学。其中,楚盟和另一位成员来自于计算机专业,另一位成员Chris则是学法律专业。去年12月,同样有CS专业背景的第四位成员Melo加入。

他们通过在图像上添加肉眼难以发现的水印“Mist”,破坏模型对这些图像的学习效果,保护平面艺术作品不被绘画AI简单模仿。

一切起源于楚盟和Chris的一场对话。在2022年9月,以Stable Diffusion为代表的AI绘画技术一经发布,便成为爆款产品,但也极快形成了针对AI绘画持有不同看法的两派阵营。

支持者认为这是“不可抵挡的技术浪潮,是创意生产力的新形式”。另一重现实则是,AI绘画凭借其较低的成本,不逊色于一般商业画作的质量,迅速入侵了艺术市场,改变了原有的生态。彼时,AI训练素材在法律上是否侵权,在世界范围内仍无定论。

楚盟向Chris提问,“你认为AI绘画存在著作权侵权问题吗?许多训练素材都来自于画师的作品。”

从法律的角度出发,Chris觉得答案并不确定,“这些训练大概率没有得到任何授权,但法院也很可能认定大模型训练属于版权法体系中fair use doctrine(合理使用原则)下的场景。”

但几个年轻人还是决定做点什么,并最终选择先从技术上为画手们筑起一道矮墙。

麻省理工学院的PhotoGuard项目

与此同时,在国外,相似的技术保护行为也在不断进行。麻省理工学院(MIT)发布PhotoGuard项目,通过技术手段防止人们发在网上的照片被生成式AI模型恶意操纵;芝加哥大学的Glaze项目,也旨在打击AI对于“艺术知识产权”的盗窃行为。而芝加哥大学的Nightshade项目,则通过“毒害”图像数据,而让人工智能模型的训练变得毫无用处。

团队成员楚盟和Melo都在攻读计算机博士学位,某种程度上,他们也是AI技术浪潮的参与者,但他们对生成式AI有更复杂的反思。

Melo是同人绘画的爱好者,在国内的线上社群,她亲眼目睹画师的作品被训练AI模型,从而导致大量画师退出社群,不再发声。“是因为看到这个现象,才有通过技术来保护他们的动力。”

楚盟的观点也有着自己的背景,“我学过7年绘画,对于生成式AI技术,可能更多是从社会层面考虑,所以一开始对于AI绘画模型就有不太好的观感。我们做新技术,也要思考一项技术的利益基础是什么?到底它是只服务于极少数人的利益,还是让更多人利益受损,从而陷入更困难的境地?”

在Chris看来,她不希望“Mist”被视为一种“拆除铁道的马车夫行为”,虽然在某种粗暴的眼光中,打上这一标签总是容易的。她觉得这一微小的“反抗”更像一场社会实验和行为艺术。

“在制度还没有建立的时期,你不能让一个拿着石器的人和一个拿着枪炮的人去战斗,至少让大家都装备上相当的武器。如今的场景下,模型一方便是占据绝对力量优势的一方。我们的目的,不关乎单纯的利益斗争,而是呼吁大家关注这个领域所存在的冲突,去思考一种公正和平衡的解决方法。”Chris说。

2023年8月,国内某当红社交媒体平台推出了一款AI工具模型。但遭到画师们抵制,认为平台未经授权使用了他们的作品去训练AI模型。这一AI模型很快引发热议,在热搜榜上已累积超过3500万阅读量。

11月29日,四位画师以AI工具侵权为由,将国内某当红社交媒体平台的AI模型库告上了法庭。这是国内第一起针对生成式AI训练数据集侵权问题的案件,目前还正在立案审理中。

画师在社交媒体上表态

画师“是雪鱼啊”在平台上晒出了AI模型生成图片与自己作品的对比。他提到,“AI生成的原创作品,哪些部分拷贝了我哪幅作品里的哪些元素,我一眼就能分辨出来。”

画师“正版青团子”“画画的云淡风轻”“RedMatcha”相继晒出对比图,认为无论是配色元素还是画面风格,平台的AI模型生图都和自己的作品相似度很高,画师们觉得“自己的心血被剽窃了”,他们希望这桩诉讼能为日后AI模型侵权案留下案例参考。

在知识产权律师李昀锴看来,他欣赏几位画师敢于维权的态度,但认为结果还有待法庭裁决,“画师首先需要举证平台用了哪些数据去训练,包括训练过程、具体怎么训练。事实上,算法的模型是一个黑箱,要举证平台用没用自己的作品,本身可能有些困难。”

“而如果从抄袭的著作权法来看,我国司法实践里有非常成熟的裁判体系,因为抄袭的判断标准就是两个,一个是接触,一个是实质性的相似。接触是原告的作品事先在公共平台发布,至于相似,在著作权法角度,要落到一个具体的表达模式上,比如笔触、结构、内容,而风格本身是不获得保护的,因为风格属于思想。”

律师李昀锴用开源应用Stable Diffusion生成的图片

事实上,律师李昀锴也是国内首例AI生成图片侵权案的当事人,这个案例最终以胜诉告终。

2023年初,李昀锴发现,自己用Stable Diffusion生成的图片被裁掉署名水印,盗用发布在一篇自媒体账号文章里。他以侵害作品署名权、信息网络传播权在北京互联网法院提起诉讼。

他在法庭上复现了自己的创作过程,包括在模型上输入数十个提示词,具体到美术风格、主体、背景、时间、构图、头发、衣服与光线等等,胜诉的核心在于法官判定,李昀锴在用AI生成图片上投入了智力和独特角度,所以应该获得版权保护。

但这一判例也引发巨大争议。一个朴素的质疑是,如果AI训练模型本身存在侵权隐患,那使用AIGC生成的作品为什么还要受版权保护?

这也是世界范围内第一例AI绘图具有版权的判例。事实上,更大的争议与抗争,仍旧聚焦在AI训练模型是否侵权的问题。

李昀锴提到,“在国外,以美国版权局举例,对于AI作品和国内基本上是一个态度,完全由AI生成的作品不具有版权,因为没有人的智力创造,而有人类高度智力介入的,不否认可以构成作品版权。”

“不过多大程度的人类智力介入可以满足要求,中美监管机构的认定标准可能存在差异。”Mist开发团队的律师Chirs提到。

今年2月26日,截止发稿前夜,21世纪经济报道发布独家报道,广州互联网法院近日生效了一起生成式AI服务侵犯他人著作权的判决,这也是全球范围内首例生成式AI服务侵犯他人著作权的生效判决。对于画师们来说,这似乎是一个积极的法律回应。这一判决将为行业带来怎样的影响,还有待时间验证。

新技术发展带来了利益平衡的变化,法律有滞后性,立法者和司法机关都需要时间来重新衡量。“宏观上,AI技术如何去融入社会,这是一个需要时间的治理问题。”Chirs补充。

但所有人都已被卷入其中。“AIGC的这一年,可以顶上过去的10年。最近国内发生了这么多AI绘画、AI授课的社会事件,无论是哪一个群体,大家都没有做好准备。但是随之而来的问题已经在爆发了,这就是为什么问题变得格外复杂。”李昀锴说。

部分受访者为化名


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1