当前位置:首页|资讯|法律|OpenAI|Sora|人工智能

AI浪潮来袭,法律人如何应对未来?

作者:威理扬发布时间:2024-03-19


本文来源:“网络法实务圈”公众号


导   言


2024年2月16日,当国内沉浸于春节假期时,OpenAI突然发布了视频生成模型Sora,其能够生成高分辨率,超长时间,效果逼真的视频,一时间震惊了整个互联网。很多网络博主甚至专业人士猜测Sora可能会取代导演、剪辑或短视频从业者。对此,一部分人士或许会因技术的飞速发展而感到不安,担忧自己的职业前景可能因AI的智能化和自动化而变得岌岌可危。但是作为法律人,面对技术的快速进步,我们认为首先应当保持冷静,理性分析人工智能技术进步对行业的影响,充分做好面对“技术冲击”与选择“利用技术”的准备。


1. 适应变化,保持冷静

法律从业者,无论是法官、法务还是律师,最为重要的技能就是适应能力,特别是在生成式人工智能爆发式发展的背景下,快速适应能力显得尤为重要。经过一年多的研究体验和实践,我们可以明确地感受到,人工智能的发展已经进入了《奇点时刻》所描述的“指数型增长阶段”。这一点不仅在理论研究中得到了支持,而且在实际应用中也得到了验证。2023年,有关人工智能的论文发表、产品推出和投资额都呈现出了指数级增长的趋势,除了OpenAI的GPT-4之外,谷歌的Gemini和我国的智谱清言等人工智能模型在自然语言理解和生成方面取得了显著进展,在获得大量用户的同时,引发了广泛的学术和商业关注。全球人工智能企业风险投资案例数和融资金额占全球风险投资比重逐年提升,2023年上半年全球人工智能企业获得风险投资占全球风险投资总额比重达18.9%,创近年新高。


面对人工智能指数级的增长速度,法律人不仅要学会适应变化,更重要的是学会适应变化的速率。预计在未来几年,更具颠覆性的人工智能技术和产品将会以前所未有的速度出现和更新迭代,在这种快速变化和频繁迭代的环境中,人们很容易顾此失彼,产生焦虑情绪,在“被替代”的恐慌中迷失个人成长的方向。作为法律人,毫无疑问,我们也将面对持续冲击,因此我们需要提前做好心理准备,面对即将面世的GPT-5、GeminiUltra等前沿人工智能,要以积极开放的心态接受变化,学会在信息的海洋中保持冷静,从容面对人工智能的挑战。


2. 提高AI基础知识积累,提升判断能力

很多法律人作为“文科生”,可能会认为人工智能相关技术较为抽象和复杂,从而产生畏难情绪。但面对已经崭露头角,即将大规模袭来的人工智能浪潮,扎实的技术知识储备和全面的产业认知将会成为法律人的“定海神针”,帮助我们在繁杂的信息海洋中精准聚焦最核心、最有前景的技术革新与应用领域。为了做到这一点,法律人不仅需要关注人工智能技术发展的最新动态,还要深入理解其技术背后的基本原理和潜在的法律问题,可以预见的是未来具备人工智能技术和法律知识的法学生将会受到就业的欢迎。例如,对于生成式人工智能技术,法律人应深入了解其语料收集、模型训练、微调等基础技术知识,将技术机理联系到模型语料合规、生成内容安全和标识溯源等合规问题,根据我国《网络安全法》《数据安全法》《个人信息保护法》和《生成式人工智能服务管理暂行办法》等法律法规,结合实际应用场景和客户需求,制定相应的合规策略和风险管理措施。


以Sora为例,其通过大量视频数据训练,紧紧围绕用户的文本输入,生成高分辨率、极为逼真的超长视频。从视频生成产业和产品的角度来说,Sora模型大大降低了视频制作的门槛和成本,一旦普及可以使每个人都成为相对专业的视频制作者,短视频行业可能会因此迎来第二波繁荣。从监管的角度看,Sora的发布更会进一步降低技术滥用的门槛,增加监管检测互联网违法信息的难度,提高网络诈骗和虚假信息传播的风险。作为法律人,我们应该从宏观角度出发,以审慎包容的态度,结合二者的视角,思考如何在满足生成式人工智能监管合规要求的前提下,不断促进我国人工智能产业的健康发展。此外,法律人还需要前瞻性地研究这些人工智能产品落地所需要的技术基础、数据资源以及必须满足的合规条件,以帮助我们预判其在现阶段是否具有大规模推广的潜力,以及提前分析其可能带来的影响,做好合规监管的知识和制度储备。


3. 掌握最新监管动态,走在规则的前沿

面对人工智能的高速发展,各国监管机构反应迅速,欧洲的《人工智能法案》将在今年颁布,有望发挥人工智能监管领域的布鲁塞尔效应。美国《人工智能行政令》在2023年10月签署,以“软法”的形式推行人工智能的“敏捷治理”,我国发布《生成式人工智能服务管理暂行办法》,成为全球首个颁布生成式人工智能监管法规的国家。除此之外,有关人工智能的国际国内标准也在络绎不绝地推出,呈现出一种持续更新和完善的态势。在法律法规不断修订、监管政策频繁变化的背景下,法律人必须保持敏锐的洞察力,及时关注和深入研究这些变化,以便在提供法律咨询和服务时能够依据最新的监管框架,为客户提供准确、前瞻性的法律指导。


高质量训练数据是大模型发展的基础。数据作为新型生产要素,是人工智能技术创新和产业应用的基础。特别是在大模型时代,数据质量的重要性大幅提升。面对数据权属界定模糊、权责不清晰等问题,2020年《数据二十条》为解决这一挑战提供了新的思路。该政策通过建立保障权益、合规使用的数据产权制度,探索数据产权结构性分置制度,旨在建立数据资源持有权、数据加工使用权、数据产品经营权“三权分置”的数据产权制度框架。这一框架通过消除数据使用权上的障碍,有效促进了数据的流动性,导致数据交易量的显著上升。尽管如此,对于人工智能大模型的训练数据场景而言,当前的制度设计仍然存在不少疑问。特别是当数据供应商提供的数据中包含有侵犯知识产权或个人隐私的风险时,这一问题尤为突出。在这种情况下,如果生成式人工智能服务提供者或下游开发者使用这些数据训练导致模型生成的内容出现了侵权行为,现有的“三权分置”模式是否足以明确责任的归属和分配就成为了一个亟待解决的问题。同时,现有的知识产权侵权规则能否完全适用大模型技术也是需要大量探索和讨论的重点问题,这些都会影响权利与义务的配置,影响产业的发展。因此,我们需要进一步完善和细化责任分配机制,以确保在数据使用过程中,一旦出现侵权或违规行为,能够有明确的责任追溯和分配体系。这不仅需要数据供应商、服务提供者和开发者之间的密切合作,还需要相应的法律和政策支持,以构建一个更加公平、透明和可持续的数据生态系统。


在目前的人工智能领域,大模型的训练数据需求量巨大,以GPT-3为例,其训练过程消耗了至少45TB的纯文本数据。《生成式人工智能服务管理暂行办法》对生成式人工智能服务提供者提出了严格的要求,确保其使用的训练数据来源是合法合规的。虽然从形式上,企业可以通过展示开源协议、数据采购合同等方式来证明数据来源的合法性,但是,如果进一步要求企业对海量的训练数据进行详细的合规性审查和清洗,无疑会大幅提高企业的合规成本。这种高昂的成本不仅会加重人工智能企业的负担,还可能在宏观层面上阻碍中国人工智能产业的发展和创新步伐。因此,在确保企业服务合规的同时,法律专家和政策制定者需要深入探讨和寻找平衡点,旨在减轻我国人工智能企业面临的不合理负担。可以考虑通过引入如试点选择退出机制等创新性的制度设计,既保障了数据使用的合法性和合规性,又能激发企业的创新动力和积极性。这要求法律和政策的制定更加灵活、适应性强,以便能够更好地支持人工智能技术的快速发展,同时确保数据使用的合理性和安全性。


最后,全球范围内的人工智能企业普遍面临着版权相关的挑战。以OpenAI为例,去年该公司因其训练数据中含有侵权内容,被纽约时报提起诉讼。我国广州互联网法院在今年2月8日对涉AIGC平台的著作权案作出了一审判决,标志着全球AI著作权领域的第一案件,其判决不仅凸显了人工智能产业发展迫切需要法律和监管的支持,也暴露了现有法律框架与快速发展的人工智能技术之间的差距。法律人需要深入研究这类前沿问题,并在案例研究的基础上,为监管机构提供切实可行的专业建议。当前《著作权法》第二十四条中的合理使用原则未能明确涵盖大规模机器学习行为,导致我国大模型训练过程中未经授权使用版权作品可能存在侵权风险。全球AIGC平台侵权第一案中由于被告生成图片与原告涉案权利作品实质性相似而判决被告侵权成立,其中有几个要点值得探讨:


第一,判决中仅考虑被告(AIGC平台)与原告之间的关系,并未考虑所涉训练数据提供商所应承担的义务。如上所述,人工智能企业很难对训练数据进行全面检索,若不考虑在其与数据供应商之间的责任分配,在未来可能会对人工智能企业造成过高的合规负担。


第二,法院在判决时未考虑模型优化训练和提示词的相关内容,虽然此次侵权所使用提示词较为简易,但是不能排除别有用心者在未来通过极为复杂的提示词让模型生成侵权内容,这时法院就必须考虑人工智能企业为模型所做的优化训练和提示词的复杂程度等要素,进行综合判断。


第三,法院在论证被告未尽到合理注意义务时所使用的论据为投诉举报机制欠缺、潜在风险提示的欠缺和标识的欠缺,因此而判定其在主观上有过错。法院在此的论证逻辑较为牵强,因为无论其是否尽到上述的合规义务,都不会影响其生成内容侵权,因此,法院在论证AIGC平台主观过错时应采用人工智能企业所采取的数据清洗、模型优化训练、拦截词等安全措施,依据企业采取的能够实质影响生成结果的行动,来判断其主观过错均需要讨论。


为了缓解版权保护可能带来的限制性影响,有必要在确保公共利益、科技创新以及著作权得到适当保护的同时,推动一个更为开放的合理使用框架的建立。一方面,应修订我国的《著作权法》,特别是在“合理使用”的条件下,加入有关“文本与数据挖掘”的特例,为人工智能相关作品的利用提供明确的指导。另一方面,针对版权侵权这块需要让法律行业更加了解人工智能行业,需要长时间的沉淀和讨论,既要防止大规模维权限制产业的发展,也要平衡版权所有人的利益。


4.着手使用AI,在实践中发现问题

2023年短短一年内,国内共发布了几百个大模型,开启了真正意义上的“百模大战”。然而在数量的高增长背后,许多大模型产品将ChatGPT-3.5和GPT-4作为参照标准进行宣传,通过评测“刷榜”等行为来获得市场关注,网络上关于模型性能的信息良莠不齐,作为非专业人士很难从宣传信息中获得真实、合理和有价值的信息。对此,我们法律从业者应持一种务实的态度,在利用检索获得信息的同时,通过亲身体验和实践人工智能产品,形成基于实践的深刻理解和个人见解。


以GPT-4等主要以对话交互的生成式人工智能产品为例,虽然网络上充斥着关于其优缺点的各种分析,但亲自体验其功能往往能给人留下更深刻的印象。我们团队成员在测试GPT-4的“代码解释器”功能时,意外地发现GPT-4在某些对话中生成了一些与测试无关的数据,似乎暗示了其训练语料库的内容。随后的更多测试证实,GPT-4确实可能在特定情况下“泄露”其训练数据。这引发了我们的深思:如果GPT-4的训练数据中包含个人信息和知识产权相关内容,其无意地泄露是否可能导致法律诉讼(如“《纽约时报》起诉OpenAI”等事件)?如果这种风险存在,我们应如何合规地管理训练数据?并且,这种监管措施应如何平衡,以免给AI企业带来过重的合规负担?


提出合适的问题是寻求解决方案的第一步,这些问题的提出基于对GPT-4一次简单测试的观察。当前,国内外的人工智能产品数量庞大,且每日都有新产品问世。作为法律人,我们的研究不应仅限于理论探讨,而应通过亲身体验和实践各类人工智能产品,主动探索潜在的问题,并将这些发现与我们的工作实践相结合,以提升我们的专业能力。除了直接使用人工智能产品外,法律专业人士还可以通过调研和案例研究等方法,持续跟踪人工智能企业和产品的发展趋势。当前,以通用大模型为基础,通过微调和API调用构建行业特定模型的产品模式正在逐渐成型。在此过程中,基础模型提供商与行业应用公司之间的责任如何分配成为一个迫切需要解决的问题。法律人应在实践中不断探索和总结这类案例,为制定合理的监管策略和应对方案提供依据。

5.充分利用窗口期,解决AI行业合规痛点

技术和产品如ChatGPT、Midjourney、Sora等确实在飞速发展,但对大多数人的生活和工作的影响并不显著,主要原因是这类工具的使用门槛相对较高,普及率并不广泛。诺贝尔经济学奖获得者保罗·克鲁格曼曾预言:“大多数人彼此之间无话可说,到2005年左右,互联网对经济的影响将不会超过传真机。”从今天的视角来看,这种言论似乎极为荒谬,因为互联网产生的巨大影响是不容低估的。这种现象往往不可避免,在互联网、人工智能等颠覆性技术发展初期,人们很难预见其普及后会产生的广泛影响。一方面,这是因为复杂系统的涌现性质——即系统要素达到某一临界点后,系统的整体特性会发生质的变化;另一方面,在技术发展的初期,由于成本较高,普及面较窄,很多人会低估其长远潜力。


我们目前正处在这样一个关键窗口期,人工智能产品的研发、生产和使用门槛较高,不易于快速普及。同时,真正使用人工智能产品的用户比例较低,尚未形成规模效应。对法律人而言,这个窗口期极具价值。首先,从监管角度看,利用颠覆性技术的治理窗口期,可以避免技术初期的无序发展和恶意使用的泛滥,通过平衡安全与发展的需求,避免过早扼杀产业发展的可能,防止出现“克林格里奇困境”。其次,对个人法律从业者而言,利用这个窗口期熟练掌握各类人工智能工具和产品,可以在提高工作效率的同时,将宝贵的时间投入到持续学习和专业深化等更有价值的事务中,从而在激烈的竞争中占据优势。最后,对于法律行业整体而言,应积极研究人工智能在法律领域的应用必要性和可行性,针对行业痛点如AI环境、训练数据不足、人机协作等问题,结合国内的实际国情和法治发展水平,提出切实可行的解决方案,使法律服务行业能够紧跟AI技术的发展潮流,提升服务的智能化水平。

6. 做好准备,应对挑战

面对人工智能的强势来袭,法律人应当主动思考自己在这波人工智能浪潮中所处的位置,积极探索未来发展方向。根据GPT-4的模型报告,其在未经过专项微调训练的情况下,以前10%的成绩通过了美国的律师考试,这一成绩足以令人震惊。这不仅是对传统法律实践的挑战,也是对法律人职业未来的一种启示。未来的通用大模型都将超越GPT-4,且目前已有数十家如北大法宝、幂律智能、华宇元典和法天使等垂直领域的法律人工智能服务产品出现,“万金油”的法律服务将会受到严重影响。因此,在适应变化的同时,法律人应当为自己敲响警钟,针对程序化、公式化的工作和业务主动做减法,替代寻找更加专业的领域深挖,争取做到细分领域的不可替代性。其次,在深耕本领域的同时,将传统法律服务与新兴技术相结合,如尝试通过人工智能工具优化法律研究、案例分析等工作流程,提高工作效率和服务质量,从而在这场技术革命中保持竞争力。


最后,法律人应当在人工智能带来的变革中寻找新的职业机遇和服务模式。随着人工智能技术的深入发展,传统的法律服务模式和职业路径将面临重新塑造的可能性。法律专业人士可以探索将人工智能技术与法律专业知识相结合的新服务模式,如开发智能法律咨询系统、提供基于数据分析的定制化法律解决方案等。此外,法律人还可以担任人工智能伦理顾问、数据保护官等新兴职位,为AI企业的产品开发、运营和风险管理提供专业指导和服务。通过不断探索和创新,法律人不仅能够在AI时代保持自身的竞争力,还能引领法律服务行业向更高效、更智能、更人性化的方向发展。


本文转载自公众号“网络法实务圈”,

已获得转载授权。

- END -

作者|马军

宁人律师事务所合伙人

2023年钱伯斯年度榜单推荐律师



关于威理扬    


垦丁律师事务所威理扬法律团队,骨灰级二次元迷汇集地、产品经理型律师团队。专注ACG产业全生命周期法律合规、为互联网企业提供出海合规方案、国内研发及发行各阶段法律风险梳理及评估、数据合规、知识产权及诉讼纠纷等。


扫码联系林娜,加入ACG合规讨论群

(请注明:实名-单位-来意)

团队初心

“二次元”发源日本,面向世界。时代赋予了“二次元”新的含义和生命。


悲壮如银河战争中的提督杨威利、孤勇如明治维新的剑客绯村剑心,坚毅如满血热爱穿越千年的棋魂藤原佐为、温暖如十二国残酷斗争中始终给人希望方向的半兽乐俊....


新的时代,我们看到了在日本扬帆起航的罗小黑战记、收获了时光代理人带来的惊心动魄、看到刺客伍六七迈向世界的高昂步伐、也惊艳于原神的全球开花......


热爱二次元、痴迷日语、精通英语的我们,从漫画到动画,从动画到游戏,从游戏到虚拟世界.....愿以法律合规为器,伴你披荆斩棘,为你保驾护航。

声明

本文章所载内容仅供参考之用,并不代表威理扬法律团队及律师的意见。如需更多信息,请联系我们。

往期推荐

AI生成物是否能获得著作权法保护?——对比美国塔勒案及北京互联网法院图片著作权纠纷

出海日本|在日销售Cosplay服装周边或入刑——销售鬼灭之刃相似周边构成不正当竞争犯罪一案

出海日本|ACG产业出海之【广告合规】:重要法规&宣发环节合规要点

出海日本|【全景视图】ACG产业出海日本合规视角详解

从“率土之滨”诉“三国志”谈游戏玩法的中日知识产权保护

美国版权局发布包含AI生成内容作品的著作权登记规则

出海日本合规|原作品与二创的界限如何划分?从日本小甜甜案说起

出海日本|商标共存制度之中日观察

出海日本|日本新《个人信息保护法》全文翻译【2023年4月1日施行】

重磅发布|《虚拟数字人法律问题研究报告》

深度丨漫画分镜的著作权保护——从B站下架《幽冥诡匠》一事说起

互联网产品出海美国在COPPA上的合规要点——从FTC v. Epic《堡垒之夜》违反COPPA一案解读

为何日本的监修制度如此严苛?——从日本保护作品完整权判例解读

SNS转发行为是否构成日本著作权法上的侵害著作权行为? ——以“转发”案日本最高法院判决为中心(上)

SNS转发行为是否构成日本著作权法上的侵害著作权行为? ——以“转发”案日本最高法院判决为中心(下)

未经许可的Cosplay构成侵权?——解读日本马里奥卡丁车侵权纠纷




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1