南都讯记者刘嫚 发自北京 11月9日,2023金融街论坛年会第三届全球金融科技大会暨第五届成方科技论坛“金融科技数据合规的法律治理”在北京举办。清华大学智能法治研究院院长申卫星在论坛发言中提到,我国在生成式人工智能规制当中,已经为未来系统的人工智能立法奠定了一个基本的原则,即“发展和安全并重”,既要加强依法治理,也要促进技术创新。
清华大学智能法治研究院院长申卫星。
申卫星以《生成式人工智能服务数据合规与法律风险应对》为题作主题演讲,他表示,人工智能的广泛应用,提高了效率的同时,也带来了像金融诈骗、数据泄露,基于大模型精准营销带来的个人信息的侵害,以及所运用数据的知识产权侵害等等。
为此,对人工智能进行立法规制已成国际趋势。申卫星关注到,当前比较重要的国家都在加速人工智能领域立法,使得包括金融科技在内的人工智能的发展能够行稳致远。例如,英国在3月29日公布了《人工智能白皮书》,加拿大公布了系列立法,5月11日公布的欧盟AI立法法案等等。
“世界各国人工智能的立法都集中在以下四个方面。一是隐私和个人信息保护。二是在风险分类分级情况下,创新监管模式。三是如何加强对于人工智能生成内容的治理。四是对于大模型训练所使用的数据和含有的知识产权的保护。”申卫星总结道。
申卫星认为,从国内来看,人工智能相关顶层法律层面呈现了“1+3”的模式。“1”是指《民法典》,《民法典》第四编人格权编里,第六章隐私与个人信息保护,确立了人工智能发展的基础。其后《网络安全法》《数据安全法》和《个人信息保护法》“三驾马车”也初步奠定了人工智能发展的基础,但是就人工智能规制来说,针对性仍有差距。而在部门规章领域,如《互联网信息服务的深度合成》、像《算法的推荐》,包括《生成式人工智能管理暂行办法》等,已经开始触碰人工智能的实体。
在申卫星看来,我国在生成式人工智能规制当中,已经为未来系统的人工智能立法奠定了一个基本的原则,即“发展和安全并重”,既要加强依法治理,也要促进技术创新。
“数据合规是人工智能规制中最难平衡的点。”申卫星称,发展与安全并重理念下,如何能够保证大模型的训练所取得的数据来源是合法的,得到了充分的授权。如果得到了充分授权,就会使得大模型的成本过高,这构成了安全和发展相互平衡的一个难题。
申卫星认为,未来的人工智能发展可能面临两个问题,一是在生成式人工智能进行训练的时候,可能面临个人信息侵害的问题,如何来避免。二是知识产权的侵害。即不仅要遵守《个人信息保护法暂时办法》的规定,也要遵守《个人信息保护法》第13条所要求的取得同意或者其他的合法性基础。
未来人工智能立法应是一部管控风险的法律,还是促进AI产业发展的法律?申卫星认为,人工智能立法的定位应当是未来需要讨论的问题,基本的观点和立场是要实现“发展和安全并重”并重。“有一句话说不发展是最大的不安全,AI的管制绝不是让AI停滞不前,而是让它更好地为人类服务。”
IT之家 2024-12-22
钛媒体APP 2024-12-22
36氪 2024-12-22
IT之家 2024-12-22
IT之家 2024-12-22
IT之家 2024-12-22
IT之家 2024-12-22
IT之家 2024-12-22