当前位置:首页|资讯|AIGC|阿里巴巴

阿里发布AIGC白皮书,专家解读如何监督AI发展与风险管控?

作者:新京报发布时间:2023-12-27

原标题:阿里发布AIGC白皮书,专家解读如何监督AI发展与风险管控?

新京报贝壳财经讯(记者程子姣)12月27日,阿里巴巴集团与中国电子技术标准化研究院联合发布《AIGC(人工智能生成内容)治理与实践白皮书》。阿里巴巴科技伦理治理委员会负责人表示,阿里巴巴正在一边筑牢AI(人工智能)发展的防火墙,一边突破AI应用的天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。

阿里巴巴于2022年成立科技伦理治理委员会,并发布国内首部《AI治理与可持续发展实践白皮书》。2023年,AIGC技术取得重大突破,成为全球AI发展的主赛道,阿里巴巴聚焦最新趋势,发布了第二部《AIGC白皮书》。

最新《AIGC白皮书》介绍了全球AIGC技术与应用的最新进展,梳理了各界对这项新技术的疑虑和担忧,剖析了世界各国治理AIGC的不同模式。

阿里巴巴科技伦理治理委员会委员、阿里巴巴安全部研究员薛晖对新京报贝壳财经记者表示:“关于AI,我们不知道的比知道的多,难以想象的比可以预测的多。AIGC带来前所未有的挑战,需要我们前瞻性地应对。AI的发展和治理,仅凭一家企业、一所高校、一个机构无法独立完成,必须‘多元协同、开放共治’。阿里巴巴正在一边筑牢防火墙,一边突破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。”

浙江大学教授潘恩荣也表示,生成式人工智能对人类经济社会发展带来巨大的观念冲击,“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。

复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。张谧说:“现在全球范围内有AI竞赛的氛围,注重安全反而可能造成技术落后,为了占领先机便不得不搁置安全。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的上界之内,保障AI发展处于安全区域。”

张谧对AI大模型未来的安全前景持乐观态度,她援引前沿观点指出,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”;而更长远地看,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”张谧说。

编辑 岳彩周

校对 卢茜


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1