当前位置:首页|资讯|商汤|人工智能

商汤大模型伦理原则与实践白皮书(附下载)

作者:星情独叶发布时间:2023-07-18

今天分享的是人工智能AI系列深度研究报告:《商汤大模型伦理原则与实践白皮书》。(报告出品方:商汤智能产业研究院)

研究报告内容摘要如下

一、 生成式人工智能浪潮下的范式变革

2022 年,是人工智能发展历程中极具里程碑意义的一年。以ChatGPT 为代表的生成式人工智能工具迅速火爆全球,成为人类迈向通用人工智能(Artificial General Intelligence)时代的历史性节点之一。ChatGPT 基于 NLP 基础模型(NLP 即自然语言处理),体现出跨知识领域、跨语种、多模态为特征的海量知识挖掘、人机自然交流,能实现撰写代码、回答问题、书写论文、诗歌、剧本等指令,可以让 AI 生产力从重复性体力生产环节向认知和创造性生产环节延伸。上线仅两个月,ChatGPT 活跃用户便突破 1 亿大关,一举成为人类科技史上消费者增长速度最快的应用程序。

ChatGPT 这一现象级应用的成功,标志着人工智能正式进入以“基础模型+微调”为主要特征的生产范式,推动人工智能进入 2.0阶段。2012 年,后来被誉为“人工智能教父”的 Geoffrey Hinton 带领团队凭借卷积神经网络(Convolutional Neural Networks, CNN)在ImageNet 的比赛中获得冠军,标志着机器的视觉识别能力能够超越人眼识别准确率,开启了人工智能工业化的进程。由此,人工智能开始走进一个个应用场景。这一阶段,人工智能的生产范式属于典型的“手工作坊”模式,即人工智能厂商需要针对每个细分场景开发专属的模型,进而导致人工智能开发周期长,落地成本高,成为人工智能规模化应用亟待突破的制约。ChatGPT 等预训练大模型应用的成功打破了“手工定制”的生产范式,通过“基础模型+微调”的方式,使得一个基础模型能够快速适配海量的下游应用,为人工智能的规模化落地提供了一条可行的路径。

如果以生产模式的差异作为分界线,我们大致可以将 2022 年之前的人工智能发展阶段定义为人工智能 1.0 阶段(AI1.0 阶段),将2022 年之后的人工智能发展阶段定义为人工智能 2.0 阶段(AI2.0 阶段)。AI2.0 阶段相比 AI1.0 阶段有以下几点显著变化:一是任务类型由封闭场景转向开放任务;二是数据处理模态由单一模态转向多模态;三是模型类型由判别式模型转向生成式模型;四是生产模式由“手工作坊”转向“基础模型+微调”。

二、 生成式 人工智能 风险管理 —— 一项紧迫 的议程

自 ChatGPT 发布以来,全球主要国家、国际组织、企业和研究机构纷纷提出人工智能治理举措和呼吁,强调加强人工智能风险管理,规范人工智能技术发展。一方面, 各国 政府 加快推进 人工智能 相关政策制定步伐。2023 年4 月 3 日,中国科技部发布《科技伦理审查办法(试行)》(征求意见稿),提出涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并建立伦理高风险科技活动的清单制度,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理。4 月 11 日,中国网信办发布《生成式人工智能服务管理办法(征求意见稿)》,旨在对生成式人工智能带来的风险做出及时应对。5 月 13 日,美国白宫总统科技顾问委员会(PCAST)成立生成式人工智能工作组,以帮助评估关键机遇和风险,并就如何更好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。5 月 16 日,美国国会召开听证会,OpenAI CEOSam Altman 应邀出席,讨论 “AI 监管:人工智能的规则”,并建议政府组建新机构、创建安全标准和指派第三方专家对 AI 系统进行审计等。5 月 16 日,法国 CNIL 发布行动计划,提出审计和监控人工智能系统。5 月 20 日,G7 领导人表示,“需要立即评估生成式人工智能技术的机会和挑战”,同意对人工智能采取“基于风险”的监管。日本政府召开“AI 战略会议”,讨论制定人工智能使用规则。6 月 1日,澳大利亚官员表示,正计划加强对人工智能的监管,包括可能禁止深度造假和看似过于真实的虚假内容。6 月 6 日,国务院办公厅发布《国务院 2023 年度立法工作计划》显示,《人工智能法》已列入立法计划,草案预备年内提请全国人大审议。6 月 14 日,欧洲议会投票通过《人工智能法案》,标志着该法案朝着成为法律迈出关键一步;其中,法案增加了对生成式人工智能工具提出新的透明度要求。与此同时,联合国教科文组织呼吁各国应立即实施全球伦理框架,以应对人工智能挑战。世界卫生组织(WHO)也呼吁谨慎使用人工智能生成的大型语言模型工具。

另一方面, 业界积极呼吁加强人工智能监管。2023 年 3 月,特斯拉首席执行官埃隆·马斯克(Elon Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)以及其他上千名 AI 研究人员日前签署公开信,呼吁暂停研究比 GPT-4 更先进的 AI 技术。由微软等企业发起的商业软件联盟(BSA)公开发文,呼吁在国家隐私立法基础上制定管理人工智能使用的规则。同时,包括 OpenAI 在内的企业管理者认为需要建立国际人工智能监管机构,并且要尽快建立起来。对此,联合国秘书长安东尼奥·古特雷斯明确表示支持,并提出,计划在今年年底建立一个国际人工智能监管机构,定期审查人工智能治理工作,并对如何与人权、法治和公共利益保持一致提出建议。英国首相里希·苏纳克也对此积极回应,并表示希望英国成为全球人工智能安全监管的发源地。非营利组织人工智能安全中心呼吁将减轻人工智能带来的灭绝风险作为全球优先事项推进。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

本报告共计32页。受篇幅限制,仅展示部分内容。

精选报告来源公众号:【人工智能学派】,回复关键字“6688”,获取完整PDF电子版



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1