当前位置:首页|资讯|生成式AI|人工智能

AI专题:IBM-CEO生成式AI行动指南:负责任AI与伦理(附下载)

作者:超爱跑步发布时间:2023-12-15

原标题:AI专题:IBM-CEO生成式AI行动指南:负责任AI与伦理(附下载)

今天分享的AI系列深度研究报告:《IBM-CEO生成式AI行动指南:负责任AI与伦理》。

(报告出品方:IBM)

报告共计:9页

海量/完整电子版/报告下载方式:公众号《人工智能学派》

人类价值观是负责任 AI的核心

随着企业纷纷开始探索生成式AI在处理各种令人难以置信的新任务方面的能力,CEO必须充当“掌舵者”,带领企业为生成式AI设定明确的合理使用方针

每个用例都有各自的伦理困境和合规性问题:企业应当如何保护敏感数据?企业应当如何以尊重版权的方式使用AI?AI的输出是否存在偏见、歧视,或者根本就是错误的?

尽管解答这些问题需要整个团队的努力,但CEO必须为组织设定方向性的伦理方针。CEO制定的这一路线将定义企业如何在尖端创新和传统的诚信与信任原则之间找到平衡。

CEO必须实施全面确保透明度和问责制的政策与流程,明确技术的使用方式和场景,以及数据集或底层基础模型的来源。这是一项持续性工作,因为组织需要持续监控和评估其AI 产品组合,以确保始终符合不断变化的政策和流程。

领导者必须培育一种注重AI伦理的文化,旨在优化AI的积极影响,同时以优先保障人类能动性和福祉以及环境可持续性的方式,降低为所有利益相关者带来的风险和不利影响。这将是一项仅靠技术无法应对的社会技术挑战。若要取得大规模成功,就必须对组织文化、工作流程和框架进行持续投资。公共奥论将评判企业的行为是否符合道德规范,以及是否符合消费者价信观。这样一来,就可以主观地衡量公平性和适当性。但是,合规性无法如此衡量。

生成式AI就像是“狂野西部的淘金热”。对财富的追逐已经超过了规则和法规,早期的探矿者有机会一夜暴富。

但是,这是以什么为代价呢? 如果组织太急于求成,而未考虑复杂的AI伦理和数据完整性问题就可能会因短期利益而损害长期声誉。

高管们了解其中的风险:58% 受访高管认为采用生成式AI存在重大伦理风险,如果没有新的治理结构或名至少更加成熟的治理结构,就无法管理这种风险。然而,许多高管都难以将原则付诸实践。尽管 79%的受访高管表示 AI伦理对其企业级AI方法很重要,但只有不到25%6的受访高管实施了AI伦理的共同原则。

让伦理团队在决策中占有一席之地 一而不是仅给予口头上的支持。

采取行动,将意图付诸实践。为伦理团队、政策和监测流程提供支持。适时向董事会和外部报告进展情况。

即使超出了自己的舒适区,也应做到学控一切。考虑任命一位首席 AI伦理官或其他领导者来负责整个企业的 AI实践,并明确当前高管角色的责任。确保各个业务部门和职能部门的高管遵循共同的 AI伦理目标:确保在决策中纳入合适的人员,包括风险与信息安全主管

创建有效的人机借行关系。设定某调并在自动化与增强之间取得适当的平衡。建议创建并采用AI设计指南,并将有关算法责任的具体部分纳入企业的商业道德准则。积极制定培训、AI和数据素养以及变革管理议程。以尊重和关怀的方式对待受影响的员工。

建立“伦理互操作性”。发现并吸引注重AI的关键技术合作伙伴、学者、初创公司和其他业务合作伙伴,增强您的创新生态系统。确认价值观是企业形象和文化的一部分,并确保所有合作伙伴的价值观相一致。

报告共计:9页

海量/完整电子版/报告下载方式:公众号《人工智能学派》


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1