当前位置:首页|资讯

伦理影响评估:人工智能伦理治理工具建议书

作者:全球技术地图发布时间:2024-10-21

2023年,联合国教科文组织发布了《伦理影响评估:人工智能伦理治理工具建议书》(Ethical Impact Assessment: A Tool of the Recom-mendation on the Ethics of Artificial Intelligence,以下简称建议书)。该建议书的独特之处在于它考虑了整个人工智能生命周期,并确立了两个目标,分别是评估特定算法是否与建议书设定的价值观、原则和指导保持一致,以及通过征集有关人工智能系统及其开发方式的信息来确保透明度。本文介绍了建议书中提出的七大原则,为人工智能伦理影响评估勾勒基本框架。

一、人工智能安全

建议书提出,应在人工智能系统的整个生命周期内避免、解决、预防和消除不必要的伤害以及易受攻击的漏洞,以确保人类、环境和生态系统的安全。开发可持续的、保护隐私的数据访问框架,促进利用高质量数据对人工智能模型进行更好的训练和验证,将有助于构建更安全的人工智能系统。

虽然人们普遍认为获取更多数据是提高安全性和准确性的机会,但这也意味着攻击者可以更快地学习,并利用人工智能不断改进攻击,将速度与情境相结合。正如新车获准上路行驶之前必须经过安全测试,新药出售给消费者之前必须满足严格的安全标准,同样,人工智能安全意味着其必须符合监管、技术和社会标准。许多人工智能系统的黑箱特性进一步凸显了遵循安全标准的必要性,因为这些技术非常复杂,往往结合了多个系统。

人工智能系统通常会处理大量数据(有时是敏感数据)。这对数据安全构成了重大威胁。敏感的个人数据往往是网络攻击的目标,因此数据泄露的风险是一个重大问题。 主要攻击类型包括:

1. 数据投毒(Data poisoning):通过更改训练数据或其标签来操纵模型的行为。

2. 输入操纵(Input manipula-tion):这种技术需要输入恶意内容来欺骗系统。鉴于大语言模型的兴起,这是一个非常值得关注的问题,因为它包括直接攻击和间接攻击两种情境,前者是指在ChatGPT或Bing Chat中插入提示(prompt),试图让它以不同的方式运行,而后者则依赖于从其他地方输入的数据,即命令机器人阅读包含攻击代码的文档或网站。

3.成员推断(Membership inference):通过这种方法,攻击者能够确定在训练中是否使用了与特定个人相关的数据,这些信息可使攻击者将信息碎片与个人身份更紧密地联系起来,从而可能推断出敏感的个人信息。

为了缓解这些问题,需要定期对人工智能系统进行测试和重新验证,尤其是当其应用于医疗保健等敏感情境的决策时。

二、公平、非歧视、多样性

建议书提出,人工智能行动者应根据国际法促进社会正义,确保公平和不存在任何形式的歧视。这意味着要采取包容性的方法,确保所有人都能获得和利用人工智能技术的好处,同时考虑到不同年龄、文化系统和语言群体、残障人士、儿童和妇女、边缘弱势群体的具体需要。

三、可持续性

建议书提出,在持续评估人工智能技术对人类、社会、文化、经济和环境的影响时,应充分认识到人工智能技术对可持续性的影响。可持续性在这里被理解为在一系列维度上不断发展的一系列目标,如目前联合国可持续发展目标(SDGs)中所确定的目标。一般来说,应在人工智能系统的整个生命周期内保护和促进环境和生态系统的繁荣。

人工智能可用于改善气候建模,既可用于排放预测,也可通过太阳能预测等方式支持减缓气候变化。虽然开发人员必须最大限度地减少算法对环境的不利影响,但人工智能用例本身也必须是可持续的,因为算法有可能在低碳能源上运行,同时支持不利于环境的用例或鼓励排放和资源密集型活动。例如,基于人工智能的推荐系统可能会鼓励过度消耗资源,而人工智能驱动的自动驾驶车可能会阻碍个体选择更环保的公共交通方式。

许多人工智能系统对环境的重大影响都有详细记录,特别是与维持模型和算法运行所需的资源和基础设施有关的影响。研究表明,训练一个大语言模型的碳足迹相当于约30万千克二氧化碳排放量。机器学习模型的设计、开发和使用通常还需要大量的电力和水资源。必须意识到这些影响,并采取行动加以缓解。

人工智能系统对环境的不利影响取决于多个因素,必须认识到这些因素,从而做出正确的决策。例如,系统使用的能源网对排放有重大影响,因为不同地区使用的可再生能源和不可再生能源的组合不同。因此,可以通过选择碳排放量最小的能源网来部分减轻模型训练的碳影响。云厂商是另一个因素,由于厂商对可持续性的承诺各不相同,项目团队在为人工智能系统选择云厂商时应该谨慎。

四、隐私和数据保护

建议书提出,应在国家或国际层面以多利益相关者的方式建立适当的数据保护框架和治理机制,由司法系统提供保护,并在人工智能系统的整个生命周期内确保数据得到保护。

人工智能模型通常是通过积累大量数据来训练的。当人工智能与大数据和物联网相结合时,这种做法会引发对用户隐私和数据滥用的担忧。大数据对人工智能的影响通常体现在三个方面,即数量(用于训练的数据量)、种类(实现新的和意料之外的推断的部分)和速度(促进实时分析和共享的部分)。我们与联网设备之间的持续连接和互动意味着,如果不适当地保护隐私,我们的行动、个性、习惯和品味就会被整合在一起并被利用。为敏感环境(如医疗保健)训练一个高效的人工智能模型需要大量的隐私敏感数据,而在使用人工智能时,总是存在从所谓的非敏感数据或匿名数据中推断出敏感数据的情况。之所以会出现这种情况,是因为人工智能能够在多个非敏感属性之间建立联系,并推断出敏感信息。

从法律角度看,与其他原则相反,隐私和数据保护领域在世界范围内受到的监管相对较多,尽管这种保护的力度和广度各不相同。数据保护是隐私权的体现,也是隐私权的具体化。就其地位而言,虽然隐私权是一项国际公认的人权,但数据保护却不是,尽管事实上,数据保护也是一个受到严格监管的主题。数据保护法通常包括一些要求,如关于所收集数据类型的规范、数据存储时间长短以及同意规范等。

五、人类监督和决策

建议书提出,会员国应确保始终能够确定人工智能系统生命周期任何阶段的伦理和法律责任。人工智能系统永远不能取代人类的最终责任和问责。人类监督不仅是指个人的监督,还酌情包括包容性的公共监督。

人类监督对于支持和尊重人类自主权至关重要。它有助于解决基于过程的问题,包括帮助减少自动化/算法决策的非人性化影响,确保透明度和可解释性,以及通过分配自由裁量权和减少歧视性决策来解决基于结果的问题。在机器学习系统中,人在回路中和人在回路上机制通常被用来提供一定程度的模型监督。要做到这一点,就必须确保始终能够将系统决策和结果的责任归咎于自然人或法律实体,并确保指定的工作人员在必要时有程序推翻系统。然而,需要以有意义和有效的方式纳入人类监督,以避免产生或扩大消极影响,如将偏见引入系统。因此,监督机制还必须辅以其他程序措施。

六、透明度和可解释性、问责和责任

建议书提出,对于尊重、保护和促进人权、基本自由和伦理原则而言,透明的、可解释的、负责任的、拥有归责机制的人工智能系统是必不可少的。这包括建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报人,以确保问责。必须确保所有人工智能系统,包括机器学习或机器人系统,无论在多大程度上都有人类参与其中,都遵从精确的监管以及透明度和问责制要求。这种机制应采取与系统和情境相关的监管形式,促进对人工智能系统产出结果和决策背后的逻辑和原因的解释,从而确保此类信息易于获取。解释不仅对防止结果和过程出错至关重要,而且对培养终端用户的信任也不可或缺。应注意避免不透明的机制和系统,包括避免使用黑箱决策算法及暗示人工智能系统代理的设计选择。因此,应在四个关键领域建立适当的保障措施和机制:系统意识、严格的审计、算法的可解释性和透明度以及缓解影响的程序(如申诉和投诉)。

七、意识和扫盲

建议书提出,为了以合乎伦理的方式开发和部署人工智能,应培养公众对人工智能技术和数据价值的认识和理解,并以其对人权、基本自由以及环境和生态系统的影响为基础。这可以通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导的开放和无障碍教育、公民参与、数字技能和人工智能伦理培训、媒体和信息扫盲以及培训来促进。

在世界各地,人工智能产品和工具正越来越多地被集成和用于面向用户的技术中。因此,至关重要的是,每个人包括最终用户、民间社会、政策制定者和学生,而不仅仅是开发人员和采购人员,都要接受人工智能教育,并最终具备人工智能素养。广泛的人工智能扫盲将确保用户能够充当重要的消费者:将人工智能有效地用作工具、评估人工智能系统并对开发者/采购者进行问责。它还能促进创新,支持并提高透明度和问责制,消除用户毫无根据的恐惧,防止误解。

免责声明:本文转自元战略。 文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨元战略

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

微信:iite_er


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1