尽管人工智能正在改变企业的运作方式,但人们仍然担心它会如何影响我们的生活。这不仅是一个学术或社会问题,而且是公司的声誉风险,没有公司希望受到影响亚马逊等公司的数据或人工智能道德丑闻的损害。例如,由于将 Rekognition 出售给执法部门而引起了强烈反对。随后,亚马逊决定停止向执法部门提供这项技术一年,因为他们预计届时将建立适当的法律框架。
本文提供了有关人工智能使用中出现的道德问题的见解、滥用人工智能的示例以及构建负责任的人工智能的最佳实践。
人工智能的伦理困境是什么?
自动决策/人工智能偏见
人工智能算法和训练数据可能像人类一样包含偏差,因为它们也是由人类生成的。这些偏见阻碍人工智能系统做出公平的决策。由于两个原因,我们在人工智能系统中遇到了偏见
开发人员可能会在没有注意到的情况下对有偏见的人工智能系统进行编程
用于训练人工智能算法的历史数据可能不足以公平地代表整个人口。
有偏见的人工智能算法可能会导致对少数群体的歧视。例如, 亚马逊 在使用人工智能招聘工具一年后关闭了该工具。1转到脚注亚马逊的开发人员表示,该工具正在惩罚女性。人工智能工具选择的候选人中约有 60% 是男性,这是由于亚马逊历史招聘数据的模式所致。
为了建立一个有道德和负责任的人工智能,消除人工智能系统中的偏见是必要的。然而,只有 47% 的组织测试了数据、模型和人类使用算法的偏差。2转到脚注
尽管由于现有的大量人类偏见和不断发现的新偏见,消除人工智能系统中的所有偏见几乎是不可能的,但最大限度地减少它们可能是企业的目标。
如果您想了解更多信息,请随时查看我们关于人工智能偏见以及如何使用最佳实践和工具将其最小化的综合指南。此外,以数据为中心的人工智能开发方法可以帮助解决人工智能系统中的偏见。
自主事物
自主事物 (AuT) 是指无需人工干预即可自主执行特定任务的设备和机器。这些机器包括自动驾驶汽车、无人机和机器人。由于机器人道德是一个广泛的话题,我们重点关注因使用自动驾驶车辆和无人机而出现的不道德问题。
自动驾驶汽车
2019 年自动驾驶汽车市场价值 540 亿美元,预计到 2026 年将达到 5570 亿美元。3转到脚注然而,自动驾驶汽车给人工智能道德准则带来了各种风险。人们和政府仍然质疑自动驾驶汽车的责任和问责制。
例如,2018年,一辆Uber自动驾驶汽车撞上了一名行人,该行人后来在医院死亡。4转到脚注这起事故被记录为首例涉及自动驾驶汽车的死亡事故。经亚利桑那州警察局和美国国家运输安全委员会(NTSB)调查后,检察官裁定该公司不对行人的死亡承担刑事责任。这是因为安全驾驶员用手机分散了注意力,警方报告称事故“完全可以避免”。
致命自主武器 (LAW)
LAW是人工智能军备竞赛中的武器之一。 LAW 根据编程的约束和描述独立识别和攻击目标。关于在军队中使用武器化人工智能的道德问题一直存在争议。例如,2018年,联合国聚集在一起讨论这个问题。具体来说,支持法律的国家一直在这个问题上直言不讳。 (包括韩国、俄罗斯和美国。)
非政府团体广泛反对使用法律。例如,一个名为“阻止杀手机器人运动”的社区写了一封信,警告人工智能军备竞赛的威胁。斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、诺姆·乔姆斯基、贾恩·塔林和杰米斯·哈萨比斯等一些知名人士也在这封信上签名。
自动化导致的失业和收入不平等
这是目前对人工智能最大的恐惧。据 CNBC 调查, 27% 的美国公民认为人工智能将在五年内消除他们的工作。5转到脚注对于年龄在 18 岁至 24 岁之间的公民,这一比例增至 37%。
尽管这些数字对于“最大的人工智能恐惧”来说可能看起来并不大,但不要忘记这只是对未来五年的预测。
据 麦肯锡 估计,到 2030 年,智能代理和机器人可能会取代全球目前 30% 的人类劳动力。根据不同的采用场景,自动化将取代 400 至 8 亿个工作岗位,需要多达 3.75 亿人完全取代切换工作类别。
比较社会的5年预期和麦肯锡的10年预测表明,人们对失业的预期比行业专家的估计更加明显。然而,两者都表明,由于人工智能的进步,很大一部分人口失业。
对人工智能驱动的自动化影响的另一个担忧是收入不平等加剧。一项研究发现,自 1980 年以来,自动化已使美国专门从事日常工作的工人的工资减少或降低了 50% 至 70%。
人工智能的滥用
限制隐私的监控做法
“大哥正望着你。”这是乔治·奥威尔的反乌托邦社会科幻小说《1984》中的一句话。虽然它是作为科幻小说写的,但随着政府部署人工智能进行大规模监控,它可能已经成为现实。将 面部识别 技术应用于监控系统涉及隐私权。
根据人工智能全球监控(AIGS)指数,176个国家正在使用人工智能监控系统,自由民主国家是人工智能监控的主要用户。6转到脚注同一项研究表明,51% 的先进民主国家部署了人工智能监控系统,而封闭专制国家的这一比例为 37%。然而,这可能是由于这两组国家之间的贫富差距造成的。
从道德角度来看,重要的问题是政府是否滥用该技术或合法使用该技术。 “奥威尔式”监视方法违反人权。
一些科技巨头还表达了对人工智能监控的道德担忧。例如,微软总裁布拉德史密斯发表了一篇博文,呼吁政府监管面部识别。7转到脚注此外,IBM 停止提供用于大规模监控的技术,因为该技术可能会被滥用,例如侵犯基本人权的种族定性。8转到脚注
操纵人类判断
人工智能驱动的分析 可以提供对人类行为的可行见解,但是,滥用分析来操纵人类决策在道德上是错误的。滥用分析最著名的例子是 Facebook 和 Cambridge Analytica 的数据丑闻。9转到脚注
Cambridge Analytica 将 Facebook 上抓取的美国选民数据出售给政治竞选活动,并为特德·克鲁兹 (Ted Cruz) 和唐纳德·特朗普 (Donald Trump) 2016 年的总统竞选提供帮助和分析。有关数据泄露的信息于 2018 年被披露,联邦贸易委员会因 Facebook 侵犯隐私而对其处以 50 亿美元的罚款。10转到脚注
深度造假的扩散
Deepfakes 是合成生成的图像或视频,其中媒体中的人物被替换为其他人的肖像。
尽管大约 96% 的 Deepfake 是色情视频,在四大 Deepfake 色情网站上的观看次数超过 1.34 亿次,但社会对 Deepfake 的真正危险和道德担忧是它们如何被用来歪曲政治领导人的演讲。11转到脚注
使用深度造假创造虚假叙述可能会损害人们对媒体的信任(已经处于历史最低水平)。12转到脚注这种不信任对于社会来说是危险的,因为大众媒体仍然是政府向人们通报紧急事件(例如大流行)的首要选择。
通用人工智能(AGI)/奇点
具有人类理解能力的机器可能会对人类构成威胁,此类研究可能需要受到监管。尽管 大多数人工智能专家并不期望很快(2060 年之前)出现奇点(AGI),但随着人工智能能力的增强,从伦理角度来看,这是一个重要的话题。
当人们谈论人工智能时,他们主要指的是狭义的人工智能系统,也称为弱人工智能,它被指定用于处理单一或有限的任务。另一方面,AGI 是我们在科幻小说和电影中看到的人工智能形式。 AGI 意味着机器可以理解或学习人类可以理解或学习的任何智力任务。
机器人伦理
机器人伦理,也称为机器人伦理,包括人类如何设计、建造、使用和对待机器人。自 20 世纪 40 年代初以来,关于机器人伦理学的争论一直存在。争论主要源于机器人是否拥有像人类和动物一样的权利的问题。随着人工智能能力的增强,这些问题变得越来越重要,现在像AI Now这样的机构专注于以学术严谨的方式探索这些问题。
作家艾萨克·阿西莫夫(Isaac Asimov)是第一个在他的短篇小说《Runaround》中谈论机器人法则的人。他介绍了机器人三定律13转到脚注:
机器人不得伤害人类,或因不作为而允许人类受到伤害。
机器人必须服从人类发出的命令,除非这些命令与第一定律相冲突。
机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。
生成人工智能特定的道德问题
生成式人工智能的伦理道德相对较新,并且随着各种生成模型的发布而受到关注,特别是 OpenAI 的ChatGPT 。 ChatGPT 因其能够在广泛的主题上创建真实的内容而迅速流行起来。与此同时,它也带来了一些真正的道德问题。
真实性和准确性
生成式人工智能采用机器学习技术来生成新信息,这可能会导致不准确(见图 1)。此外,像 ChatGPT 这样的预训练语言模型无法更新和适应新信息。
最近,语言模型的说服力和雄辩能力变得更加熟练。然而,这种先进的熟练程度也带来了传播虚假信息甚至制造虚假陈述的可能性。
图 1. 根据 TruthfulQA 基准测试,平均而言,大多数生成模型只有 25% 的时间是真实的。
来源14转到脚注:斯坦福大学人工智能指数报告2022
版权歧义
生成式人工智能的另一个道德考虑是人工智能创建的内容的作者和版权的不确定性。这就引发了关于谁拥有这些作品的权利以及如何使用它们的问题。版权问题围绕三个主要问题:
人工智能创作的作品是否应该受到版权保护?
谁拥有所创建内容的所有权?
受版权保护的生成数据可以用于培训目的吗?
有关此问题的详细讨论,您可以查看我们关于生成人工智能的版权问题的文章。
滥用生成式人工智能
教育:生成式人工智能有可能因创建看似真实的虚假或不准确信息而被滥用。这可能会导致学生收到不正确的信息或被误导。此外,学生还可以使用 ChatGPT 等生成式人工智能工具来准备各种科目的作业。
如何解决这些困境?
这些都是难题,可能需要像全民基本收入这样创新且有争议的解决方案来解决它们。有许多倡议和组织旨在最大限度地减少人工智能的潜在负面影响。例如,慕尼黑工业大学人工智能伦理研究所 (IEAI) 在移动、就业、医疗保健和可持续发展等各个领域开展人工智能研究。
解决这些道德困境的一些最佳实践是:
透明度
人工智能开发人员有道德义务以结构化、可访问的方式保持透明,因为人工智能技术有可能违反法律并对人类体验产生负面影响。为了使人工智能易于访问且透明,知识共享可以提供帮助。一些举措是:
人工智能研究即使是在私营营利性公司中进行,也往往会公开分享
OpenAI 是一家非盈利性人工智能研究公司,由埃隆·马斯克、山姆·奥尔特曼等人创建,旨在开发造福人类的开源人工智能。然而,通过将其独家模型之一出售
给微软而不是发布源代码,OpenAI 降低了其透明度。
谷歌开发了 TensorFlow,一个广泛使用的开源机器学习库,以促进人工智能的采用。
AI 研究人员 Ben Goertzel 和 David Hart 创建了 OpenCog 作为 AI 开发的开源框架
谷歌(和其他科技巨头)有一个专门针对人工智能的 博客 ,使他们能够向世界传播其人工智能知识。
可解释性
人工智能开发人员和企业需要解释他们的算法如何得出预测,以克服因预测不准确而出现的道德问题。各种技术方法可以解释这些算法如何得出这些结论以及哪些因素影响决策。我们之前介绍过可解释的人工智能, 请随意查看。
包容性
人工智能研究往往由富裕国家的男性研究人员完成。这导致了人工智能模型的偏差。人工智能社区日益多样化是提高模型质量和减少偏差的关键。哈佛大学支持了许多类似的举措来增加社区内的多样性,但迄今为止它们的影响有限。
这可以帮助解决自动化决策系统可能引起的失业和歧视等问题。
结盟
许多国家、公司和大学都在建设人工智能系统,但在大多数领域,还没有适应人工智能最新发展的法律框架。国家和更高级别(例如联合国)法律框架的现代化将明确人工智能发展的道德道路。先锋公司应该带头努力,为他们的行业创造清晰度。
人工智能伦理框架
学术界也在研究框架,以在企业中实现道德人工智能。下面介绍的沙漏模型就是一个例子,它概述了组织、人工智能系统和环境如何交互。15转到脚注它还为那些寻求人工智能道德的结构化方法的人提供了广泛的任务列表。16转到脚注
图:人工智能伦理框架
“Amazon scrapped ‘sexist AI’ tool.” BBC, 10 October 2018. Accessed 2 January 2024.
“Responsible AI Toolkit.” PwC. Accessed 2 January 2024.
“Autonomous Vehicle Market Size Worth $448.6 Billion by 2035.” Allied Market Research. Accessed 2 January 2024.
“Uber’s self-driving operator charged over fatal crash.” BBC, 16 September 2020. Accessed 2 January 2024.
“This is the industry that has some of the happiest workers in America.” CNBC, 4 November 2019. Accessed 2 January 2024.
“The Global Expansion of AI Surveillance.” Carnegie Endowment for International Peace, 17 September 2019. Accessed 2 January 2024.
“Facial recognition technology: The need for public regulation and corporate responsibility – Microsoft On the Issues.” Microsoft Blog, 13 July 2018. Accessed 2 January 2024.
“IBM will no longer offer, develop, or research facial recognition technology.” The Verge, 8 June 2020. Accessed 2 January 2024.
“Facebook–Cambridge Analytica data scandal.” Wikipedia. Accessed 2 January 2024.
“FTC Imposes $5 Billion Penalty and Sweeping New Privacy Restrictions on Facebook.” Federal Trade Commission, 24 July 2019. Accessed 2 January 2024.
“Debating the ethics of deepfakes.” ORF, 27 August 2020. Accessed 2 January 2024.
“News Media Credibility Rating Falls to a New Low.” Morning Consult Pro, 22 April 2020. Accessed 2 January 2024.
“Three Laws of Robotics.” Wikipedia. Accessed 2 January 2024.
“Artificial Intelligence Index Report 2022.” AI Index. Accessed 22 February 2023.
“The hourglass model“. Accessed June 24, 2023
“List of AI Governance Tasks“. Accessed June 24, 2023
夕弦-Yamai_Yuzuru 2023-04-04
米糊炒面呐呐呐 2023-06-07