12月3日,卡耐基国际和平基金会主席Mariano-Florentino Cuéllar、谷歌首席科学家Jeff Dean、知名计算机科学家David Patterson等人撰写的长篇报告“Shaping AI’s Impact on Billions of Lives”发布,报告探讨了利用人工智能增进大众福祉的指导原则和行动路线图。作者团队与来自各个领域的24位专家进行了深入访谈,包括诺贝尔化学奖得主John Jumper、前美国总统Barack Obama、前联合国大使兼前国家安全顾问Susan Rice、谷歌前首席执行官兼慈善家Eric Schmidt以及科幻小说家Neal Stephenson等。本文是对该报告核心内容的编译。
人工智能 (AI) 作为一种颠覆性技术,既可能推动社会取得重大进步,也可能带来负面影响。在让AI自由发展和政府过度监管这两种极端之间,报告主张AI从业者应自觉且积极地为公共福祉努力。通过与各领域的专家的广泛交流,报告从中总结出五条指导原则,这些原则构成了福祉型人工智能框架的基石,引领未来的研究方向,指导负责任和合乎道德地部署AI。报告描绘了一种新的创新模式蓝图,包括18个具体的里程碑,用以推动AI研究朝着福祉型人工智能的方向发展。报告认为,当前AI的发展仍处于初期阶段,而从业者、政策制定者以及其他利益相关者的共同努力,能够确保AI的发展最大限度地惠及社会,同时减少潜在的负面影响。
1、人机协作需聚焦人类生产力的提升而非取代人类
人类与人工智能携手合作(即人机协作),能够创造出比单打独斗更大的价值。将人工智能应用于提高人类生产力,而非取代人类,会带来更多积极的好处。那些使人们工作效率更高的工具,不仅提高了人们的就业能力和职业满意度,还为更多发展机会铺平了道路。此外,当AI在训练不足的领域偏离预期时,人类可以充当重要的安全保障。因此,推动人类生产力的AI发展能够实现人机双赢。
2、AI提升生产力需聚焦“弹性需求”行业以促进就业
要通过AI促进就业,就需要聚焦那些因生产力提升而能够创造更多就业机会的行业。以美国为例,尽管计算机和客运航空业取得了巨大的生产力提升,但2020年美国的程序员和商业航空驾驶员数量,分别是1970年的11倍和8倍。增长的原因在于,这些行业属于经济学中的“弹性需求”(elastic demand)领域,即商品的需求量会随着价格的下降而增加。而农业等“非弹性需求”领域则因生产力提升而导致就业人数大幅减少,如农业岗位从1940年到2020年减少了四分之三。如果AI开发者致力于在弹性行业中提升生产力,尽管公众对此心存担忧,但AI实际上可以创造出更多的工作机会。
3、AI优先去除单调重复劳动,让工作更有意义
AI的首要任务应是减少现有工作中的枯燥重复部分,为人们腾出时间去从事更有价值的工作。例如,医生与护士选择这一职业是为了帮助患者,而非耗费时间在繁琐的文档工作上。同样,教师更希望专注教学,而不是花时间在评分或记录工作上。因此,AI工具的研发应优先改善人们当前工作中的意义感,尤其是在医院和课堂等场景。
4、AI因地制宜推动发展
AI的影响因地而异。埃里克·施密特(Eric Schmidt)强调,在发达国家,人们担心AI可能取代高度专业人才的部分工作;但在资源匮乏的地区,AI则能够填补技能专家的短缺,提升工作和生活质量并促进经济发展。比如,AI可以提升护士与医师的技能和生产力,为医疗资源匮乏的地区带来高质量医疗服务。同时,多语言AI模型能够借助智能手机普及,为发展中国家提供信息、教育等资源支持,改善当地经济和关键服务,甚至可能为一些中等收入国家的人们提供移民之外的选择。
5、构建有效的测量和监管体系评估AI创新
最后,我们需要更好的指标和方法来评估人工智能创新。有时市场可以做到这一点,比如针对专业程序员的人工智能工具。但在高风险领域,这是做不到的,因为我们不能冒险伤害参与者。我们需要使用黄金标准参考工具(gold-standard tools):A/B测试、随机对照试验和自然实验等。同样紧迫的是对人工智能在实际部署后的监控,以评估其是否达到了预期目标,是否足够安全,以及是否产生了意料之外的外部影响。此外,我们还需要在实际应用中持续评估AI系统的表现,以便逐步改进和优化它们。
在长篇报告“Shaping AI's Impact on Billions of Lives”中,在五大原则的基础上,十八个里程碑被提出,覆盖就业、教育、医疗、信息传播、媒体娱乐、政府治理、科学研究七大关键领域。需要推动人工智能在这些领域增进个人和社会的福祉。
1、就业
生产力提升对工作的影响取决于与该工作相关产品需求的弹性或非弹性,如果需求是非弹性的,生产率的提高将导致工作岗位的减少;如果产品需求具有足够的弹性,那么提高生产力的技术将增加行业就业。关于就业的另一个视角是非体力任务和体力任务之间的划分。短期内人工智能系统的主要影响将集中在非体力任务上。因此,为了提升工作的质量和价值,人工智能应专注于赋能人类实现更多目标。而且,利用人工智能提高人类生产力还可以应对一些挑战,例如安全性或虚假信息——在AI系统出错时由人类纠正其建议,或在遇到AI系统未被训练的情况下由人类介入。
(1)快速技能提升(Rapid Upskilling):通过AI帮助低收入或失业人群在短期内掌握高需求技能,从而快速提升就业竞争力。
(2)职业预测系统(Job Forecaster):通过实时追踪劳动力市场变化,指导被AI取代的劳动力适应新兴的高薪职位。
2、教育
为了让AI系统最终帮助大多数学生,AI系统就必须首先改善教师的工作,因为教师在很大程度上决定采用哪些技术。减少繁琐工作的例子可能包括协助制定课程计划、撰写进度报告、布置作业以及评分等。要取得成功,这些解决方案必须以教师日常面临的实际挑战为驱动,并且必须与教师和学生的需求保持一致,而不是基于校董会或管理者的意见。
(3)教师助手(Teacher’s Aide):减少教师日常繁琐工作的负担,以提高教师的生活质量和工作效率。
(4)实证教育平台(Empirical Education Platform):建立一个能够进行RCT测试 (随机对照试验) 的教育平台,理解每个学生的能力/资源及其同学、教师和学校的情况。
(5)全球教师(Worldwide Tutor):利用智能手机的普及,为所有儿童提供符合他们语言、文化和最佳学习风格的学习工具,帮助教师应对不同水平的学生。
3、医疗
社会应当向每个人提供高质量的医疗健康服务,人工智能可以帮助实现这个目标。目前医疗人工智能发展仍面临一些挑战:其中一些挑战涉及在现实世界中部署AI系统出现的研究难题,例如公平性、可用性、稳健性和可解释性等;另一个重要的障碍是基础设施和法规,很少有医疗系统具备轻松部署、更新和监控算法的基础设施,而严格的医疗法规使医疗系统更加谨慎。医疗人工智未来进展关键在于数据的可用性——需要来自不同地点的大型、多样化数据集,以确保模型在多种人群和条件下具有稳健性和公平性。此外,还需要诸如联邦学习等技术,这种技术允许人工智能模型在多个独立的数据池上进行训练,而无需共享或集中存储任何原始数据。
(6)医疗助手(Healthcare Aide):通过减少医护人员的文书工作和单调乏味的任务,降低医护人员职业倦怠,帮助他们专注于患者护理。
(7)专用医疗AI(Narrow Medical AI):专注于特定任务,如预测ICU患者的病情恶化。
(8)通用医疗AI(Broad Medical AI):通过整合多模态数据,为医疗决策提供全面支持。
4、信息/新闻/社交网络
随着人工智能系统在与人类和其他AI系统的交互中变得更加自主,其可能带来的潜在好处和误导信息、虚假信息和偏见等风险都在增加。人工智能系统是否能够以符合用户或社会利益的方式采取行动,变得更加重要。为了实现人工智能的潜力,我们必须建立方法,在最大化人工智能提供的信息优势的同时,减轻误导信息、虚假信息和偏见的影响。尽管虚假信息对个人福祉和国际安全的威胁显而易见,但部分误导信息或偏见的威胁更加微妙:人工智能系统并不完美,而人们却期望其作为一种智能工具是可靠的。为了解决与AI系统相关的误导信息、虚假信息和偏见挑战,我们不仅需要高质量的人工智能系统, 还需要有效的人类+人工智能(以及人工智能+人工智能)交互——这是一个在监管和研究中显著缺乏关注的领域。我们必须开发方法,为用户、开发者和监管者提供对人工智能系统的控制和理解。这些方法将包括新型用户界面,可以在显示AI系统提供的回答或答案的同时提供有用的上下文信息,例如AI系统的置信度水平,或者回答或答案中包含的引用信息的来源。在人工智能工具链的更底层,这种理解需要能够解释人工智能模型内部机制的技术,以便了解:一个模型是否不适当地考虑了种族或性别而生成了有偏见的答案;是使用推理得出答案还是仅仅引用了模型记忆中的内容;甚至可以区分模型是撒谎还是诚实,等等。
(9)基于人工智能的公共讨论平台(AI-mediated Platform for Civic Discourse):旨在促进不同观点之间的建设性对话,减少社会的两极化。
(10)虚假信息识别AI(Disinformation Detective Agency):检测深度伪造内容。
(11)用于优化信息获取的可控AI(Controllable AI for Curating Information Consumption):防止信息茧房。
5、媒体/娱乐
与教育和医疗不同,许多娱乐领域的需求是非弹性的。如果人工智能提高了美术家和平面设计师的生产力,市场是否会扩大以容纳更多的画作和设计,这一点并不明显。而如果我们将娱乐视为一个讲故事的行业,那么其中一个结果可能是人工智能系统能够帮助更多的人讲述更多的故事。
(12)记者助手(A Journalist’s Aide):能够快速检查新闻草稿错误,并突出无法验证的地方,显示冲突来源。
(13)版权检测器/收益分享者(Copyright Detector/Revenue Sharer):当检测到版权作品被使用时,能够相应地分配资金给版权所有者,并奖励开发可授权数据集用于训练AI的人。
6、治理/国家安全/开源
在监管方面,现有法律已经规范了许多人工智能应用,挑战在于如何针对新的人工智能使用案例解释这些法律,这通常需要基于具体事实的判断以及政策制定者对人工智能系统技术特性的更深入了解。另一个挑战是通过精心制定的政策填补现有法律中的某些有限空白。这些政策需要考虑先进人工智能系统的独特能力和优势,并采用能够识别技术快速变化的应对方式。关于是否将人工智能模型开源的争论就是这一复杂方法的典型例子。尽管共享模型参数和技术细节可以促进创新,但也可能被恶意分子利用。
总体而言,今天的决策将塑造未来的人工智能格局,影响从经济竞争力到社会稳定的一切。在实用人工智能的黎明时期,审慎的治理不仅是可取的,更是必不可少的。需要考虑以下七个原则:
第一,平衡收益与风险。单纯关注风险可能会阻碍有益成果和创新,但忽视人工智能带来的益处与忽视风险同样是一个重大错误。
第二,整体和透明的影响评估。 对不断发展的人工智能系统进行影响评估在帮助人们、组织和政府更好地了解人工智能系统的潜在贡献及其风险和局限性方面起着关键作用。由于人工智能系统的影响多种多样,这些影响评估必须尽可能可靠,并广泛公开以供个人和研究机构使用,从而及时向政策制定者提出关切。
第三,利用现有法律框架。与其完全制定新的监管方案,不如尽可能调整并应用现有规则。对人工智能日常应用的治理更多地关乎对现有规则和标准的审慎适用,而不是制定全面的新方案来规范人工智能系统在所有情境下的使用。尤其需要确保人工智能系统至少达到与相同情境下人类决策者或非人工智能系统相同的法律标准,以防止人工智能系统被用于规避责任。
第四,弥补法律空白。即使我们可以依赖现有法律来应对80%到90%的人工智能政策挑战,精心设计的新政策仍将帮助社会管理这项可能将某些形式的智能转变为商品化的技术。
第五,缓解偏见歧视。一方面,AI歧视已经成为一个显著问题,我们需要采取多种措施减少人工智能的偏见歧视。另一方面,不应忽视人工智能模型提高公平性的潜力,因为人类决策现状往往存在深刻缺陷,而人工智能模型可以作为帮助人类决策者检测和减少人类偏见的有用工具。
第六,投资公共利益和国家安全。一些有前景的政策更多地涉及投资和基础设施,而非监管。政策可以鼓励尚未被市场充分接受或资助的人工智能应用,或支持对国家安全至关重要的能力。
第七,采用迭代政策制定。人工智能的快速发展和通用性要求对政策进行持续评估和完善。人工智能驱动的平台可以同时促进政策评估以及公众的咨询和讨论。
(14)政府/行业合作的成功案例(Recent Government/Industry Collaborative Successes):展示全球范围内政府机构与私营企业之间的成功合作,以增强AI的正面效应并减少负面影响。
(15)AI审计(Implementable AI Audits):建立明确的AI审计标准,包括审计员的专业水平、具体测试项目及必须报告的信息。
(16)改进公平性的AI(Equity-improving AI):人工智能公平性干预最具影响力的领域是治理中的应用,在这一领域,人工智能可能被用于影响数十亿人的决策,并产生重大的社会和经济影响。在这样的情境中,这一里程碑将包括部署一个公平的人工智能决策支持系统,或者使用人工智能进行分析,并辅以清晰的现实证据,证明其在某些衡量标准上改善了公平性。
7、科学
人工智能发展给科学研究带来了新的机遇,Google DeepMind甚至认为人工智能将带来科学发现的黄金年代。目前,在黑洞可视化、洪水预测、材料发现、天气预测、缩减飞机尾迹、控制核聚变等离子体等方面已经涌现了很多AI助力科学研究的例子。总体而言,学术界和行业主导的研究中不断增加的投资、兴趣和应用,推动了一场深度学习革命,正在改变科学发现的格局。
(17)助力联合国可持续发展目标的AI科学突破(AI Scientific Breakthroughs for the UN Sustainable Development Goals):使用AI取得重要的科学突破,帮助实现一个或多个联合国可持续发展目标。
(18)科学家AI助手/协作者(Scientist’s AI Aide/Collaborator):提升科研效率。
十八个里程碑系统地回应了当前AI发展面临的挑战,从技术优化到社会责任均有所涉及。通过明确这些目标,AI不仅能够推动就业增长、优化教育与医疗资源,还能加速科学研究与信息传播的进步,为全球公众福祉带来深远影响。
尽管AI存在数据隐私、知识产权、偏见等风险,但其带来的机遇同样不容忽视。忽视其好处就像忽视其风险一样,都是错误的。政府需要加速跟上AI发展的步伐,建议通过公共和私营部门合作,打破官僚主义障碍,确保AI的安全性和透明性,并为政策制定者与公众提供必要的教育。为了支持、促进人工智能为公众福祉服务,报告提出需要在两个主要方向提供资金支持:一是设立激励性奖项(Inducement Prizes),以激励研究并认可重要突破;二是资助为期三到五年的跨学科研究中心。
每个激励奖金至少价值100万美元,用于激励推动AI积极影响的重要里程碑式研究,不同于表彰过去成就,激励奖项给出了特定的目标。上述提到的18个里程碑都应配套相应的激励奖金。例如,AI相关的有2004年的DARPA自驾车挑战赛、2009年的Netflix用户评分预测算法奖。此外,Kaggle平台上有300多项进行中的竞赛。美国政府也支持了超过1300项激励奖。对于研究不足的课题,报告建议资助为期三至五年的具有高影响力的跨学科研究中心。例如,20世纪70年代的UNIX项目以及2000年代的RADLab和Par Lab。除了开展实现里程碑的研究外,研究中心还需判断什么样的研究成果能够获得激励奖金。研究中心与激励奖协同作用,激励奖金的参赛者为研究中心反馈研究过程中出现的关键挑战,以及转让技术成果。
这或许是当代人类的登月计划,但我们的终点在哪?也许我们可以开发一个AI调解员,促进具有不同观点的群体之间的对话,将社会从极化状态引导回多元包容的方向。也许我们可以利用智能手机,为全球每个孩子开发一个定制化辅导软件。又或许,我们可以让AI成为生物学家和神经科学家的得力助手,让他们在十年内取得相当于一个世纪的研究进展。我们可以用AI干成很多事情,只要我们手握正确的创新蓝图,专家和用户共同对话,我们就不必局限于单一目标,而是可以实现多个愿景。
本文来自微信公众号“腾讯研究院”,作者:曹建峰 李惠茗,36氪经授权发布。