讨论主题分为以下五章:
第一章,生成式人工智能的风险与挑战
从近期和长远两个时间维度来看,专家们关注的近期风险和挑战包括:一是大语言模型的隐私和安全隐患;二是大语言模型生成的虚假信息和“幻觉”问题;三是模型的价值观偏差和缺乏解释性;四是模型滥用造成的道德和伦理风险;五是人工智能应用带来的知识产权和法律监管问题。
而长远风险和挑战包括:一是人工智能可能导致经济和社会的重大变革,需要统筹应对;二是人工智能可能颠覆现有国际法律体系和世界秩序;三是人工智能存在全球共同的风险,需要建立国际规范和监管;四是不同国家和文化在人工智能价值观上存在分歧;五是强人工智能可能脱离人类控制,产生灾难性风险。
总体而言,近期的风险更多集中在个别模型和应用层面,而长期的风险和挑战更多关乎人工智能技术的整体发展方向和社会影响。但无论近远,建立国际合作和制定伦理规范对于应对人工智能风险都至关重要。
第二章,生成式人工智能的全球治理策略
专家们关注的优先事项为:一是全球合作与协调:在人工智能治理中强调国际合作的必要性,尽快启动多边协调与合作进程,促进广泛国家参与治理;二是风险识别与管理:集中关注人工智能系统可能带来的共同大规模高风险危害;三是伦理和透明度:在人工智能的设计、开发和部署中强调伦理原则和透明度;四是技术发展与安全的平衡:在促进技术创新的同时,确保安全和合规性。
为此提出的相关政策建议包括:一是建立多边组织和国际社会的共同努力:为了识别和缓解人工智能风险,需要全球性的参与和合作,推动建立国际人工智能组织来确保国际监督标准的实施;二是制定风险预警和应对机制:包括事后监管审查和预防策略,确保系统的安全性和可靠性;三是建立第三方评估机制:独立专家的第三方评估补充内部评估,以提供一个稳固的安全网;四是构建可互操作的合规体系:推动不同国家治理规则标准化和对接;五是制定国际公约:在全球范围内分享人工智能成果与利益。
总体而言,当前亟需统一全球视野,就人工智能治理原则和政策达成共识,并采取统筹协调的国际合作,以应对快速发展带来的挑战。
第三章,人工智能治理助力发展中国家与全球可持续发展
专家们认为,人工智能治理可以为发展中国家提供的助力包括:一是解决紧迫问题:人工智能可以帮助发展中国家应对贫困、饥饿、卫生事件等迫切问题,通过提供精确的数据分析和解决方案;二是弥补资源缺乏:利用人工智能,可以在资源有限的情况下有效地管理和分配资源,特别是在科技和教育领域;三是改善数字基础设施:通过人工智能推动网络和通信技术的发展,提高互联网接入和计算能力,缩小数字鸿沟;四是缩小能力差距:提供优质的教育和技术培训,提升本地人才的技术专长,增强就业机会;五是本土化人工智能应用:培养适应本地需求和文化的人工智能应用,特别是在语言和文化多样性方面;六是国际合作:推动发展中国家参与国际人工智能治理,确保它们在全球人工智能产业链和价值链中有话语权。
对全球可持续发展的助力则包括:一是促进经济增长:人工智能可提升生产效率,降低成本,增强全球竞争力,尤其对发展中国家而言,这是推动经济多元化的关键;二是改进社会服务和基础设施:在教育、医疗、城市规划等领域,人工智能能提供更高效、更精确的服务,提升资源利用率,减少浪费;三是实现联合国可持续发展目标:人工智能可用于监测和评估可持续发展目标的进展,为政策制定提供数据支持,帮助更有效地管理资源,减少环境影响;四是推动包容性增长:通过包容性人工智能治理,考虑到所有国家的需求和愿望,确保技术发展惠及全球大多数人;五是国际治理与合作:建立国际治理机构和合作平台,促进知识和资源的共享,提供经济激励促进遵守规范,共同应对全球挑战;六是敏感性和透明度:监督人工智能行业的实践,确保其符合伦理标准,尊重数据隐私和安全,减少剥削性做法。
总体而言,人工智能治理在帮助发展中国家加速发展和实现全球可持续发展目标方面发挥着重要作用,但同时也需要注意其潜在的挑战和风险,特别兼顾不同发展目标方面。
第四章,工程视角下的人工智能治理
支持治理的技术手段和工具可能包括:
了解和评估模型能力的重要性。目前还缺乏系统的概念框架来决定模型的具体能力,这阻碍了人工智能的有效治理。建议制定评估模型能力的标准化方法应成为治理的优先事项,并强调了在人机互动中形成合理策略和广泛的理解、知识和技能的重要性,可解释的人工智能也有助于发展实用智慧。
加强人工智能安全治理的标准化工作。如建立准则更新机制、研制应用领域专项标准、建设试验区等。这些标准化工作有助于引导人工智能的可控发展。
基于风险和多方参与的方法治理生成式人工智能,开发评估框架和工具,并寻求国际合作。这为负责任地应用人工智能提供了参考。
通过开源和治理的民主化使人工智能开发与部署更符合公共利益,建议构建跨文化跨语言的伦理数据库,保持开放的公众参与,这有助于提高人工智能系统的安全性和价值对齐。
此外,还需要加强国际间的对话交流、建立包容的安全规则、开源高质量数据集等,以应对当前人工智能发展中的规则分散、价值观对齐难度、加剧贫富分化等问题。
总体而言,工程技术对人工智能治理起关键支撑作用。需要深化对关键问题的理解,并将之转化为模型设计、训练与验证等具体实践。
第五章,企业视角下的人工智能治理
各家企业的讨论各有侧重:
迈克尔·塞利托 (Michael Sellitto)介绍了Anthropic的人工智能安全级别(ASL)的概念,用于管理人工智能潜在的灾难性风险。该方法借鉴了处理危险生物材料的生物安全级别(BSL)标准,根据人工智能能力定义了风险等级,并要求不同等级采取不同的安全措施。
司晓和曹建峰讨论了人类反馈强化学习在提高大模型价值对齐中的应用,以及其他技术和治理手段如数据处理、可解释性、对抗测试等在模型价值对齐中的作用,从工程层面保障人工智能系统价值观安全和对齐的方法。
韦韬指出了近年来大语言模型在快速进步的同时,也面临缺乏认知对齐、原则性和可解释性等问题。这会导致人工智能系统产生严重的错误决策并快速扩散执行,造成难以预见的后果。建议人工智能系统需要提高认知一致性,建立可验证的推理链,并与人类专家互动学习。
英特尔文章以其开发的伪造检测技术为例,讨论了负责任地应用人工智能改善民众生活的方法,如提高效率、创造力,帮助残障人士等,从应用视角阐释了负责任的人工智能工程实践。
总体而言,这几篇从企业实践的角度,讨论了人工智能安全分级管理、价值对齐、开源治理、负责任应用等人工智能治理中值得关注的若干问题,提供了有益的建议和范例。
来源:世界工程组织联合会
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系