推动前沿人工智能安全的工作刻不容缓
GPT-4等前沿大模型展现出强大的涌现能力,在多领域逼近人类水平。同时,大模型为多个技术方向带来新的发展空间,包括多模态、自主智能体、科学发现等能力。模型能力在未来几年内仍存在数量级进步的空间。Inflection在未来18个月内将使用比当前前沿模型GPT-4大100倍的计算量。Anthropic预计在未来的5年里用于训练最大模型的计算量将增加约1000倍。由于大模型的涌现能力”,这些更先进人工智能系统所带来的机遇和风险具有巨大不确定性。短期内,社会需要积极预防人工智能所带来的网络安全、生物安全和虚假信息的滥用风险。与此同时,人工智能正获得越来越强的社交操纵、欺骗和战略规划等潜在危险能力,未来先进的自主人工智能系统将带来前所未有的控制挑战。面对科技伦理和公共安全的重大风险,社会应该具备底线思维,凡事从最坏处准备,努力争取最好的结果。
全球人工智能安全峰会中讨论了应对潜在风险的人工智能安全级别(ASL)框架,参考了处理危险生物材料的生物安全级别(BSL)标准,基本思想是要求与模型潜在风险相适应的安全、安保和操作标准,更高的ASL级别需要越来越严格的安全证明。预计未来半年内,我国多个前沿大模型将达到或突破GPT-4性能,达到ASL-2能力级别”。确保相适应的安全标准,行业自律和政府监管缺一不可。
来源:安远
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系