【大河财立方 记者 陈薇】2024年伊始,Open AI公司正式发布其首个文本——视频生成模型Sora,人工智能技术迭代正在加速。
作为安全科技领域的委员代表,全国政协委员、360集团创始人兼董事长周鸿祎非常关注通用大模型安全问题,他建议国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
从去年的ChatGPT到今年Sora,周鸿祎表示,这标志着人工智能对这个世界的理解又进一步,与此同时,安全问题随着技术的发展愈发凸显。通用大模型的安全意义重大,关系到技术研发落地全产业链的安全,微小的安全问题便有可能引发系统性的安全风险,因此更需要国家和企业重点应对和保障。
“通用人工智能技术引发的复杂安全风险分为技术安全、内容安全和人类安全三个方面。”周鸿祎说,技术安全主要涉及大模型技术本身引发的安全问题,如网络、数据和生成内容的安全;内容安全则是对大模型的控制、滥用、误用和恶意应用等问题;而人类安全问题则是大模型强大后带来的安全可控问题。
面对大模型的安全问题,周鸿祎建议,相关部门可采用揭榜挂帅等方式,鼓励并扶持兼具“安全和AI”能力的企业,更好发挥其解决通用大模型安全问题的重要作用。
其次,现阶段将安全模块作为大模型外挂的做法已不可行,安全需要贯穿通用大模型的整个构建过程,确保安全措施在系统的整个生命周期中得到充分考虑和实施。他建议国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
相比民营企业以及其他各类组织,政府、央国企对通用大模型的应用具有更高的安全标准。他建议政府、央国企与兼具“安全和AI”能力的企业在大模型安全领域展开深入合作,发挥此类企业在人工智能安全领域的优势作用。
责编:史健 | 审校:李金雨 | 审核:李震 | 监审:万军伟