随着生成式人工智能(AI)应用成为全球热点,其涉及的数据安全问题也成为关注重点。亚马逊云科技认为,从构建生成式AI开始,企业就要把安全作为企业AI战略发展的一个核心环节。
亚马逊首席安全官Steve Schmidt提出3个安全方面的重要切入点:数据源头、使用中的数据和模型结果的准确性。数据来源是指企业需要关注数据来自何处并确保其受到必要的保护;强调使用中的数据是因为很多业内人员的关注点目前还停留模型训练数据的安全,但这并不是唯一的敏感数据集,用户在通过生成式AI应用交互时也可能会造成敏感数据的泄漏。模型结果则是重点关注不同场景对生成内容的准确性有不同的要求。
企业内部利用生成式AI进行创新时,应当注意哪些问题?Steve Schmidt建议,首先是构建安全护栏。对于安全团队来说,说“不”很容易,但对于所有业务团队、开发人员等来说,绕过安全团队也同样容易。因此企业在使用生成式AI时,最好的做法是教育、告知、指导、设置防护栏,并使用能够满足预设目标的云服务,同时还需要精确了解这些服务如何使用和保留数据。
其次是通过可视化工具来了解员工如何使用数据。企业需要限制在工作需求之外的数据访问。在其他情况下,如果员工使用的数据不太敏感,但是可能会违反规定,管理者也应当主动联系员工去了解真实目的并寻求解决之道。
最后是通过机制解决问题。机制是可重复使用的工具,允许我们随着时间的流失精确地驱动特定的行为。例如,当员工违规操作时,系统会通过如弹窗来提示员工,并建议使用特定的内部工具,并就相关问题进行报告。
此外,在网络安全人才短缺方面,生成式AI也能提供有效帮助。Steve Schmidt认为,生成式AI可以加快安全工程师的效率,在使用生成式AI模型构建自动响应流程时,能够对预定事件进行快速响应和输出。尤其是在人工交互领域,大模型可以让不懂技术的管理人员在安全事件发生时快速理解发生了什么。安全团队也能更轻松地检测异常行为,从而摆脱发现和响应事件等繁琐工作,将精力集中在战略业务计划和更高价值的任务上。(经济日报记者 孙昌岳)