近年来AI办公的概念蓬勃发展,AI大模型逐渐成为许多办公人士的“亲密伙伴”。用户只需要输入具体需求,就能一键生成文章。部分掌握公司机密的办公人员在起草相关合同或文件时,为节省工作时间,违规将涉密素材和涉密文件内容输入AI 大模型生成文章,并认为只是截取文件片段,不至造成泄密。殊不知,一些AI大模型会自动收集用户输入的信息内容以供自主学习,相关数据资料有一定被泄露的风险。
然而,许多企业并没有意识到他们在使用这些技术时所面临的风险。数据隐私和安全问题是最显而易见的,却意外地经常被忽视。使用ChatGPT等工具来创建摘要或回复电子邮件的员工,可能没有意识到他们可能无意中向外界泄露了机密信息。
AI 使用的隐患
每天,数以百万计的企业都在使用聊天机器人等技术来提升客户支持,在营销中生成内容、创建受众分析,在人力资源部门筛选求职者,检测欺诈交易,优化供应链运营,或者从数据中提取商业智能见解,而一些公司已经因缺乏人工智能监管而面临风险。
在今年的WAIC(世界人工智能大会)上,奇安信集团董事长齐向东表示,大家提到的 AI 风险,一是AI本身存在安全风险,数据污染和投毒轻而易举。二是AI应用存在安全风险,数据泄露和数据滥用防不胜防。当员工向人工智能工具“投喂”数据时,极易造成敏感信息、核心机密和其他数据泄露风险;更可怕的是,不法分子还能利用所掌握的信息和数据,通过AI深度伪造技术创建虚假身份,进行换脸、换声,达到不可告人的目的。三是AI被黑客利用加剧安全风险,饱和式攻击猖獗。生成式AI可以生成恶意软件、钓鱼邮件,也可以快速发现目标系统中的漏洞,从而加速和扩大攻击规模,这大幅降低了网络攻击门槛,网络攻击数量大幅增加。
不久前,安全公司 Zenity 的联合创始人兼 CTO MichaelBargury 在黑帽安全大会上披露,微软内置于Windows 系统的 Copilot AI存在安全隐患。这些漏洞可能被利用来获取用户的敏感信息,如联系人数据,并且可以伪造邮件发送钓鱼邮件,进而诱导企业员工进行不安全的操作,例如修改银行转账信息。
研究人员通过演示展示了黑客如何利用 Copilot泄露数据和进行网络钓鱼攻击。Copilot Studio允许企业自定义聊天机器人,但这需要 AI访问企业数据,从而产生安全风险。攻击者可以通过注入恶意数据来绕过 Copilot 的防护措施。Bargury 指出,当 Al被赋予数据访问权限时,这些数据就成为了攻击的目标。
而去年 5 月,三星推出了一项新政策,要求员工不得在工作场所使用OpenAl的ChatGPT和谷歌 Bard等生成式人工智能。原因在于同年4月,该公司的一名工程师将内部源代码上传到ChatGPT后,意外泄漏了内部源代码。这让三星担忧其数据将通过人工智能平台最终落入其他用户手中。
目前,三星员工已被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑、手机等,但员工仍可以在个人设备上使用。该公司还强调,若违规并导致公司信息或数据泄漏的话,员工将得到纪律处分,情节严重者将被解雇。
而台积电也发布了内部公告,提醒员工应秉持“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则谨慎使用网络工具如ChatGPT或Bing AI Chat等。
在日本,银行巨头软银则警告员工使用ChatGPT和其他商业应用,“不要输入公司身份信息或机密数据”。而瑞穗金融集团、三菱日联金融集团和三井住友银行已禁止在公司运营中使用ChatGPT和其他服务。
多地监管层已开始采取行动
许多人工智能系统的透明度和可解释性不足使企业担责。如果企业希望把握人工智能带来的变革机遇,那么明确、详细且全面的人工智能政策就显得至关重要。
首先,围绕人工智能的可接受与不可接受使用行为制定指导方针,应成为防范其潜在风险的基础步骤。然而,必须认识到,有效的人工智能政策不只是风险缓解的手段,它同样也是推动创新和增长的强大动力。
一个精心制定的人工智能政策,其作用不仅限于防御;它还能激发潜力。通过清晰地阐述如何利用人工智能提升生产力和驱动创新,政策提供了一个框架,让企业能够自信地探索和应用人工智能技术。这种明确的指导有助于营造一个环境,在保障安全和遵守道德规范的同时,培养创造性的解决方案。
积极面对这些问题,还将助力企业明确安全和负责任地使用人工智能所需的技术要素。例如,理解基于公共云的人工智能工具如ChatGPT的数据策略,对企业来说至关重要,这有助于它们识别在哪些环节需要更私密、更安全的系统,如本地基础设施。通过这样的认识,企业可以在享受人工智能带来的便利和效率提升的同时,确保数据的安全性和合规性。
作为监管一直较为严格的欧盟,其推出的《人工智能法案》,就旨在通过全面的监管框架确保AI技术的安全、透明和伦理性。法案将AI系统分为四个风险等级:不可接受风险、高风险、有限风险和最小风险。不可接受风险的系统,如社会评分系统,被全面禁止;高风险系统则需通过严格的合规性评估和认证,包括医疗设备和招聘工具等。法案强调透明性、数据治理和隐私保护,推动技术创新和市场信任。通过这种分类监管,欧盟希望保障公众利益,同时促进AI技术的健康发展。
近日,被誉为“人工智能之父”的加拿大科学家杰弗里·辛顿(Geoffrey Hinton)、被誉为“深度学习之父”的加拿大蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)、撰写最早AI教材的伯克利大学计算机科学教授斯图亚特·罗塞尔(Stuart Russell)以及互联网立法专家、哈佛大学法学教授劳伦斯·赖斯格(Lawrence Lessig)等专家联名签署了一封公开信,支持加州议会一项AI安全监管法案。
他们在公开信中写道:“作为最了解AI系统的专家,我们可以自信地说,(AI引发的)风险很可能存在,而且足够严重,有必要制定相关安全检测和预防措施。我们担心科技公司在追求市场份额和利润最大化的过程中,无法自己化解这些系统性风险。因此需要对这些处于AI赛道前沿的公司制定规则。”
饱受争议的加州《加州AI安全法案》(原为《前沿人工智能模型安全创新法案》)在大幅度削弱后,顺利通过加州众议院拨款委员会的审核。监管范围内的企业应主动采取措施避免模型滥用,还需要拥有紧急关闭模型的能力。此外,他们还需要提交公开声明,概述他们的安全实践。法案引入了“年检”制度,企业需要聘请独立审计员每年评估合规情况。一旦出现违法行为,企业可能面临一千万至三千万美元不等的罚款。
结语
面对AI技术的双刃剑特性,全球各地已经开始警惕 AI 带来的负面影响,从企业到立法机构,都在寻求平衡创新与安全的方法。欧盟的《人工智能法案》和加州的AI安全法案等,都是这一努力的体现。未来,通过确立明确的指导原则和安全框架,相信企业可以在安全与可持续的边界内探索AI的潜力。