从ChatGPT数据泄露事件,看组织安全稳定自动化的重要性
从自动化看ChatGPT数据泄露,安全稳定是自动化的运行基石
安全防范、合成数据与稳定自动化,三个法门破解ChatGPT数据泄露
ChatGPT陷入数据安全泥潭,如何继续安全使用高效AI神器?
多家企业禁用多个国家禁止,获封AI神器的ChatGPT真的不能使用了吗?
ChatGPT数据泄露风险如何控制?以自动化系统进行控制是个思路
文/王吉伟
有图有真相的时代,彻底一去不复返。
荷兰的一个AI绘图玩家,用几张“特朗普被捕”照片生动演绎了什么叫作AI生万物。那些清晰到毛孔可见的照片,告诉我们没有图片是AI不能生成的。
有了这些图片的启发,很快马斯克就摆起了地摊,爱因斯坦也站在了印度街头。
这些图片的背后是没有绘画功底的玩家,玩家的背后则是正在颠覆设计界的生成式AI绘图工具Midjouney。
整个图片生成的过程都与绘画没有任何关系,生成的图片却比各种人工绘图更加真实。整个创作图片的游戏规则,都被基于AI大模型的生成式AI改变了。
新的游戏规则不只改变了创作过程,更改变了很多企业的设计业务流程,现在砍掉原画团队的游戏公司比比皆是。侥幸留下的设计师们,一边在随时被裁员的恐惧中瑟瑟发抖,一边废寝忘食学习AI绘图。
企业同样感受到了游戏规则改变带来的恐惧。他们不只使用Midjourney、Stable Diffusion等绘图工具,更是积极地引入名声更响亮的ChatGPT。
ChatGPT所带来的效率提升与成本下降显而易见,只是很多企业现在更加恐惧了。恐惧的原因,不只是因为ChatGPT发现了数据安全漏洞,更在于很多企业的员工在与ChatGPT交互时泄露了大量的敏感数据。
这些数据,都已经上传到ChatGPT的服务器,并且有很大可能被用于模型训练。
三星公司就正在为此头痛不已。他们已经拥有三次敏感数据泄露的先进经验。“用ChatGPT学习先进芯片制造技术”也已经成为一个梗,用来表述使用ChatGPT所付出的代价。
有了三星的前车之鉴,现在已经有很多公司开始禁用ChatGPT。大型公司的集体举动,让对数据敏感的金融机构迅速跟进,美国、日本等多地的多家金融机构都已禁用ChatGPT。连锁反应更是影响了多个国家,意大利、德国等都在禁止和调查ChatGPT。
目前广大组织对于ChatGPT所带来的安全风险,主要集中在与之交互后所造成的敏感信息泄露方面。交互得越多泄露数据的可能性也就越大,而想要生成更符合需求的内容就需要更多的信息。更高效率与更大风险的矛盾,成了广大组织为之挠头的问题。
从自动化角度而言,ChatGPT等生成式AI的优势之一,便在于其所带来的更加直接与颠覆的业务自动化。但近期ChatGPT的大量封号、安全漏洞、数据泄露以及被各国封禁,对引入ChatGPT的组织运营带来了很大的不稳定性,严重者上甚至影响企业正常运营。
可见,在流程自动化已经成为企业标配的当下,安全稳定的自动化真的太重要了。
出现这么多问题,是不是意味着ChatGPT以后就不能使用了?又该如何实现安全稳定的自动化?本文,王吉伟频道就跟大家聊聊这些。
ChatGPT负面消息不断
3月底,网上流传了一份似是而非的针对GPT-5研发的请愿信。
大体内容是,未来生命研究所(Future of Life Institute)公布了一封请愿信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。同时,该公开信写道,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。
据说,这封信有一千多名科技人员签名,除了马斯克、谷歌副总裁兼工程研究员辛顿和Robust.AI首席执行官兼创始人马库斯之外,还包括苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等人。
之所以说它似是而非,是因为这封信发出后便引发质疑,被指签名造假、误导公众以及推动AI炒作。甚至有消息说这封信是由AI生成的,用AI生成劝阻AI研发的请愿信,是不是有些讽刺?
或许为了给此事推波助澜,还有人在设置一定条件后,询问ChatGPT想对人类做的第一件事情是什么,得到的答案是:毁灭人类。
当然,这个问题也很有可能是由AI生成的。特朗普和马斯克出现在各地街头的图片告诉我们,AI时代大家围观的再也不可能是真相,因为用AI造假的成本比学习P图技术低太多。
但不管真假与否,似乎是“请愿信”起了作用,美国相关部门还是召开了专项会议。
据美联社报道,美国总统拜登于当地时间4月4日在白宫与科技顾问举行会议,讨论人工智能给人类、社会和国家安全带来的“风险和机遇”。会议上,拜登重点讨论了保护权利和安全的重要性,以确保负责任的创新和适当的保障措施,并呼吁国会通过两党隐私法以保护孩子,以限制科技公司收集所有人的个人数据。
这个会议,意味着在OpenAI激进的商业化推进之下,以ChatGPT为代表的生成式AI的野蛮发展受到了高层重视,当然也预示着各种监管、整顿和改进也将落到这些AI企业的头上。
所以,不只是国内在整顿ChatGPT等生成式AI爆发后引起的各种乱象,各国都在数据安全层面发布了不同程度的法规政策。
3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,并表示已对ChatGPT背后的OpenAI公司展开调查。
意大利封禁ChatGPT所援引的法律工具是欧盟《通用数据保护条例》(GDPR),除了大型互联网公司,GDPR也能拿来监管新出现的人工智能公司。需要说明的是,欧洲的隐私监管机构往往独立于政府,在隐私保护上权力很大。
欧洲对于数据安全有很高的敏感性,对于涉及到的相关技术及产品如果有很大的争议,一些国家便会快速跟进。
法国和爱尔兰的隐私监管机构已经与意大利的同行联系,以了解更多关于禁令的依据。西班牙的监管机构也表示,不排除未来会对ChatGPT进行调查。
德国政府发言人曾对媒体表示,没有必要禁止ChatGPT,但很快德国联邦数据部门就表示可能会效仿意大利,出于对数据安全保护的考量而选择禁止ChatGPT。
相信有三星半导体数据泄露的前车之鉴,有奔驰等大型企业的德国不可能对此视而不见。
还有一些国家尚未公布相应的法规政策,但广大企业都开始谨慎对待ChatGPT。生成式AI尤其是ChatGPT所带来的数据安全等问题正在引起他们的担忧,甚至已到了禁用ChatGPT的地步。
危害比预想的大
3月23日,ChatGPT首次遭遇了重大个人数据泄露。
不少推特网友爆料,在ChatGPT网页左侧的聊天记录栏中出现了他人的聊天记录内容,一些用户甚至可以看到活跃用户的姓名、电子邮件地址、支付地址、信用卡号等信息。
即便OpenAI很快就修复了漏洞,并在第二天发布了声明向用户和整个ChatGPT社区致歉,但这个事件也让很多人开始担心隐私泄露。尤其是那些把ChatGPT当作情感陪护的用户,不知道对ChatGPT倾诉了多少隐私,怕是目前仍在瑟瑟发抖。
此事件更让用户意识到,OpenAI的安全系数并没有那么高。聊得越多,发送到OpenAI服务器上隐私数据也就越多,这些数据有可能被拿去用于训练AI模型。一些人看在ChatGPT能够带来极大方便的份上也就忍了,但如果哪一天ChatGPT被黑客入侵,自己隐私数据也将被盗走,后果可想而知。
同样在为数据泄露发愁的,还有三星公司。
三星因使用ChatGPT造成数据泄露的事情,现在已经成了典型案例。该公司从3月11日起向其半导体部门的员工授予ChatGPT的使用权限(其他部门仍被禁止),三星的员工向 ChatGPT 提问各种问题以提升工作效率。
由此,三星的机密数据就不知不觉地泄露了,短短几周就发生了三起。这三起事件分别是:用ChatGPT优化测试序列以识别芯片中的错误;用ChatGPT 将公司有关硬件的会议记录转换成演示文稿;用ChatGPT修复专有程序的源代码错误。
每个事件,都涉及了不少企业经营的敏感数据。
三星员工与ChatGPT交互的问题都要上传到OpenAI的服务器,由于ChatGPT保留了用户的输入数据来进一步训练自己,也就是说三星的这些商业机密现在实际上掌握在了OpenAI的手中。
网友调侃,三星再发生几次数据泄露事件,大家就可以用ChatGPT学习制造高端芯片了。
ChatGPT提升工作效率的效果是显著的,但是所造成的商业损失也可能是巨大的。所以企业在使用ChatGPT之前一定要制定使用规范,并对员工进行充分的提醒和培训,让其知晓哪些信息不能与ChatGPT进行交互。
目前三星部门仍在使用ChatGPT,并开发出内部AI工具将能够输入的prompts限制在 1024。只是,被限制的ChatGPT又能发挥多少效能?
对于是否继续使用这样一个“杀敌一千可能自伤一万”的超级AI工具,三星应该已经心有定计。该公司已经再三声明若未来再发生类似事件,将禁止使用ChatGPT。
生成式AI躲不开的安全问题
严重警告或者禁止使用ChatGPT的大型企业,已经不止一家。
亚马逊律师曾警告员工,不要与ChatGPT分享任何亚马逊的机密信息包括正在编写的代码,因为这可能会将其用于训练未来的模型。
在金融领域,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等多家机构,均已经禁止员工使用ChatGPT处理工作任务。
日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等,也限制了ChatGPT的商业用途。
终究是搞金融的企业对数据更加敏感,在可能的损失与高效率之间,集体选择了前者。
目前的很多事件已经对外昭示,ChatGPT给企业带来的风险比想象中的高很多。
除了个人隐私和企业敏感数据泄露,上线不到5个月的ChatGPT,已经成功让全球很多用户已经对它产生了很大的依赖。
一些人已经对ChatGPT产生了依赖症,主要表现为ChatGPT崩溃24小时期间全球用户的叫苦不迭,以及Plus用户疯涨和更大API调取需求所带来的OpeanAI算力吃紧以至暂停1天时间的Plus会员升级与充值服务。
虽然这种依赖已造就了巨大的市场,但它同时也意味着更多的数据被上传到OpenAI服务器。比如让ChatGPT进行代码修复、表格生成、PPT制作等操作时,相关数据可能就会泄露企业的各种数据与隐私,有些企业甚至并未察觉。
还有一种可能在于,虽然AI只是一种辅助工具,但当更多的人更加依赖这些更加智能的AI工具时,人们的创造性思维或许也将停步不前。而相对于人类的止步,AI却在大步前行。
一直有传闻OpenAI的GPT-5没有快速发布,是因为他们还在对它的快速进化做更多的限制性功能设置,就连OpenAI的CEO都在担心它可能会产生自我意识。
但最近又有消息透露GPT-5会在12月完成训练,OpenAI的激进做法,让很多人和组织感觉似乎留给人类的时间真的不多了,所以一些组织要求GPT-4推迟GPT-4商业版的发布还是有道理的。至少,要留给人类一些时间能够跟上并管控AI的时间,不然它就会像一头脱缰的野兽,变得难以控制。
关于AI的未来发展的人文与伦理,我会在另一篇文章中跟大家探讨,这里就不展开叙述。
生成式AI的数据泄露再度引起了人们对隐私计算和数据安全的探讨。目前而言解决隐私泄露的方法有两个:一是加强数据安全保护防患于未然,二是通过合成数据从根本上解决数据隐私问题。
其中合成数据算是一个新的思路,它是由计算机人工生产的数据,来替代现实世界中采集的真实数据,以保证真实数据的安全,不存在法律约束的敏感内容和个人用户的隐私。
目前广大厂商已经在布局这一领域,合成数据数量也正在以指数级的速度向上增长。Gartner数据显示,2030年合成数据将远超真实数据体量,成为AI数据的主力军。
但即便合成数据发展再快,却解决不了眼下ChatGPT所带来的安全问题。所以,稳定且安全的智能自动化就显得更加重要。
稳定安全自动化的重要性
从企业经营角度来看,人工智能所带来的最大优势体现在自动化上。或者说借助AI技术,可以让自动化进行得更加彻底。不管是更好的处理数据还是助力运营决策,给予大家最切实的反应就是很多业务可以自动化运行,带来可观的效率与成本。
所以,自动化是企业刚需,AI则可以赋能自动化在不同阶段更好地服务企业。在两者技术的发展进程中,AI技术每实现一定突破,都可以大幅提升自动化在稳定性、适应性、易用性、安全性等各方面的能力。
RPA与AI技术的融合就是一个典型,现在所有RPA产品都已经演变成为深度融合AI技术的智能自动化或者超自动化,在更多业务场景的流程自动化中扮演着越发重要的角色。
所有AI技术,都会通过直接或者间接的方式为组织经营提供不同程度的自动化。现在而言,以ChatGPT、Midjourney等为代表的基于大模型的AI应用,对企业最大的影响也是通过自动化生成各种内容和应用快速变革一些应用场景的业务流程,直接替代一些复杂流程,或者让流程自动化变得更加简单和纯粹。
同时生成式AI与智能自动化相互协同,也让企业打造的人机交互自动化层的运行效率更高。
生成式AI所带来的企业运营变革是巨大的,但潜在的安全因素也是目前其所遇到的最大挑战。
这个挑战说起来挺吓人,但在王吉伟频道(id:jiwei1122)看来将之放到业务流程之中,并不是说数据泄露让企业如何忌惮,而是这种风险所造就的不稳定自动化,开始让大家重估引入生成式AI技术的必要性。
这里所说的稳定自动化,不只是软件系统的稳定运行,还包括数据安全、环境影响、政治因素、地域限制、代理应用等各种可能影响稳定运行的因素。
对于一项新技术的引入与应用,如果不考虑各种风险,就会出现很多问题。比如最近有个创业公司就因为引入了ChatGPT而大刀阔斧的裁员,结果前几天ChatGPT大面积封号,以至于公司不能正常运转了,重新开始招聘。
在这一波封号潮中,很多正规公司的账号都难以幸免,或多或少会影响企业的经营。
通过自动化系统控制生成式AI
相对于ChatGPT在数据泄露等方面的不稳定,目前正在流行的基于RPA、低代码、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自动化和超自动化解决方案就稳定的多。
在生成式AI之前,智能自动化已经实现了对话式流程创建,通过关键词指令触发去创建流程。现在很多RPA产品都已经集成了GPT,主要应用是通过自然语言交互生成各种流程创建和执行各种命令。
用生成式AI驱动部署在本地或者云服务上的智能自动化执行业务操作,比如让RPA执行表格创建等,远比直接用ChatGPT在云端生成相关内容再返回要安全得多。
一定程度上,这种模式也算是应用生成式AI但把数据泄露风险降到最低的解决方案。如果企业能够像三星一样开发内部AI工具对交互内容做一定的限制,安全系数可以做到更高。
人为因素导致数据泄露在数据安全中占了很高的比重,生成式AI则把这个因素进一步放大了。毕竟要生成更符合需求的内容就要给他一定的数据,有人甚至会给它喂十几本书。给他的数据越多,泄露数据的风险也就越大。因此把操作人员的行为规范做好并进行一定的监管,可能比想尽办法限制技术更重要。
王吉伟频道认为,现阶段如RPA集成ChatGPT这样,基于已有自动化系统和相应的技术限制并间接使用生成式AI,对于稳定的自动化有着一定的必要性。三星SDS早已集成了GPT,如果推广使用的是RPA+GPT的解决方案,相当于在员工与ChatGPT之间加入了一个中间隔离层,数据泄露问题可能也要小得多。
在企业数据安全方面,很多企业服务领域的厂商都会引入相应的安全标准及认证,通过外部审查、内部自查等方式完善自身以及所提供的服务的安全体系。大型厂商以及融资到C轮以后颇具规模的创业公司,也会引入相应的安全规范。
以RPA厂商而言,像来也科技、弘玑Cyclone等已在安全方面会引入SOC 2、ISO 27001等多项安全相关的认证。
这些认证,可以保证企业在运营中能够遵守相关规范,也保障了他们对外输出的产品和服务的安全性。而在这个基础上打造的智能自动化+生成式AI的解决方案,可以让自动化更加稳定。
所以从这个角度而言,“软件系统+生成式AI+数据安全”的自动化解决方案,或许更容易被广大企业所接受。
后记:技术应用适当取舍
说到最后,上述种种情况,似乎就是一个软件或者解决方案的全生命周期问题。你要为企业提供服务,就要为用户进行全方位的考虑。既然大家想要应用生成式AI,自然要解决用户的所有顾虑。
相信过不了多久,OpenAI或者微软也将会解决这个问题,生态商家们也会推出完善的解决方案。不然,ChatGPT在领域的落地与应用将是一个大问题。
同时除了直接调用API,OpenAI还可以与广大企业合作进行模型部署与微调业务,让大型企业能够在本地或者自有云系统上部署自己的模型,否则在数据安全隐患的影响下大部分企业都会望ChatGPT生叹了。
所以相对ChatGPT,百度文心一言帮助企业构建自己的模型和应用的模式,将会更受广大组织的欢迎。
事实上,这个世界本来就没有绝对的安全,使用什么样的技术、工具乃至于人,都会伴随着一定的风险。这个前提下,大家要做的,也就是在价值或者利益思考之后的取舍,仅此而已。
这样想的话,是不是就简单多了。
全文完
【王吉伟频道,关注AIGC与IoT,专注数字化转型、业务流程自动化与RPA,致力于探索AIGC时代产业发展与升级新机会,欢迎关注与交流。】