生成式AI正势如破竹,如日中天。供应端也好,应用端也罢,都在积极拥抱生成式AI,生怕错失发展的良机。不能忽视的是,生成式AI还存在很多问题悬而未决,有人更是担心,如果监管不力,其带来的伤害远甚于其价值。前瞻性新兴技术咨询公司Enderle集团总裁兼首席分析师Rob Enderle近日撰文称,生成式AI有三个问题尚未解决。
他在文中写道,生成式AI继续席卷全球,但人们越来越担心,如果不积极加以管理和监管,这项技术可能会造成很大的伤害。除了担心技术做出决策和自主做事违背我们的利益之外,其他方面涉及相关的训练集。
用于评估员工的生产力训练集越来越多地捕获员工所做的一切;跟踪机密文件、作品和产品的创建;并最终用于创建采用了该技术的组织的数字孪生。
滥用训练集
随着员工越来越多地使用生成式AI,生成式AI将捕捉他们所做的一切。使用这些数据来监控员工在工作日的表现似乎是这些培训数据的明显用途。但员工可能会觉得他们的隐私受到侵犯。如果不注意将员工行为与结果联系起来,公司可能会做出错误的决定。
例如,长时间工作但效率相对较低的员工可能被视为比工作时间短但效率高的员工更好。如果重点是工作时间而不是结果,不仅训练集会偏爱效率低下的行为,而且本来应该留下来的员工却可能因此被淘汰。
正确的方法是在员工的许可下做这些事情,并保证人工智能将用于增强而不是取代;将重点放在效率上,而非直接的工作时长。通过这种方式,训练集可用于创建更高效的人力资源工具和数字孪生,并培训员工如何提高效率。
让员工知道基于AI的工具是来提供帮助的,而非惩罚性工具,员工就更有可能接受这一技术。
安全问题
还有另一个潜在的风险是:通过捕捉员工行为创建的数据集本身可能具有高风险。这是因为它们可能包含高度专有的产品、流程和内部运营,竞争对手、监管机构和敌对者可以利用这些产品、流程和内部运营来深入了解公司的运营。
访问工程师、工程经理或高管的训练集可以深入了解他们如何做出决策、他们做出了哪些决定、对未来产品的计划及其状态、公司内部的问题,以及公司希望保密的秘密。
即使隐藏了特定的来源,聪明的研究人员也可以仅从内容的性质和细节中确定它的贡献者,以及员工做了什么。这些信息可能对敌对者或竞争对手非常有利,需要得到保护。由于这些工具增强了每个员工个人的工作,因此离职或居家办公的员工逃脱惩罚的可能性很高。
如此可见,防范这种情况对于公司的持续运营至关重要。
更好也会更糟
一旦你整合了整个公司的训练集,你就可以深入了解公司的运营,公司就会向更加高效和高利润的公司发展。当然,如果这些信息被监管机构或敌对律师掌握,他们就可以针对不法行为提供几乎无可指摘的证据。而如果竞争对手可以访问到此类信息,他们就可以有效地创建公司的数字克隆,并使用它来更好地预测和更积极地响应公司使用生成式AI的竞争行为。
这种程度的竞争曝光是前所未有的,如果竞争对手获得公司的训练文件,就可能有效地让受害公司破产。
生成式人工智能是一个真正的游戏规则改变者,但风险也如影随形。我们知道它还没有成熟,也知道它给出的答案并不总是可信的,我们知道它可以用来创建化身,旨在欺骗我们购买我们似乎不需要的东西。虽然它带来提高员工生产力的机会,但也可能会成为巨大的安全风险。