Salesforce在进行的一项调查中发现,在缺乏使用生成式AI明确政策的情况下,64%的受访者承认,他们将使用生成式AI完成的工作看作是自己完成的工作。
即使生成式AI的普及程度持续增长,企业也迫切需要明确定义使用生成式AI的策略,以防止员工使用未经授权的这一工具,这可能会使企业面临一些风险。这是Salesforce最近对14个国家约14,000名全职员工进行的一项重要调查结果。
调查表明,四分之一以上(28%)的受访员工在工作中使用生成式AI,其中一半以上在未经雇主批准或授权的情况下使用生成式AI。值得关注的是,另有32%的受访者表示,他们计划很快开始使用生成式AI。这项调查是Salesforce的Generative AI Snapsho研究系列“AI在工作中的承诺和陷阱”的一部分。
越来越多的员工使用生成式AI的一个关键原因是,他们意识到它可以显著提高工作效率。生成式AI的用户意识到了它的重要性,71%的员工表示生成式AI让他们的工作更有效率,58%的员工认为这项技术让他们在工作中更加投入。
有趣的是,近50%的受访员工表示,开发生成式AI的专业知识将有助于提高他们的工作满意度,使他们在工作中更受欢迎,并将提高收入。
所有这些都预示着生成式AI的快速普及和发展。麦肯锡表示,生成式AI每年可能为全球经济增加2.6万亿美元至4.4万亿美元。
政策的缺失使企业容易受到生成式AI安全风险的影响
尽管生成式AI的使用率不断增加,但缺乏安全和授权工具的政策和明确性正在增加企业的安全风险。在Salesforce今年早些时候进行的一项调查中,73%的受访者表示,他们认为生成式AI存在安全风险。不准确的结果和可能侵犯知识产权是使用生成式AI面临的其他一些风险。
Salesforce的调查表明,在其调查的14个国家中,印度使用未经授权和被禁止的生成式AI工具的比例最高,各行业中有64%的受访员工使用这些工具来促进他们的职业发展。另一方面,荷兰未经授权的生成AI工具的使用率最低,只有43%的员工使用。
缺乏明确定义的使用生成式AI政策使企业容易受到这些风险的影响,并使他们无法利用生成性AI的巨大潜力。根据Salesforce的调查,约79%的企业没有明确定义使用生成式AI的政策。其中,15%的受访者表示在工作中使用生成式AI的政策定义不明确,37%的受访者表示没有在工作中使用生成式AI的政策,其余27%的的受访者表示对此一无所知。
不道德地使用生成式AI
随着未经授权的生成式AI的使用率增加,一些员工正在不道德地使用,包括将生成式AI的工作成果据为己有。将近64%的受访者将生成式AI工作视为自己完成的工作,41%受访者可能会夸大自己的生成式AI技能以确保工作机会。
在Salesforce调查中,其中存在的一个重要问题是缺乏培训。近70%的受访者既没有完成也没有接受过任何有关在工作中安全、道德地使用生成式AI的培训。Salesforce首席道德与人道使用官Paula Goldman在一篇博客文章中表示:“有了明确的指导方针,员工才能理解和应对生成式AI的风险,同时利用其创新来促进他们的职业发展。”