B端客户应用生成式AI服务过程里,最大的痛点是什么?Salesforce相信他们已经找到了:安全问题。
当地时间周二, 在Salesforce年度客户大会Dreamforce上,公司官宣两大AI重磅更新:1)更加安全可靠的聊天机器人Einstein Copilot;2)底层安全架构Einstein Trust Layer(爱因斯坦信任层),能够阻止LLM开发商利用客户数据训练AI。
公司CEO Marc Benioff在开场的演讲中直接痛批市场上所有AI聊天机器人:
“这些系统很好,但并不出色。它们会给出有误的答案。你可以称之为幻觉(Hallucination),但我称之为谎言。这些LLM是非常有说服力的骗子。”
他还表示,对AI开发者使用企业数据来训练模型的担忧,也让许多B端客户不愿意使用AI。
他补充说:
“很多首席信息官说'我还没准备好把我的数据交给这些LLM来让他们的系统变得更智能。”
他的担心不无道理。芯片制造商AMD 8月份发布的研究表明,在全球5000名受访的IT决策者中,有一半以上表示,由于担心数据安全,他们的企业还没有准备好采用人工智能系统。三星是众多禁止员工使用ChatGPT等聊天机器人的公司之一,因为该公司担心敏感信息可能会被用于训练大模型。
通过“信任层”,客户可以安全地使用大模型,而不必担心信息泄露的风险。只要通过Salesforce平台上接入大模型(如OpenAI的GPT-4),客户传输的信息就能始终保密,AI开发人员无法保留这些数据,也不能将这些数据用于训练。
Marc Benioff表示:
“我们不看你的数据,你的数据不是我们的产品。我们是来让你变得更好、更有生产力、更成功的。”
Einstein Copilot也和其他AI聊天机器人不一样。Salesforce强调,相比其他产品,Einstein Copilot能够显著减少胡编乱造现象出现的频率。
不过,值得指出的是,目前还没有已知的方法可以完全消除大模型的幻觉问题。
Einstein Copilot目前正处于测试阶段。Salesforce没有提供预计的发布日期。公司称,“信任层”将于10月在Salesforce AI平台上全面推出。