当前位置:首页|资讯|生成式AI

Salesforce的B端AI思路:安全可靠最重要

作者:华尔街见闻发布时间:2023-09-13

原标题:Salesforce的B端AI思路:安全可靠最重要

B端客户应用生成式AI服务过程里,最大的痛点是什么?Salesforce相信他们已经找到了:安全问题。

当地时间周二, 在Salesforce年度客户大会Dreamforce上,公司官宣两大AI重磅更新:1)更加安全可靠的聊天机器人Einstein Copilot;2)底层安全架构Einstein Trust Layer(爱因斯坦信任层),能够阻止LLM开发商利用客户数据训练AI。

公司CEO Marc Benioff在开场的演讲中直接痛批市场上所有AI聊天机器人:

“这些系统很好,但并不出色。它们会给出有误的答案。你可以称之为幻觉(Hallucination),但我称之为谎言。这些LLM是非常有说服力的骗子。”

他还表示,对AI开发者使用企业数据来训练模型的担忧,也让许多B端客户不愿意使用AI。

他补充说:

“很多首席信息官说'我还没准备好把我的数据交给这些LLM来让他们的系统变得更智能。”

他的担心不无道理。芯片制造商AMD 8月份发布的研究表明,在全球5000名受访的IT决策者中,有一半以上表示,由于担心数据安全,他们的企业还没有准备好采用人工智能系统。三星是众多禁止员工使用ChatGPT等聊天机器人的公司之一,因为该公司担心敏感信息可能会被用于训练大模型。

通过“信任层”,客户可以安全地使用大模型,而不必担心信息泄露的风险。只要通过Salesforce平台上接入大模型(如OpenAI的GPT-4),客户传输的信息就能始终保密,AI开发人员无法保留这些数据,也不能将这些数据用于训练。

Marc Benioff表示:

“我们不看你的数据,你的数据不是我们的产品。我们是来让你变得更好、更有生产力、更成功的。”

Einstein Copilot也和其他AI聊天机器人不一样。Salesforce强调,相比其他产品,Einstein Copilot能够显著减少胡编乱造现象出现的频率。

不过,值得指出的是,目前还没有已知的方法可以完全消除大模型的幻觉问题。

Einstein Copilot目前正处于测试阶段。Salesforce没有提供预计的发布日期。公司称,“信任层”将于10月在Salesforce AI平台上全面推出。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1