当前位置:首页|资讯|人工智能

生成式人工智能在数据分析中的 4 个使用案例及最佳实践

作者:雅各布专栏发布时间:2024-01-03

原标题:生成式人工智能在数据分析中的 4 个使用案例及最佳实践

~~~雅各布专栏——专注行业第一品牌商业模式研究~~~

来源Kevin Lobo

对许多人来说,生成式人工智能在数据分析生态系统中的实际应用仍不明确。在这篇内容中,我们概述了四个重要用例,在这些用例中,我们看到企业在数据分析战略中应用了生成式人工智能,以加速从数据中获得价值,我们还提供了将生成式人工智能整合到数据战略中的注意事项和最佳实践,包括技术选项。

  • 使用案例 #1:代码生成 ↵

  • 使用案例 #2:聊天机器人和虚拟代理 ↵

  • 使用案例 #3:可视化和仪表板布局的自动生成 ↵

  • 使用案#4:应用程序、自动化和工作流 ↵

  • 生成式人工智能的注意事项 ↵

  • 生成式人工智能的技术选择 ↵

  • 成功使用生成式人工智能的技巧 ↵

用例 1:代码生成

生成式人工智能的一个核心用例是在生成初始代码时实际应用大型语言模型(LLM),从而加快整个开发生命周期。我们并不认为生成式人工智能可以完全取代结构严谨、用意明确的代码;但是,自动生成模板代码(或针对特定用例创建的活代码库)所带来的生产力提升,在正确操作的情况下,可以加快交付团队的速度。

基于文本的 LLM 的另一个实际应用是将遗留代码库转换为目标代码库,并作为迁移加速器提供帮助。这方面的一个基本例子是分析迁移场景,例如将 Qlik Sense 报告转换为 Power BI。此类项目的一个基本要素是将 Qlik 专有语法重构为报表前端的 DAX 代码。通常情况下,这需要一个同时精通两种工具库的人员。生成式人工智能可将所有基本表达式从 Qlik 语法转换为 DAX,从而加快解决方案本身的交付。

用例 2:聊天机器人和虚拟代理

对于那些想在网站上添加聊天机器人以扩展客户服务选项的人来说,基础广泛的 LLM 的出现使得聊天机器人的实施和推出比过去更加容易。在前端分析中集成聊天机器人可以为现有报告增加一个引人注目的上下文维度,而不受可视化本身的影响。

云平台正在快速构建 "数据导入 "功能,以便针对您自己的数据集部署认知搜索服务和现成的 LLM,因此入门门槛越来越低。然后,这些聊天机器人可以通过 API 集成端点或本地应用程序部署(取决于我们选择的超级分级器)集成到工作流中,LangChain 等开源框架也可以以类似方式部署。

用例 3:可视化和仪表板布局的自动生成

可视化和图表元素的生成可以根据 BI 工具的本地人工智能功能的自动提示建议来实现,同样的可视化美学也可应用于利用相同功能构建整个报告布局。

这对于创建新的仪表盘和改进随着时间推移变得不那么直观的现有可视化效果来说,可以大大节省时间。

用例 4:应用程序、自动化和工作流

轻量级应用程序接口(Zapier、Power Apps、Power Automate)可以利用对 GPT 和 LLM 模型的 API 调用来创建简单的操作/触发响应应用程序。想想在什么情况下,您可以训练 GPT 采用客户服务代理的角色,或搜索公司内网以获取关键信息,并通过表单应用程序返回这些信息。

还可以建立简单的自动化,例如对入站咨询或利用触发机制生成自动提示的电子邮件进行表单电子邮件回复。

生成式人工智能注意事项

虽然生成式人工智能具有巨大的潜力,但在数据战略中采用生成式人工智能之前,也应考虑到某些风险:

  1. 证据基础:生成式人工智能依赖于 LLM 和神经网络,这些过程通常会产生无限的排列组合来传达结果集。这对阐明特定代码、设计选择或指导作为整体流程一部分的理由提出了明显的挑战。

  2. 数据的安全、知识产权和个人隐私风险:易用性是生成式人工智能的核心卖点。这也会带来挑战,因为如果没有适当的防护栏,敏感、专有或个人身份信息可能会被包含在训练数据集中。

  3. 准确性:公开访问的 LLM(如 ChatGPT)由开源互联网提供支持。在基于私人组织的环境中,同样的 LLM 只能与所提供的训练数据或元数据一样准确。结果集的准确性可能会受到进入模型的数据质量的负面影响。

  4. 成本:虽然进入门槛从未如此之低,但成本超支的可能性却从未如此之高。通过 LLM 进行认知搜索是一项计算密集型操作。在将 LLM 部署到生产环境之前,要高度了解部署和运行 LLM 的成本影响。

生成式人工智能的技术选择

大多数主流分析工具都提供不同形式的生成式人工智能功能,以下是您可以用于生成式人工智能的工具列表及其典型应用。

  • 微软

Azure OpenAI 服务支持使用大规模生成式人工智能模型。该工具包含预训练模型以及自定义人工智能模型选项,有基于令牌和图像的定价模型可供选择。

Copilot 允许在 Power BI 中生成可视化、报告洞察、DAX 表达式和叙述性摘要。

  • Qlik

Qlik 提供一套 OpenAI 连接器。OpenAI Analytics Connector 允许在前端 Qlik Sense 应用程序中生成内容,OpenAI Connector for Application Automation 允许开发人员在创建表达式、命令或脚本时增强工作流程。

  • 谷歌

Vertex AI 可在应用程序中定制和嵌入模型。可以使用 Vertex AI 上的 Generative AI Studio 对模型进行调整。

Generative AI App Builder 是一个入门级 Generative AI 生成器,允许开发人员构建和部署聊天机器人和搜索应用程序。

  • AWS

AWS Bedrock 是 AWS 提供的一项全面管理服务,可将第三方 LLM 和亚马逊的基础模型用于开发和部署生成式人工智能应用。

  • Tableau

Tableau Pulse 由基于 Einstein GPT 的 Tableau GPT 提供支持。Tableau Pulse 允许进行自动分析,并能通过自然语言和可视化格式显示见解。

  • 西格玛

Sigma AI是该平台内置的一整套人工智能功能,其中包括 输入表人工智能(Input Tables AI)允许用户构建人工智能生成的输入表;自然语言工作簿(Natural Language Workbooks)允许自然生成的文本在 Sigma 中生成工作簿元素;Helpbot 是一个聊天机器人,通过索引 Sigma 中的所有帮助和社区文章为用户提供帮助。

  • 语言链

LangChain是一个开源框架,允许使用大型语言模型的开发人员连接其他外部组件,以创建基于 LLM 的应用程序。通过 LangChain,可以利用提供商(OpenAI、Hugging Face 等)提供的 LLM 和各种数据源构建应用程序。

使用生成式人工智能的成功技巧

  • 了解开放式生成式人工智能平台的机制

熟悉开放式生成式人工智能平台的机制,了解平台本身是如何运作的。掌握结构化提示,了解生成最佳结果所需的冗长度。熟悉 ChatGPT 等平台的门槛非常低。

提示:如果有必要,可以调整模型中的 "温度"(ChatGPT 的温度范围为 0.1-0.9),以改变回复的语气。

  • 将主提示设置为标准

语气对于我们如何使用生成式人工智能极为重要。如果您要利用生成式人工智能作为一种机制,在整个组织内创建标准内容,那么将主提示设置为标准至关重要。这需要创建两个声明性语句:第一个是关于你的组织是谁的声明,第二个是关于你希望 LLM 在交流中采用的语气的声明。通过设定主提示标准,生成的文本将在沟通中采用一致的结构和感觉,并降低全公司沟通中采用不同声音的可能性。

  • 了解成本结构

将生成式人工智能用于一次性的个人使用案例与扩大组织规模相比,成本差异非常明显。成本优化和战略必须坚定不移,以免在最初将解决方案推广到生产中时出现重大超支。建议在开发过程中严格控制成本和使用模式,并在初期相对限制开发权限,以规范企业内部的研发工作。

  • 制定坚定的数据战略

在推出人工智能之前,您需要了解数据的存放位置以及数据的维护和结构。作为数据战略的一部分,您还需要强有力的数据管理协议。

  • 规划一个强大的用例

在没有明确使用案例的情况下,生成式人工智能只是另一种独特的工具。想一想企业内部的核心流程,以及如何利用人工智能生成技术实现工作流程自动化。

  • 将数据隐私放在首位

确保只有在正确协议下的正确数据才能进入您的 LLM。可以采取一些简单的步骤,例如关闭聊天记录和 ChatGPT 培训。在将开发扩展到主要云平台提供商时,了解数据保留政策以及在将提示转化为响应的过程中数据的最终存储位置等事项至关重要。

  • 继续丰富您的数据和支持元数据

这是在封闭的企业环境中有效使用 LLM 的先决条件。开放源码 LLM(如 ChatGPT、Bard 和 LLaMA)之所以吸引人,正是因为它们的转换器模型消耗了大量来自开放互联网的信息。企业数据的丰富程度以及用于培训的数据量,将是实现与开源 LLM 类似的吸引力的关键因素。

  • 在通用 LLM 和特定领域 LLM 之间做出选择

哪种方法最适合您的需求?特定领域的 LLM 使用垂直用例(如 BloombergGPT)的特定数据进行培训,而一般用途的 LLM 可能无法理解提示中的行业特定术语。

  • 了解您的云平台

云平台(AWS、Microsoft、Google)都在竞相为大众提供可访问的 LLM 开发和部署。每个平台在文档存储、矢量数据库、嵌入模型、LLM 和认知搜索如何共同生成对提示的响应方面都略有不同。要部署聊天服务和生成式人工智能应用程序,必须牢牢掌握必要的服务和资源。同样重要的是,在向更多受众部署这些解决方案时,要了解云平台基于使用的成本结构。

  • 考虑生成式人工智能与商业智能之间的关系

不可否认,LLM 为我们解释和访问数据的方式带来了根本性的转变。在未来,传统的仪表盘和报告方式将被淘汰,因为结构化的提示可以让用户通过中央数据平台来收集和汇总数据,从而获得洞察力。还有一种和平共处的未来,传统商业智能工具利用生成式人工智能形成混合分析。无论其形态如何,最终用户和利益相关者都应牢记生成式人工智能如何增强或在某些情况下取代他们的整体商业智能战略和未来格局。

雅各布专栏活动报名进行中,扫码了解详情

注:最终名单由主办方审核确定


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1