过去几个月,有关大语言模型(large language models ,简称LLM,如OpenAI的ChatGPT、谷歌的Bard、Anthropic的Claude、Meta的LLaMA,以及最近的GPT4)影响的炒作层出不穷,也引发了诸多猜测。特别是ChatGPT,仅在两个月内用户量就达到了1亿,成为有史以来增长最快的消费级应用程序。
大语言模型能带来何种影响目前尚不清晰,各方对此的意见也大相径庭。许多专家认为,大语言模型根本掀不起多大风浪(早期学术研究表明,大语言模型仅具备形式上的语言能力),或者说,即使有近乎无限的文本训练数据,该技术仍受到严重限制。
包括伊桑•莫立克(Ethan Mollick)的另一派则持相反观点:“能够理解这一变革的意义并率先采取行动的企业将在未来竞争中占据巨大优势。”
我们现在能够确定的是,生成式AI(generative AI)给了公众很大的想象空间,它可以草拟稿件,也能即时回答用户提问,但我们也知道,生成式AI在准确性和伦理方面仍有问题尚待解决。
尽管这项新技术还存在一些问题,但各大企业都已开始探索该技术的应用之道。那么有没有办法突破当前这种针尖对麦芒的争论、炒作和夸大,并且找到该技术的第一批应用场景呢?我们认为答案是肯定的。
风险方面,产生并传播不真实、不准确信息的可能性有多大?又能产生多大破坏?需求方面,在这波热潮平息之后,对这种技术真实可持续的需求有多大?
不妨将这些变量放在一起,综合考虑。我们可以绘制一个2×2的矩阵,以此对该技术未来在各行各业的应用前景有个更细微、更具体的判断。事实上,不同行业、商业活动所面临的风险和需求确实各不相同。我们将一些常见的跨行业使用案例放在了下面的表格之中。
想一下你的业务职能或行业的定位。在你的使用案例中,引入人工验证步骤可以降低多少风险?又会对该技术的推广进程和客户需求产生多大影响?
左上角方框中所列的业务,因为出错的影响较小,市场需求也较高,必然会发展得更快、走得更远。
对于这些应用案例,企业本身就有动力去寻找解决方案,而且成功的阻碍也较少。我们将会看到,既有企业会直接将既有技术付诸使用,也会有企业开发出第三方工具,利用生成式AI和自己的API为特定领域服务。
这种情况在营销领域已经出现,一些初创公司创造性地将大语言模型用于内容营销的文案和创意工作,并一举跻身独角兽行列。市场营销需要构思大量的创意,进行一次次迭代,向特定受众传递特定信息,还需要制作能够吸引、影响受众的重文案信息。
换句话说,在这一领域,生成式AI有明确的应用场景,市场也有明确的需求。重要的是,还有大量的语料可以用来指导AI匹配文案的风格和内容。另一方面,大多数营销文案并不涉及很多事实性内容,即便涉及一些重要事实,也可以在编辑时进行纠正。
通过观察上述矩阵,我们可以发现,市场上还有一些机会受到的关注较少,比如学习。像市场营销一样,在编写学习内容时(以企业内部学习工具为例),我们也需要弄清楚受众的兴趣所在,要有引人入胜、富有成效的内容。
可能也有一些可以用于指导生成式AI工具的内容。你可以使用既有文件对其进行训练,然后要求其对你手头的材料进行再创作、综合概括或更新,从而更好地服务不同受众,或者使学习材料更能适应不同的应用场景。
借助生成式AI,我们还可以改变学习材料的提供方式,比如将其融入日常工作流程,或者取代臃肿的FAQ、知识中心和票证系统。(拥有OpenAI49%股权的微软已在进行这方面工作,并计划在年内发布一系列产品)。
在高需求、低风险框格中列出的其他用例也符合类似逻辑:涉及大量人工作业,同时即便AI在处理事实性事务时存在偏差也不会造成太大风险。
我们以要求AI审核文本为例:你可以先输入一段文稿,给其一些指示(如“添加细节信息”“缓和文本语气”“概括五个要点”或者“给出建议,让文本变得更为简洁”),然后对其给出的建议进行检查。作为第二双眼睛,这项技术现在已可付诸应用。
如果你想要一些头脑风暴的素材,比如在雇用现代多媒体设计师时要采取哪些步骤,或者可以给喜欢火车的四岁孩子买什么生日礼物等,生成式AI是一种快捷、可靠且安全的选择,因为这些想法很可能不会出现在最终产品之中。
你可以将自己公司或团队面临的任务填入上方的“2×2”矩阵,帮助自己找到其中的相似之处。通过评估风险和需求,并考虑相关特定任务的共通点,生成式AI可以帮助你找到工作的切入点,建立联系,发现机遇,还可以帮你确定哪些工作不值得投入时间和资源。
至于其他三个象限中所列的业务,则不必急于投入其中。在需求较弱时,大家在这些业务上利用或开发该技术的动力就不大了。比如以莎士比亚笔下海盗的风格填写俳句,现在或许可以博君一笑或令你感到惊奇,但这样的小把戏不会吸引我们太久。
如果风险较高,那么即便存在需求,普遍忧虑和监管也会减缓技术普及的步伐。你可以自己画一个矩阵,对于列在这三个象限中的用例,不妨搁置一段时间。
温馨提示:即使在前文提到的低风险企业学习领域,风险也依然存在。和人类一样,生成式AI也容易受到偏见和错误的影响。如果你想当然地觉得生成式AI系统输出的内容质量过关,并立即发送给全体员工,可能会面临很多风险。你需要在速度和质量之间找到合适的平衡。
因此,我们最好将生成式AI最初输出的内容作为初稿。然后用一两个更详细的指示对其加以改进。然后自己再修改一遍,增加一些短期内只有人类掌握的现实知识、细节,甚至艺术感和幽默感。
马克·赵·桑德斯(Marc Zao-Sanders)马克·拉莫斯(Marc Ramos)| 文
马克·赵·桑德斯是filtered.com首席执行官兼联合创始人。filtered.com开发有用于理解企业技能和学习内容的算法技术。马克·拉莫斯是Cornerstone首席学习官。Cornerstone是学习管理与人力资源管理技术领域的领导企业。马克在学习管理领域已有25年的领导经验,曾在谷歌、微软、埃森哲、甲骨文等公司供职。
本文来自微信公众号 “哈佛商业评论”(ID:hbrchinese),作者:马克·赵·桑德斯(Marc Zao-Sanders)马克·拉莫斯(Marc Ramos),36氪经授权发布。