聊天机器人 ChatGPT 已经被亚马逊用于许多不同的工作职能中,包括回答面试问题、编写软件代码和创建培训文档等。根据媒体报道,亚马逊 AWS 部门测试的 ChatGPT 应用实例有:
这与我之前试用 ChatGPT 的经验非常类似,它主要可以完成论述题,回答一些提问,也可以在回答中直接给出伪代码或者可以直接运行的代码片段。新闻中提到亚马逊员工认为 ChatGPT 完成上述任务都比较好或者超出他们的预期,但至少根据文中的语气看,尚在可以接受的范围内,并没有感觉到「惊艳」、亮起「红色警报」或者直接感到自己的职位受到了被替代的威胁。
ChatGPT 在上述应用中依然属于一种工具,它更像是一种进阶的、封装好的搜索工具,它做的事情是「在自己的知识库中搜索到它认为切题的信息,将它们组装成与人类对话的自然语言格式输出」。一般来说,当人类员工使用搜索引擎查找信息时,也必须完成上述步骤。这类步骤如果可以用 ChatGPT 完成,当然能显著地提升工作效率,它对人类员工的作用,目前类似于 Excel 宏或者 Python 这种办公自动化的工具。
ChatGPT 可以理解为对搜索引擎的增强,所以使用者也需要有一种「搜索」心态。在搜索引擎出现之前,一些专业人士的能力表现,是他们强大的记忆力,他们可以直接背诵工作需要了解的内容,被美誉为「活字典」「活地图」。之后这种能力被检索能力所取代,也就是有些人很困惑的「为什么我无论如何都找不到的内容,你这边一搜就有」。虽然假设某种情况让企业断网之后,此类「搜索人才」可能一无是处,但这并不影响他们在当前完成工作的效率更高。今后,检索能力将一定程度让位于 prompt(指令)能力,即所谓的「指令工程学」(prompt engineering)将成为一门「显学」。
ChatGPT 并非能完成同类任务的唯一一种 AI 工具,其它基于 AI 并且输出格式是自然语言的工具,其实各家厂商都在做。典型的是微软的 CRM/ERP 产品 Dynamics 365。根据之前在一次微软中国活动上了解的,当人类话务员接入 Dynamics 365 来处理客服电话录音时,它可以分析顾客谈话中的关键节点,将其中提到的关键词格式化以备查询;如果预先录入的话术中有应对同类问题的部分,它会在屏幕上弹出提示,让话务员想到可以用这一部分知识来回答顾客的问题。它还可以分析出顾客某一段会话的语气,提醒话务员采取恰当的方式应对。
如果熟练使用 ChatGPT,假设岗位数量不变,每位员工在各自岗位上的劳动强度确实会降低。可以预见,在企业需要裁员的时候,可以保留更少的人来完成跟以前相同的工作量。不过,它削减人类劳动力的程度并不能达到 100% 砍掉人类岗位那么「理想」。
人类员工作为 ChatGPT 输出的「把关人」,至少必须完成以下这些工作,在这方面的人力是无法节省的:
1. 事实及准确性核查。ChatGPT 在自然语言输出方面做了专门的训练,特别擅长「一本正经地胡说八道」,在输出成品中经常出现「逻辑自洽」的事实错误。由于 ChatGPT 本身不接入搜索引擎,它自身无法更正自己的错误。如果人类使用者也不知道某个知识,就会被 ChatGPT 误导。
曾有第三方插件通过将搜索结果作为 prompt 喂给 ChatGPT 来让它变相「联网」,我也用过这个插件,但这样的结果是这会「阉割」ChatGPT 使用自身知识图谱的大部分能力,它最终只会将你 prompt 提到的事实碎片原样用人话翻译整理出来,因此结论也是干巴巴的。它甚至无法看到更完整的段落,即使你贴出 URL;受限于它无法联网,ChatGPT 只能将 URL 当作一种你声明你所说的是事实的凭证。
2. 企业内部合规及保密的要求。目前 ChatGPT 暂时是一棵「独苗」,针对它的 prompt 工程也(很)可能不适用于其它同类的 AI 聊天产品。使用 ChatGPT 可能意味着员工过于依赖单一公司的单一产品,在亚马逊的案例中,鉴于 OpenAI 跟微软走得很近,它还是亚马逊的潜在竞争对手。
谷歌等搜索引擎随着互联网一同成长,对它们早已有比较深度的道德与法律规范,其中最重要的原则之一就是中立。然而 ChatGPT 没有搜索引擎这样的中立义务。考虑到有些企业都担心用微信群交流会泄露内部机密,开发了自己的企业 IM,使用 ChatGPT 的风险只会更大。
亚马逊自身的内部审视则提出了另一个问题,ChatGPT 的原理使它无法准确区分某些商业机密的内容输入,所有这些内容会一锅端地被训练,并且对全网使用者开放,如果在 ChatGPT 录入机密内容,变相就是把它们随机「开源」。所以,公司的此类人才应该同时学会使用除 ChatGPT 之外的其他工具,来完成同类任务的能力。
本文来自微信公众号 “航通社”(ID:lifeissohappy),作者:书航,36氪经授权发布。