机器之心报道
机器之心编辑部
OpenAI 的 GPT-4 可以处理的上下文 token 最多可达 32k(约 50 页文本)。如今,前 OpenAI 员工创建的 Anthropic 公司再次升级了对标模型 Claude,将上下文 token 扩展到了 100k,处理速度也大大加快。
最近一段时间,OpenAI 凭借 GPT 系列模型以及 ChatGPT,一直是最受关注的研究机构。但最近两年,一家 AI 初创公司正在走进大家的视野,这家公司名为 Anthropic,成立于 2021 年,专注于开发通用 AI 系统和语言模型,并秉持负责任的 AI 使用理念。
不知大家是否还记得 2020 年末,OpenAI 核心员工集体离职事件,当时这件事在 AI 圈还引起了不小的轰动。Anthropic 就是由这些离职的人员创建的,其中包括 OpenAI 前研究副总裁 Dario Amodei、GPT-3 论文一作 Tom Brown 等人。
今年一月,Anthropic 已筹集了超过 7 亿美元的资金,最新一轮的估值达到了 50 亿美元。与此同时,在 ChatGPT 发布两个月后,这家公司就迅速开发了一种对标老东家 ChatGPT 的人工智能系统 Claude。
Claude 申请访问地址:
https://www.anthropic.com/earlyaccess
Claude 使用了 Anthropic 自行开发的一种被称为「constitutional AI」的机制,其旨在提供一种「基于原则」的方法使 AI 系统与人类意图保持一致。
Claude 可以完成摘要总结、搜索、协助创作、问答、编码等任务。根据用户反馈,Claude 生成有害输出的可能性较小,更容易进行对话,并且更易于控制。除此以外,Claude 还可以根据指示来设定个性、语气和行为。
不过 Anthropic 并没有提供关于 Claude 的太多技术细节,但在论文《Constitutional AI: Harmlessness from AI Feedback》中描述了 Claude 背后技术,感兴趣的读者可以前去查看。
论文地址:
https://arxiv.org/pdf/2212.08073.pdf
早在一月份,就有研究者对 Claude 一次性可以处理的最大文本量进行了测试,显示 Claude 可以回忆起 8k 个 token 中的信息。
时隔没多久,本周四,Anthropic 推出了 100K Context Windows,它将 Claude 的上下文窗口从 9k token 扩展到了 100k,这相当于 75,000 个单词。这意味着企业可以提交数百页材料让 Claude 消化和解释,并且与它的对话可以持续数小时甚至数天。现在可以通过 Anthropic API 访问 100K context windows。
我们知道,大模型越先进,能够同时处理的文本就越长,7.5 万字是个什么概念呢?大概相当于一键总结《哈利波特》第一部。
看起来绝大多数论文、新闻报道和中短篇小说都不在话下了。
Claude 再进化:真「AI 量子速读」
根据科学研究,普通人可以在 5 小时左右的时间里阅读 100,000 个 token,并可能需要更长的时间来消化、记忆和分析这些信息。现在 Claude 可以在不到 1 分钟的时间里完成这些。
上下文窗口的一般计算。
Anthropic 首先将《了不起的盖茨比》的整个文本加载到了 Claude-Instant(72 K tokens,Claude 两个版本 Claude 和 Claude Instant,Claude 是最先进的高性能模型,而 Claude Instant 是更轻、更便宜、更快的选择。)中,并修改了一行「Carraway 先生是一位在 Anthropic 从事机器学习工作的软件工程师」。当 Anthropic 要求模型找出与原文的不同之处时,它会在 22 秒内给出正确答案。
除了阅读长文本之外,Claude 还有助于从文档中检索信息,从而对业务运营产生助益。用户可以将多个文档甚至一本书放入 prompt 中,然后向 Claude 提出问题(需要对文本的很多部分进行综合知识分析)。对于复杂的问题,这可能比基于向量搜索的方法有效得多。Claude 可以按照用户的指令返回他们正在搜寻的信息,就像人类助手一样。
Anthropic 接着将大语言集成工具 LangChain API 开发者文档(240 页)放入模型中,然后针对所提问题给出了使用 Anthropic 语言模型的 LangChain demo。
与此同时,100k token 可以转换为 6 个小时左右的音频。AssemblyAI 对此做了很好的演示,他们将一个长播客转录为了近 58k 个单词,然后使用 Claude 进行摘要总结和问答。
图源:AssemblyAI
总之,使用 100k context windows,用户可以做到如下:
有网友用以下梗图形象地描述了 Context Windows 与 Claude 100k、GPT-4 32K 的关系。
图源:推特 @nathanwchan
至于价格,Anthropic 技术人员 Ben Mann 表示,100K Context Windows 的百万 token 售价与以往模型一样。
参考链接:
https://www.anthropic.com/index/100k-context-windows
https://www.anthropic.com/index/introducing-claude
https://scale.com/blog/chatgpt-vs-claude
武汉广播电视台科技生活频道 2024-11-06
武器科技 2024-11-06
CCTV兵器科技频道 2024-11-06