| CSDN(ID:CSDNnews)
今天,OpenAI 宣布GPT-4 Turbowith Vision 版(具有视觉功能的最新 GPT-4 Turbo 模型)已经通过 OpenAI API 正式上线。
GPT-4 Turbo 是一种强大的多模态模型,能够处理文本和图像输入,并凭借其广泛的常识和先进的推理能力提供准确的输出。
OpenAI 在去年 11 月的DevDay 期间推出了 GPT-4 Turbo,展示了其增强的功能和截至 2023 年 4 月的扩展知识库。凭借 128k 上下文窗口,该模型可以在单个 Prompt 中处理超过 300 页的文本。
时下这个最新的模型保持了原有 GPT-4 Turbo 的 128k 上下文窗口, 模型训练的数据截止日期更新为 2023 年 12 月。而主要更新在于它的视觉功能,可以理解图像和视觉内容。
升级后的 GPT-4 Turbo 模型有望提高性能,并且不久之后也将在ChatGPT中推出。
此前,GPT-4 Turbo 的显著亮点之一是其优化的性能,从而大幅降低用户的成本。与之前的 GPT-4 模型相比,输入 token 的价格现在降低了三倍,而输出 token 的成本则降低了一半,这使得此次升级对不少用户来说既高效又经济,而且还为各种用例打开了新大门。
在 X 平台上,OpenAI 也随之分享了一些开发人员使用该模型的具体方法,例如,AI 软件工程助手 Devin利用 GPT-4 Turbo with Vision 来更好地协助编码。
健康和健身应用 Healthify 使用 GPT-4 Turbo with Vision 扫描用户的膳食照片,并通过照片识别提供对营养的见解。
Make Real 使用 GPT-4 Turbo with Vision 将用户的草图转换成可运行的网站。
一张草图生成一个网站似乎已经逐渐成为了现实。
不过就在 GPT-4 Turbo with Vision正式发布之际,也有一位网友 Paul-Gauthier 对编码功能展开了评测。
有些出乎意料的是,Paul-Gauthier称,「GPT-4 Turbo with Vision 版本在 aider 的编码基准套件中的表现比之前所有的 GPT-4 模型都要差。尤其是,与现有的 GPT-4 Turbo "预览"模型相比,它似乎更容易在编码方面“偷懒”。
代码编辑能力
Aider 依靠代码编辑基准来定量评估 LLM 对现有代码进行修改的能力。该基准使用 aider 尝试完成 133 个 Exercism Python 编码练习(https://github.com/exercism/python)。
对于每个练习,LLM 会尝试两次来解决每个问题:
GPT-4 Turbo with Vision在这项基准测试中的得分仅为 62%,是现有 GPT-4 模型中得分最低的。其他模型的得分在 63-66% 之间时,这个最新的模型只是稍有退步,与 gpt-4-0613 相比差距并不明显。
编码的惰性测试
还记得彼时 GPT-4 Turbo preview 模型因在编码时“偷懒”,受到了不少业界开发者的批评。它们经常省略所需的代码,而在注释中留下“在此处实现方法”之类的语句,如
def some_complex_method(foo, bar):# ... 在此处实现方法 ...
Aider 使用一个“懒惰”基准套件,旨在激发和量化懒惰编码。它由 89 个 Python 重构任务组成,这些任务往往会让 GPT-4 Turbo 以懒惰的方式编码。
新的 GPT-4 Turbo with Vision 模型在 aider 的重构基准测试中只获得了 34% 的分数,是所有 GPT-4 Turbo 模型中最懒惰的编码工具。
完整的评测可以详见:https://aider.chat/2024/04/09/gpt-4-turbo.html
最后,你是否体验上了 GPT-4 Turbo with Vision 版本,有什么样的感受?
来源:
https://www.zdnet.com/article/openai-makes-gpt-4-turbo-with-vision-available-for-developers/
https://twitter.com/OpenAIDevs/status/1777769468996845718
https://aider.chat/2024/04/09/gpt-4-turbo.html