原标题:2023.11.7 OpenAI开发者大会汇总
汇总下,2023.11.7 OpenAI 开发者大会的信息 。
主要内容
表格来自 AI资讯日报
文字版
来自@xiaohuggg
- GPT-4 Turbo模型:
- 能力:比前一代GPT-4更强大。
- 知识更新:知识覆盖到2023年4月的世界事件。
- 上下文窗口:拥有128k的上下文窗口,能够处理相当于300多页文本的内容。
- 性能优化:性能得到优化,价格降低,输入令牌价格降低3倍,输出令牌价格降低2倍。
- 新的助手API(Assistants API):
- 目的:帮助开发者构建具有目标的辅助AI应用程序。
- 功能:可以调用模型和工具,进行任务执行。
- 应用范围:从自然语言数据分析应用到编码助手,再到AI驱动的假期规划器等。
- 多模态能力:
- 视觉:平台新增了视觉功能。
- 图像创建:集成了DALL·E 3。
- 文本到语音(TTS):新增了文本到语音转换功能。
- 功能调用更新:
- 描述:允许描述应用程序的功能或外部API。
- 智能选择:模型可以智能地选择输出包含调用这些功能的参数的JSON对象。
- 改进的指令跟随和JSON模式:
- 指令跟随:在需要仔细遵循指令的任务上表现更好。
- JSON模式:支持新的JSON模式,确保模型以有效的JSON格式响应。
- 可复现输出和对数概率:
- seed参数:使模型能够返回一致的完成结果。
- 用途:对于调试、编写单元测试等场景非常有用。
- 更新的GPT-3.5 Turbo:
- 上下文窗口:支持默认16K上下文窗口。
- 改进:在指令跟随、JSON模式和并行功能调用方面进行了改进。
- 助手API、检索和代码解释器:
- 助手API:允许开发者创建具有特定指令的AI。
- 检索:从模型外部增加知识,如专有领域数据。例如专有领域数据、产品信息或用户提供的文档。
- 代码解释器:在沙盒执行环境中编写和运行Python代码。允许 Assistants 迭代运行代码来解决具有挑战性的代码和数学问题等等。
- 新的API模态:
- GPT-4 Turbo视觉:可以接受图像作为输入。
- DALL·E 3:现在可以通过Images API直接集成到应用程序和产品中。
- 文本到语音(TTS)API:现在可以从文本生成人类质量的语音。
- 模型定制:
- GPT-4细微调整:提供了细微调整的实验性访问。
- 定制模型程序:为需要超出细微调整提供的定制化程度的组织提供了定制模型程序。
- 降低价格和提高速率限制:
- 价格降低:平台降低了多个价格。
- 速率限制提高:为所有付费GPT-4客户提高了每分钟令牌限制的两倍。
- 版权保护:
- 版权保护盾:如果客户面临版权侵权的法律索赔,OpenAI将介入并支付费用。
- Whisper v3和一致性解码器:
- Whisper large-v3:发布了下一版本的开源自动语音识别模型。
- 一致性解码器:为Stable Diffusion VAE解码器的替代品,改进了与Stable Diffusion 1.0+ VAE兼容的所有图像。