GPT-4o mini 支持用户以更低的成本、更快的速度交付出色的应用程序。GPT-4o mini 的智能水平显著高于 GPT-3.5 Turbo——在“大规模多任务语言理解”(MMLU)中得分为 82%,而GPT-3.5 Turbo 为 70%——且成本降低了 60% 以上。GPT-4o mini 提供了扩展的 128K 上下文窗口,并集成了 GPT-4o 改进的多语言能力,带来了更高质量的全球语言支持。
企业如何合规、稳定使用ChatGPT以及Copilot?
出于合规角度,建议国内企业可以选择微软的Azure OpenAI服务来使用接口。
通过微软官方合作伙伴获取服务,企业用户可以合规、稳定地使用ChatGPT,满足国内发票需求,同时也能解决连接不稳定/响应速度慢/并发配额低等问题。
作为微软的合作伙伴,全云在线可为企业开通绿色申请通道!包括最新版本GPT-4o、Dalle-3等,只要企业有需求,全云在线都能协助快速开通!
微软 Azure OpenAI 免费试用申请:
https://azureopenai.cloudallonline.com/?zxwsh62
另外有需要可以关注【全云在线】gz号,进OpenAI技术开发交流裙
OpenAI 发布的 GPT-4o mini 现已在 Azure AI(国际版) 上同步推出,以卓越的速度支持文本处理功能。图像、音频和视频处理功能将在不久之后推出。您可在 Azure OpenAI Studio(国际版)Playground 中免费试用。
我们对利用 GPT-4o mini 提升的新用户体验尤为兴奋,特别是助手、代码解释器和检索等流媒体场景,这些场景将受益于 GPT-4o mini 模型的强大能力。例如,我们在 GitHub Copilot 智能副驾驶® 测试时看到了 GPT-4o mini的惊人速度。GitHub Copilot 智能副驾驶® 是一个 AI 编程助手,会在用户代码输入的停顿间隙提供代码补全建议,并伴随着每个新字符的输入迅速更新代码建议。
我们还宣布了对 Azure OpenAI 服务(国际版)的更新,包括为 GPT-4o mini 扩展默认安全功能、扩展的数据驻留、全球“即用即付”以及性能升级。
安全性始终是高效使用和信任的关键因素,这是我们和用户所共同期望的。
我们很高兴地宣布,Azure AI 内容安全功能(包括提示词屏蔽和受保护内容检测)已 "默认开启",供您在 Azure OpenAI 服务(国际版)上安全使用 GPT-4o mini。
我们已针对 Azure AI 内容安全的吞吐量和速度提升进行了投入——包括引入异步筛选,以便在不影响安全性的前提下,最大限度地提高模型速度。Azure AI 内容安全支持各行各业的开发人员保护其生成式 AI技术应用程序,包括游戏开发行业(Unity)、税务行业(H&R Block)和教育行业(南澳大利亚教育部)。
此外,我们的 “用户版权承诺”也适用于 GPT-4o mini,微软将保护客户免受第三方对输出内容的知识产权索赔,让用户免除后顾之忧。
Azure AI 支持客户灵活控制数据的存储和处理位置,提供完整的数据驻留解决方案,帮助客户满足其特殊的合规要求。我们还提供符合业务、应用程序和合规性要求的托管选项。区域性“即用即付”模式和预置吞吐量单元 (PTUs)提供对数据处理和存储的控制。
我们很高兴地宣布,Azure OpenAI 服务(国际版)现已在包括西班牙在内的27 个区域可用。本月初上线的西班牙区域是我们在欧洲的第九个区域。
GPT-4o mini 现已可用全球“即用即付”部署,价格为每百万input token 15 美分、每百万output token 60 美分,与之前的前沿模型相比更具性价比。
我们很高兴地宣布,全球即用即付部署选项将于本月全面推出,客户可以根据所消耗的资源付费,以便灵活应对各种工作负载。同时在全球范围内路由流量,以提供更高的吞吐量,并仍然可以控制数据的静态驻留位置。
此外,我们意识到客户在使用新模型时面临的一个挑战是:无法在现有部署所在的区域内直接升级模型版本。现在,通过全球即用即付部署,这一问题将彻底解决,客户可以直接从现有模型升级到最新模型。
全球即用即付模式为客户提供尽可能高的规模,为 GPT-4o mini 提供每分钟 1500 万个token的吞吐量,为 GPT-4o 提供每分钟 3000 万个token的吞吐量。Azure OpenAI 服务(国际版)为 GPT-4o mini 提供 99.99% 的可用性,并与OpenAI 对齐,提供一致的行业领先速度。
我们持续对Azure AI投入,以提高 Azure OpenAI 服务(国际版)中 AI 工作负载的效率。
GPT-4o mini 本月将通过我们的Batch服务并在 Azure AI 上线。Batch 通过使用非高峰容量资源,以 50% 的折扣、24 小时周转交付高吞吐量作业。借助微软 Azure AI,我们将能够向客户提供非高峰期的容量资源。
本月我们还将发布 GPT-4o mini 的微调功能,让客户能够根据具体用例和场景进一步定制模型,以前所未有的速度提供卓越的价值和质量。我们在上个月更新了用于模型训练的基于token的计费模式,将托管费用降低了 43%。再加上我们的低推理价格,这使得 Azure OpenAI 服务(国际版)微调部署成为客户在处理生产工作负载最具性价比的选择。
截止目前,已有超过 53,000 家客户正在使用 Azure AI以惊人的规模进行交付,超过一半的财富 500 强企业正在使用 Azure OpenAI 服务(国际版)构建其应用程序。我们很高兴看到沃达丰(客户代理解决方案)、悉尼大学(AI 助手)和 GigXR(AI虚拟患者)等企业借助Azure AI 实现创新。