DeepSeek宣布发布开源模型DeepSeek-Coder-v2,该模型在代码和数学能力上超越了GPT-4-Turbo,成为全球首个在这些领域竞争的开源模型。DeepSeek-Coder-v2基于DeepSeek-v2的模型结构,总参数236B,激活参数21B,具有全球顶尖的代码和数学能力,并在多个排行榜上位居全球第二,次于GPT-4o和GPT-4-Turbo之间。同时,它在中英通用能力上也表现出色,位列国内第一梯队。
DeepSeek-Coder-V2与DeepSeek-V2相比,各有所长,前者更擅长理科,后者更擅长文科。该模型和相关代码、论文全部开源,免费商用,无需申请,提供两种规模:236B和16B,并支持API服务和本地私有化部署。
全球顶尖的代码、数学能力
DeepSeek-Coder-v2沿用DeepSeek-v2的模型结构,总参数236B,激活21B,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型GPT-4o和GPT-4-Turbo之间。
GitHub地址:https://github.com/deepseek-ai/DeepSeek-Coder-V2