Deepseek AI 模型晋级推出 2.5 版,兼并 Coder和 Chat
IT之家 9 月 6 日音讯,DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型现已兼并晋级,晋级后的新模型为 DeepSeek V2.5。
图源:Linux.do论坛网友截图
DeepSeek 官方昨日(9 月 5 日)更新 API 支撑文档,宣告兼并 DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型,晋级推出全新的 DeepSeek V2.5 新模型。
官方表明为向前兼容,API 用户经过 deepseek-coder 或 deepseek-chat 均能够拜访新的模型。
新模型在通用才能、代码才能上,都明显超过了旧版本的两个模型。
新模型更好地对齐了人类的偏好,在写作使命、指令跟从等多方面进行了优化:
ArenaHard winrate 从 68.3% 提升至 76.3%
AlpacaEval 2.0 LC winrate 从 46.61% 提升至 50.52%
MT-Bench 分数从 8.84 提升至 9.02
AlignBench 分数从 7.88 提升至 8.04
新模型在原 Coder 模型的基础上进一步提升了代码生成才能,对常见编程使用场景进行了优化,并在规范测验集上取得了以下成果:
HumanEval: 89%
LiveCodeBench (1-9 月): 41%
IT之家注:Deepseek AI 模型由杭州深度求索人工智能推出,该公司成立于 2023 年。
官方介绍如下:
专心于研讨世界领先的通用人工智能底层模型与技能,应战人工智能前沿性难题。根据自研练习结构、自建智算集群和万卡算力等资源,DeepSeek(深度求索)团队仅用半年时刻便已发布并开源多个百亿级参数大模型,如 DeepSeek-LLM 通用大言语模型、DeepSeek-Coder 代码大模型,并且在 2024 年 1 月首先开源国内首个 MoE 大模型(DeepSeek-MoE),各大模型在揭露评测榜单及实在样本外的泛化作用均有逾越同等级模型的超卓体现。
发表评论