DeepSeek 历史版本
DeepSeek-V2
发布日期:2024年4月
第二代开源大语言模型,采用混合专家(MoE)架构,在保持高性能的同时显著降低推理成本。
- 支持128K上下文长度
- 推理速度提升3倍,成本降低40%
- 增强代码生成与数学推理能力
- 提供完整开源权重(Apache 2.0协议)
DeepSeek-Coder V2
发布日期:2024年3月
专为编程任务优化的代码大模型,支持多种主流编程语言。
- 覆盖80+编程语言
- 在HumanEval和MBPP等基准测试中表现优异
- 支持代码补全、解释、调试与单元测试生成
- 提供基础版与MoE版两种架构
DeepSeek-VL
发布日期:2023年12月
多模态大模型,融合视觉与语言理解能力。
- 支持图像理解与图文问答
- 可处理图表、截图、文档图片等内容
- 适用于智能客服、教育辅助等场景
DeepSeek-LLM (初代)
发布日期:2023年11月
DeepSeek系列首个开源大语言模型,包含1.3B、7B参数版本。
- 基于Transformer架构
- 支持中英文双语
- 在通用知识、逻辑推理方面表现良好
- 完全开源,社区友好