什么是 DeepSeek?
DeepSeek 是由深度求索(DeepSeek)推出的一系列开源大语言模型,支持多种参数规模(如 DeepSeek-7B、DeepSeek-67B 等),适用于代码生成、文本理解、多语言处理等场景。
快速开始
你可以通过以下方式使用 DeepSeek:
- Hugging Face 模型库:直接下载或在线推理。
- API 调用:通过官方或第三方平台调用 DeepSeek 接口。
- 本地部署:使用 Transformers 或 vLLM 在本地运行模型。
安装与配置
以 Python 环境为例,使用 Hugging Face Transformers 加载模型:
pip install transformers accelerate torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-coder-6.7b-instruct", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-coder-6.7b-instruct", trust_remote_code=True, device_map="auto")
典型应用场景
- 智能编程助手(代码补全、错误修复)
- 技术文档生成与摘要
- 多语言翻译与写作辅助
- 教育领域的问答与解题
常见问题
Q:DeepSeek 是否免费?
A:大部分 DeepSeek 模型在 Hugging Face 上开源免费,可用于研究和商业用途(需遵守许可证)。
Q:需要多少显存才能运行?
A:7B 模型约需 14GB 显存(FP16),可使用量化(如 GGUF、AWQ)降低资源需求。