DeepSeek 是由深度求索(DeepSeek)推出的一系列高性能开源大语言模型(LLM),支持多种应用场景。本文将详细介绍如何在本地环境中部署 DeepSeek 模型,实现私有化、离线运行。
pip install transformers accelerate torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "deepseek-ai/deepseek-coder-1.3b-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, device_map="auto")
inputs = tokenizer("Write a Python function to calculate factorial:", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
git clone https://github.com/ggerganov/llama.cppmake && ./main -m models/deepseek-coder-1.3b.Q4_K_M.gguf -p "Your prompt"Q:模型太大加载失败?
A:尝试使用量化版本(如 Q4_K_M),或选择更小的模型(1.3B 或 6.7B)。
Q:中文支持如何?
A:DeepSeek 系列模型对中英文均有良好支持,尤其 DeepSeek-Coder 在代码场景表现优异。