【人工智能通识专栏】第二讲:学会使用DeepSeek
DeepSeek是中国AI公司深度求索(DeepSeek AI)开发的开源大型语言模型系列,以高性价比、强大推理能力和开源精神著称。截至2026年初,DeepSeek已成为全球最受欢迎的开源LLM之一,尤其在数学、代码和复杂推理任务上表现出色,常被视为OpenAI o1系列的开源替代品。其代表模型包括DeepSeek-V3(通用模型)和DeepSeek-R1(专注重推理模型),最新版本如V3.2进一步优化了代理(Agent)能力和工具调用。
本讲聚焦实用:如何快速上手DeepSeek,包括网页聊天、API调用和本地部署。无论你是初学者还是开发者,都能轻松掌握。
1. DeepSeek简介与核心优势
- 主要模型:
- DeepSeek-V3系列:MoE(专家混合)架构,总参数671B,仅激活37B,高效且成本低。适合日常聊天、写作、代码生成。最新V3.2(2025年底发布)强化了“思考模式”和工具集成,适用于构建AI代理。
- DeepSeek-R1系列:基于V3,通过大规模强化学习(RL)训练,擅长逐步推理。性能媲美OpenAI o1,在数学(AIME)和代码基准上领先开源模型。
- 优势:
- 开源(MIT许可),支持商业使用和修改。
- 价格极低:API调用远低于GPT系列。
- 高性能:推理能力强,支持长上下文(128K+ tokens)。
- 社区活跃:Hugging Face上有大量衍生模型。
官方网站:https://www.deepseek.com/ 或 https://platform.deepseek.com/(API平台)
聊天界面:https://chat.deepseek.com/
2. 最简单方式:网页聊天界面
无需注册或安装,直接浏览器使用。
- 打开 https://chat.deepseek.com/
- 选择模型:
- DeepSeek-V3.2:通用任务,速度快。
- DeepSeek-R1(或开启“DeepThink”/思考模式):复杂推理、数学、代码。
- 输入问题,开始对话。
- 支持文件上传(文档分析)、长对话。
- 对于推理任务,建议提示模型“逐步思考”或直接选R1模式。
示例提示(数学题):
使用DeepSeek-R1:一步步思考,解决这个方程:x^3 – 6x^2 + 11x – 6 = 0
网页版免费额度充足,适合学习和日常使用。
3. 通过API使用(开发者推荐)
DeepSeek API兼容OpenAI格式,切换base_url即可无缝迁移代码。
- 注册与获取API Key:
- 访问 https://platform.deepseek.com/
- 注册账号,获取API Key(免费额度高,付费超低价)。
- 模型名称:
- 通用:deepseek-chat (V3.2)
- 推理:deepseek-reasoner (R1系列)
- Python示例(使用OpenAI SDK):
from openai import OpenAI
client = OpenAI(
api_key="your_deepseek_api_key",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat", # 或 "deepseek-reasoner"
messages=[
{"role": "system", "content": "你是一个helpful助手。"},
{"role": "user", "content": "解释量子计算的基本原理,并举例。"}
],
stream=False # 支持流式输出
)
print(response.choices[0].message.content)
- 对于推理模型,可添加参数启用“thinking”模式(更高推理努力)。
API支持工具调用、JSON输出,适合集成到App或代理系统中。
4. 本地运行DeepSeek(高级用户)
DeepSeek模型开源,可在个人电脑/服务器运行(需足够GPU)。
- 推荐工具:
- Ollama:最简单(支持Mac/Windows/Linux)。
- 安装Ollama:https://ollama.com/
- 运行:
ollama run deepseek-r1或ollama run deepseek-v3
- LM Studio 或 Open WebUI:提供ChatGPT-like界面,支持文件上传。
- Hugging Face 下载权重:https://huggingface.co/deepseek-ai
- 硬件要求:
- 小型蒸馏版(7B/8B):消费级GPU(如RTX 4090)即可。
- 全尺寸(671B MoE):需多卡服务器,但激活参数少,推理高效。
- 优势:完全离线、私密、无限使用。
5. 使用技巧与最佳实践
- 激发推理能力:
- 对R1模型:直接提问复杂问题,它会自动“内部思考”。
- 提示示例:”请逐步推理,解释答案。”
- 常见场景:
- 数学/代码:优先R1。
- 日常/创作:V3.2更快。
- 代理构建:V3.2支持工具调用。
- 注意事项:
- 如所有LLM,可能有幻觉:验证重要输出。
- API限速:付费提升额度。
- 社区资源:Hugging Face、GitHub搜索“DeepSeek”获取fine-tune版本。
总结与展望
DeepSeek以开源和高性价比颠覆了LLM格局,让前沿AI触手可及。从网页聊天到API集成,再到本地部署,你现在就能上手!它特别适合学生、开发者探索推理模型。
实践建议:立即去chat.deepseek.com试试一个数学难题,感受其强大。
下一讲,我们将探讨Transformer的核心机制与注意力计算。欢迎分享你的DeepSeek使用经验!