DeepSeek 只是聊天工具?装上这个插件,它瞬间变成你的本地知识库
不是的,DeepSeek(尤其是 DeepSeek-R1 系列)远不止是一个在线聊天界面。
2025–2026 年以来,大量用户通过几种非常成熟的本地/半本地插件 + 工具组合,把 DeepSeek 彻底变成了个人/企业私有知识库 + RAG(检索增强生成)智能助手,完全离线运行(或混合模式),支持上传 PDF、Word、Obsidian 笔记、Markdown、代码仓库等资料,提问时自动检索 + 引用原文。
下面给你最主流、最稳定的几种玩法(按上手难度从小到大排序),都是真实用户在 2025 下半年到 2026 年初反复验证的高频方案。
1. 最简单一键式:Page Assist 浏览器插件(推荐新手 5 分钟上手)
适用人群:想在浏览器里直接问自己的笔记、PDF、网页收藏夹,不想写代码。
核心玩法:
- 下载 Page Assist(Chrome/Edge 扩展,免费开源)
- 本地跑 Ollama + DeepSeek-R1(7B/32B 蒸馏版或满血版 API)
- 在插件设置里接入 Ollama 的本地服务地址(默认 http://127.0.0.1:11434)
- 启用 RAG 功能 → 拖入 PDF/文件夹/Obsidian 导出 Markdown → 插件自动切块 + 向量化(用 nomic-embed-text 或 bge-small-zh 等嵌入模型)
- 以后在任意网页右键 / 侧边栏聊天,就能问:“我上个月的会议纪要里关于预算的部分说了什么?”
真实用户反馈(2025–2026 年常见评价):
- “比 AnythingLLM 更轻,浏览器里一键唤醒,Obsidian + PDF 混合知识库效果很好”
- “配合 DeepSeek-R1:1.5b 速度飞起,7B 版已经够用,32B 再准一点”
- 缺点:向量数据库是内置的,轻量但不支持上万文档超大规模
快速启动命令(先装 Ollama):
ollama run deepseek-r1:1.5b # 或 7b/32b 看显存
# 然后安装 Page Assist 扩展 → 设置 → LLM Provider → Ollama → localhost:11434
2. 最受欢迎的桌面客户端方案:AnythingLLM + Ollama + DeepSeek
适用人群:想要完整 UI、支持多文件类型、能远程访问的桌面知识库。
步骤:
- 安装 Ollama →
ollama run deepseek-r1:7b(或更大模型) - 下载 AnythingLLM(桌面版,Windows/Mac/Linux 都有)
- 启动后 → Settings → LLM Provider → Ollama → 填本地地址
- 创建新 Workspace → 上传 PDF/Word/TXT/Markdown/Obsidian 导出文件夹
- 自动 embedding(默认用 nomic-embed-text,可换 bge-m3 等中文更好的)
- 聊天界面直接问,支持引用原文 + 高亮显示来源
为什么很多人选它(2026 年初数据):
- 支持拖拽文件夹、网页剪藏、GitHub 仓库同步
- 可以用 cpolar / frp 内网穿透,实现手机/平板远程问自家知识库
- 完全离线,数据不上传云端
缺点:embedding 阶段吃内存(大文档建议分批上传)
3. 极简 + 高颜值桌面方案:Cherry Studio
适用人群:喜欢简洁界面、主要用 Obsidian / Markdown 做知识管理的人。
特点:
- 原生支持 Obsidian 整个 vault 目录导入
- 接入 Ollama + DeepSeek-R1 后,自动 RAG
- 对话记录本地保存,支持多模型切换
- 嵌入模型可选中文强的 bge-small-zh-v1.5 等
上手路径:
- 下载 Cherry Studio(GitHub 有最新 release)
- 设置 → LLM → Ollama → localhost
- 知识库 → 添加本地文件夹(Obsidian vault 或 PDF 目录)
- 提问时可选择“仅当前知识库”或“联网 + 知识库”
用户真实评价:
- “Obsidian 重度用户福音,笔记秒变知识库”
- “DeepSeek-R1 推理能力强,结合 Markdown 结构化资料回答很准”
4. 进阶开发者方案:Dify + Ollama + DeepSeek(可视化工作流)
适用人群:想做企业级知识库、支持多 Agent、流程编排。
步骤:
- Docker 部署 Dify(一键 docker-compose up)
- LLM Provider → Ollama → 接入 DeepSeek-R1
- 创建 Knowledge Base → 上传文档/同步 Notion/网页
- 构建 Application → 用拖拽界面连 RAG 链路
- 可加前置 Agent 判断是否需要检索,再调用 DeepSeek 生成
优势:可视化、低代码、可导出为 API 给其他系统调用。
快速对比表(2026 年初用户真实反馈)
| 方案 | 上手难度 | 是否完全离线 | 支持 Obsidian | 支持 PDF/Word | 远程访问容易度 | 推荐指数 |
|---|---|---|---|---|---|---|
| Page Assist | ★☆☆☆☆ | 是 | 一般 | 好 | 中 | ★★★★★ |
| AnythingLLM | ★★☆☆☆ | 是 | 好 | 优秀 | 高(cpolar) | ★★★★★ |
| Cherry Studio | ★★☆☆☆ | 是 | 极好 | 好 | 中 | ★★★★☆ |
| Dify | ★★★☆☆ | 是 | 好 | 优秀 | 高 | ★★★★☆ |
一句话总结:
DeepSeek 本体只是一个强大的推理引擎,但配上 Page Assist / AnythingLLM / Cherry Studio 这些“知识库外壳”后,它瞬间从聊天工具变成你的私人第二大脑。
离线、保密、可检索、可引用来源,是目前 2026 年性价比最高的本地 RAG 方案之一。
你现在用的是哪个客户端/插件?或者想重点试哪个方向(Obsidian 笔记 / PDF 合同 / 代码仓库)?我可以给你更详细的步骤截图式教程~