Ollama Page Assist
Ollama Page Assist 中文讲解
Ollama Page Assist(简称 Page Assist)是一个开源浏览器扩展工具,专为 Ollama 等本地大语言模型(LLM)设计。它提供侧边栏(Sidebar)和 Web UI 接口,让用户在浏览网页时无缝集成本地 AI 模型,实现实时交互、文档分析和视觉任务。Page Assist 强调隐私保护(数据不出本地),支持 Chromium 浏览器(如 Chrome、Brave、Edge)和 Firefox,甚至 Firefox for Android。它的核心是简化本地 LLM 的使用,让 AI 像“页面助手”一样辅助浏览。
Page Assist 由开发者 n4ze3m 创建,GitHub 仓库星标超过 1 万(截至 2025 年 10 月)。它兼容 Ollama 的 API,支持多种本地模型提供者(如 LLaMA.cpp、LM Studio)。以下是详细中文讲解,基于官方文档和社区教程(如 YouTube 视频和 Medium 指南)。
1. Page Assist 简介
- 核心理念:将本地运行的 AI 模型嵌入浏览器中,提供“边浏览边问答”的体验。例如,在阅读网页时,你可以快速让 AI 总结内容、搜索相关信息或分析 PDF,而无需切换窗口。
- 关键特性:
- 侧边栏功能:在浏览器右侧弹出 AI 聊天窗口,支持各种任务(如文本生成、代码辅助)。
- 视觉模型支持:兼容 Llava 等模型,处理图像描述或视觉问答。
- 最小化 Web UI:一个简洁的本地 Web 界面,可作为 Ollama 的独立 GUI 使用。
- 互联网搜索:集成 SearXNG 等搜索引擎,让 AI 实时查询网络(可选)。
- 文档聊天:支持 PDF、CSV、TXT、MD、DOCX 等文件上传,实现 RAG(检索增强生成),如上传合同后提问关键条款。
- Tab Mention(Beta):提及当前标签页内容,让 AI 基于页面自动生成响应。
- 多提供者支持:Ollama(默认)、OpenAI 兼容 API(如 vLLM)、Chrome AI(Gemini Nano Beta)。
- 优势:
- 隐私优先:所有数据本地处理,无需云端。
- 开源免费:GitHub 开源,不收集个人信息。
- 易集成:快速安装,支持多模型切换(如 Llama 3、Mistral)。
- 适用场景:网页研究、文档阅读、代码调试、视觉分析(如上传截图问“这是什么图表?”)。
- 局限性:依赖本地硬件(推荐 GPU);搜索功能偶尔需配置(如 Google API 集成);Beta 功能可能不稳定。
官方仓库:github.com/n4ze3m/page-assist。Chrome 商店链接:chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo。Firefox 商店链接:addons.mozilla.org/en-US/firefox/addon/page-assist。
2. 前提条件
- Ollama 已安装并运行:参考 Ollama 安装指南,确保服务器启动(
ollama serve
,默认端口 11434)。 - 浏览器:Chrome、Brave、Edge 或 Firefox(推荐最新版)。
- 模型准备:下载一个模型测试,如
ollama pull llama3
。 - 硬件:至少 8GB 内存;视觉任务建议 GPU(NVIDIA CUDA 支持)。
3. 安装 Page Assist
安装过程简单,只需几分钟。以下是详细步骤。
步骤 1:从浏览器商店安装
- Chrome/Edge/Brave:
- 访问 Chrome Web Store:Page Assist 扩展页面。
- 点击“添加至 Chrome”(或对应浏览器),确认安装。
- Firefox:
- 访问 Firefox Add-ons:Page Assist 扩展页面。
- 点击“添加到 Firefox”,确认权限。
- 验证安装:
- 安装后,浏览器工具栏会出现 Page Assist 图标(AI 头像)。
- 点击图标,即可打开侧边栏。
步骤 2:配置 Ollama 连接
- 打开设置:
- 点击扩展图标 > “Settings” 或 “配置”。
- 添加提供者:
- 选择 “Ollama” 作为提供者。
- 输入 Ollama API 地址:
http://localhost:11434
(默认)。 - 保存并测试连接(会列出可用模型,如 llama3)。
- 可选配置:
- 搜索集成:在设置中启用 SearXNG(自托管搜索引擎),或配置 Google API(需 API 密钥)。
- 模型选择:从下拉菜单切换模型,支持量化版本(如 llama3:8b-q4_0)以节省资源。
- 视觉支持:启用 Llava 模型(先
ollama pull llava
)。
步骤 3:高级安装(可选)
- 从 GitHub 手动构建:
- 克隆仓库:
git clone https://github.com/n4ze3m/page-assist.git
。 - 进入目录:
cd page-assist
。 - 安装依赖:
npm install
。 - 构建:
npm run build
。 - 在浏览器加载扩展(Chrome:
chrome://extensions/
> 加载已解压扩展)。
- Docker 部署:如果想作为独立 Web UI,使用 Docker 运行(参考 GitHub README)。
常见问题:
- 连接失败:确保 Ollama 服务器运行;检查防火墙端口 11434。
- 模型未加载:在终端运行
ollama list
,然后刷新扩展。 - 搜索不工作:更新 SearXNG 配置,或切换到 DuckDuckGo。
4. 使用 Page Assist
安装后,即可开始交互。界面简洁,支持中文提示(模型需支持,如 Llama 3)。
- 打开侧边栏:
- 点击工具栏图标,或使用快捷键(默认 Ctrl+Shift+A)。
- 侧边栏出现,左侧是聊天输入框,右侧是模型选择。
- 基本聊天:
- 输入提示:例如,“总结当前网页内容”(需启用 Tab Mention)。
- 模型响应实时显示,支持 Markdown 格式(代码高亮、列表)。
- 示例:浏览新闻页,输入“用中文解释这篇文章”,AI 会基于页面内容生成总结。
- 高级功能:
- 文档聊天:
- 点击侧边栏 “+ Upload”,上传 PDF 或 TXT。
- 提问:“这份报告的关键点是什么?”(RAG 自动检索)。
- 视觉分析:
- 上传图像或截图,输入“描述这张图片”。
- 示例:上传图表,AI 输出“这是柱状图,显示销售额增长 20%”。
- 互联网搜索:
- 输入“搜索最新 Ollama 更新”,AI 调用搜索引擎并总结结果。
- Tab Mention:
- 输入
@current
提及当前标签页,让 AI 分析页面文本。
- 输入
- 多轮对话:支持上下文保持,类似 ChatGPT。
- 示例场景:
- 网页研究:阅读维基百科,侧边栏问“这个概念的中文解释?”。
- 代码辅助:浏览 Stack Overflow,上传代码片段问“优化这个 Python 函数”。
- 文档处理:上传简历 PDF,问“如何改进求职信?”。
- 视觉任务:截图网页元素,问“这是什么 UI 设计模式?”。
5. 最佳实践与注意事项
- 性能优化:
- 使用小模型(如 phi3)减少延迟。
- 启用 GPU:在 Ollama 配置 CUDA。
- 监控资源:扩展会占用少量内存(<100MB)。
- 自定义:
- 编辑
config.json
添加系统提示(如 “你是一个中文助手”)。 - 集成其他 API:支持 OpenAI 兼容端点。
- 更新:
- 浏览器商店自动更新;手动检查 GitHub Releases。
- 隐私:扩展不收集数据,但上传文件时确保本地安全。
- 社区资源:
- 视频教程:YouTube “Page Assist with Ollama” 系列(如安装和 RAG 示例)。
- 博客:Medium “Setting up Ollama with Page Assist” 指南。
- Reddit:r/LocalLLaMA 子版块讨论(如扩展测试反馈)。
- 中文资源:虽少,但可参考 GitHub 日文教程翻译,或搜索 Bilibili “Ollama Page Assist”。
6. 常见问题排查
- 侧边栏不显示:重启浏览器,检查扩展权限(允许访问所有网站)。
- 响应慢:切换小模型,或检查 Ollama 日志(
ollama ps
)。 - 搜索失效:配置外部 API,或禁用网络搜索使用纯本地模式。
- 兼容性:Android Firefox 支持,但视觉功能有限。
通过 Ollama Page Assist,你可以让本地 AI 成为浏览器的“智能助手”,极大提升效率。如果需要具体视频链接、配置代码示例或故障排除,请提供更多细节,我会进一步讲解!