Ollama 安装

以下是在不同操作系统上安装 Ollama 的简要指南。Ollama 是一个轻量级的工具,用于在本地运行大语言模型,支持 Windows、macOS 和 Linux 系统。安装过程简单,但需要确保你的设备满足最低硬件要求(建议至少 8GB 内存,运行大型模型可能需要 GPU)。

1. 安装 Ollama

根据你的操作系统,按照以下步骤操作:

Windows

  1. 下载安装包
  • 访问 Ollama 官网(ollama.ai)或 GitHub 页面。
  • 下载适用于 Windows 的安装程序(.exe 文件)。
  1. 运行安装程序
  • 双击下载的 .exe 文件,按照提示完成安装。
  • 安装完成后,Ollama 会自动配置环境并启动服务。
  1. 验证安装
  • 打开命令提示符(CMD)或 PowerShell。
  • 输入 ollama --version,检查是否返回版本号。

macOS

  1. 通过 Homebrew 安装(推荐)
  • 确保已安装 Homebrew(若未安装,可运行 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)")。
  • 运行命令:
    bash brew install ollama
  1. 手动安装(可选)
  • 从官网下载 macOS 安装包(.dmg 文件)。
  • 双击安装并拖动 Ollama 到 Applications 文件夹。
  1. 验证安装
  • 打开终端,输入 ollama --version,确认版本号。

Linux

  1. 安装命令
  • 运行以下命令一键安装:
    bash curl -fsSL https://ollama.ai/install.sh | sh
  • 该脚本会自动下载并配置 Ollama。
  1. 手动安装(可选)
  • 从官网或 GitHub 下载 Linux 可执行文件。
  • 赋予执行权限:chmod +x ollama
  • 移动到系统路径:sudo mv ollama /usr/local/bin/
  1. 验证安装
  • 在终端运行 ollama --version,检查版本号。

2. 运行第一个模型

安装完成后,运行一个模型以测试环境:

  1. 拉取模型
  • 运行以下命令下载模型(例如 LLaMA 3):
    bash ollama pull llama3
  • 模型会从 Ollama 模型库下载到本地。
  1. 启动模型
  • 运行:
    bash ollama run llama3
  • 这会启动一个交互式终端,你可以直接与模型对话。
  1. 通过 API 使用(可选)
  • Ollama 默认在 http://localhost:11434 提供 API。
  • 使用 curl 测试:
    bash curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "Hello, world!"}'

3. 系统要求

  • 最低配置:8GB 内存,4 核 CPU。
  • 推荐配置:16GB+ 内存,GPU(如 NVIDIA,需安装 CUDA 驱动)。
  • 存储:模型文件较大(几 GB 至几十 GB),确保磁盘空间充足。

4. 常见问题

  • 安装失败:检查网络连接,或尝试手动下载安装包。
  • 模型运行慢:确保硬件支持,或尝试更小的模型(如 llama3:8b)。
  • 端口冲突:Ollama 默认使用 11434 端口,若冲突,可通过环境变量修改。

5. 下一步

  • 探索模型库:运行 ollama list 查看可用模型。
  • 集成开发:使用 Python 或其他语言通过 API 调用 Ollama。
  • 优化性能:根据硬件配置调整模型参数。

如需特定操作系统的详细步骤、故障排除或 API 使用示例,请告诉我!

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注