Ollama 相关命令

以下是 Ollama 命令行工具(CLI)的相关命令简介。这些命令用于管理模型、运行服务和调试 Ollama。Ollama 的 CLI 通过终端(如命令提示符、PowerShell 或 Bash)执行,所有命令以 ollama 开头。运行 ollama help 可以查看完整帮助信息。

1. 基本命令

  • ollama help:显示所有可用命令及其描述。
  • ollama –version:显示 Ollama 的版本号。
  • ollama serve:启动 Ollama 服务器(默认在 http://localhost:11434 运行)。用于 API 访问,通常在后台运行。

2. 模型管理命令

这些命令用于下载、查看和操作模型。

命令描述示例
ollama pull <model>从 Ollama 库拉取(下载)模型到本地。ollama pull llama3
ollama push <model>将本地模型推送到 Ollama 库(需登录)。ollama push mymodel
ollama list列出所有已下载的本地模型。ollama list
ollama show <model>显示指定模型的详细信息(如 Modelfile)。ollama show llama3
ollama rm <model>删除指定模型(释放空间)。ollama rm llama3
ollama cp <src> <dst>复制模型(src 为源模型,dst 为新名称)。ollama cp llama3 myllama
ollama create <name> -f <file>从 Modelfile 创建自定义模型。ollama create mymodel -f Modelfile

3. 运行和进程管理命令

  • ollama run :启动指定模型的交互式终端,进行对话或生成文本。示例:ollama run mistral
  • ollama ps:列出当前运行的模型进程。
  • ollama stop :停止指定模型的运行进程。示例:ollama stop llama3

4. 其他高级命令

  • ollama exec :在指定模型的容器中执行自定义命令(适用于 Docker 环境)。
  • ollama tags:列出 Ollama 库中的可用模型标签(类似于 pull 的预览)。

示例使用

  1. 拉取并运行模型
   ollama pull phi3
   ollama run phi3

(进入交互模式,输入提示后模型响应。退出:/exit

  1. 查看和管理模型
   ollama list  # 显示所有模型
   ollama rm phi3  # 删除模型
  1. 启动服务器并通过 API 测试
   ollama serve  # 后台启动
   curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "Hello"}'

注意事项

  • 权限:在 Linux/macOS 上,可能需要 sudo 权限安装或运行某些命令。
  • 环境变量:如需修改端口,使用 export OLLAMA_HOST=0.0.0.0:11435
  • 参数选项:许多命令支持 --help 查看详细选项,例如 ollama pull --help
  • 错误排查:如果命令失败,检查网络、磁盘空间或硬件资源。运行 --verbose 可获取更多日志。
  • 更新 Ollama:通过官网重新下载或使用包管理器(如 brew upgrade ollama)。

这些命令覆盖了 Ollama 的核心功能。如果需要特定命令的详细解释、脚本示例或自定义 Modelfile 的指导,请告诉我!

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注