Ollama 相关命令
以下是 Ollama 命令行工具(CLI)的相关命令简介。这些命令用于管理模型、运行服务和调试 Ollama。Ollama 的 CLI 通过终端(如命令提示符、PowerShell 或 Bash)执行,所有命令以 ollama
开头。运行 ollama help
可以查看完整帮助信息。
1. 基本命令
- ollama help:显示所有可用命令及其描述。
- ollama –version:显示 Ollama 的版本号。
- ollama serve:启动 Ollama 服务器(默认在 http://localhost:11434 运行)。用于 API 访问,通常在后台运行。
2. 模型管理命令
这些命令用于下载、查看和操作模型。
命令 | 描述 | 示例 |
---|---|---|
ollama pull <model> | 从 Ollama 库拉取(下载)模型到本地。 | ollama pull llama3 |
ollama push <model> | 将本地模型推送到 Ollama 库(需登录)。 | ollama push mymodel |
ollama list | 列出所有已下载的本地模型。 | ollama list |
ollama show <model> | 显示指定模型的详细信息(如 Modelfile)。 | ollama show llama3 |
ollama rm <model> | 删除指定模型(释放空间)。 | ollama rm llama3 |
ollama cp <src> <dst> | 复制模型(src 为源模型,dst 为新名称)。 | ollama cp llama3 myllama |
ollama create <name> -f <file> | 从 Modelfile 创建自定义模型。 | ollama create mymodel -f Modelfile |
3. 运行和进程管理命令
- ollama run :启动指定模型的交互式终端,进行对话或生成文本。示例:
ollama run mistral
。 - ollama ps:列出当前运行的模型进程。
- ollama stop :停止指定模型的运行进程。示例:
ollama stop llama3
。
4. 其他高级命令
- ollama exec :在指定模型的容器中执行自定义命令(适用于 Docker 环境)。
- ollama tags:列出 Ollama 库中的可用模型标签(类似于 pull 的预览)。
示例使用
- 拉取并运行模型:
ollama pull phi3
ollama run phi3
(进入交互模式,输入提示后模型响应。退出:/exit
)
- 查看和管理模型:
ollama list # 显示所有模型
ollama rm phi3 # 删除模型
- 启动服务器并通过 API 测试:
ollama serve # 后台启动
curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "Hello"}'
注意事项
- 权限:在 Linux/macOS 上,可能需要
sudo
权限安装或运行某些命令。 - 环境变量:如需修改端口,使用
export OLLAMA_HOST=0.0.0.0:11435
。 - 参数选项:许多命令支持
--help
查看详细选项,例如ollama pull --help
。 - 错误排查:如果命令失败,检查网络、磁盘空间或硬件资源。运行
--verbose
可获取更多日志。 - 更新 Ollama:通过官网重新下载或使用包管理器(如
brew upgrade ollama
)。
这些命令覆盖了 Ollama 的核心功能。如果需要特定命令的详细解释、脚本示例或自定义 Modelfile 的指导,请告诉我!