【大模型测试】Python 调用大模型 API 接口开发指南(2026 超详细实战教程)
以下是基于 2026 年最新实践的 Python 调用大模型(Large Language Models, LLM)API 接口开发指南。大模型 API 已成为 AI 开发的核心(如文本生成、聊天机器人、代码补全、翻译等)。我们将从零起步,覆盖主流提供商(如 OpenAI、Anthropic、Groq、Hugging Face、Google Gemini 等),包括环境准备、基本调用、高级技巧、统一框架、性能优化和完整项目实战。
教程基于 Python 3.12+,参考了 2026 年主流文档和社区最佳实践(如 LiteLLM SDK、Groq 集成等)。 假设你有基本的 Python 知识(如 import、函数、异常处理)。如果你是初学者,先安装 Python 和 pip。
为什么学这个?
- 2026 年,LLM API 已标准化(OpenAI 格式主导),调用简单,但需处理 API 密钥、限速、成本。
- 应用场景:构建聊天 App、自动化脚本、数据分析工具。
- 免费/付费选项:免费试用常见,但生产级需付费(e.g., OpenAI $0.02/1K tokens)。
0. 环境准备(5 分钟)
- 安装 Python 依赖:
使用 pip 安装核心库。推荐用虚拟环境(venv)。
# 基础:请求库
pip install requests httpx
# 主流 SDK(推荐)
pip install openai anthropic groq huggingface-hub litellm # LiteLLM 为统一 SDK
# 可选:异步/流式(高性能)
pip install aiohttp asyncio
# 集成框架(高级)
pip install langchain streamlit # LangChain 为链式调用,Streamlit 为 UI
- 获取 API 密钥:
- OpenAI:官网 platform.openai.com/account/api-keys 创建密钥。
- Anthropic (Claude):console.anthropic.com/account/keys。
- Groq:console.groq.com/keys(免费试用快)。
- Hugging Face:huggingface.co/settings/tokens(免费推理 API)。
- Google Gemini:makersuite.google.com/app/apikey。
- 存储密钥:用环境变量(安全)。e.g.,
export OPENAI_API_KEY="sk-..."(Windows 用 set)。
- 测试环境:
import os
print(os.environ.get("OPENAI_API_KEY")) # 应输出你的密钥
1. 主流大模型 API 提供商速览(2026 Top 8)
基于 2026 年市场, 以下是热门选项(免费/付费混合):
| 提供商 | 核心模型示例 | 优势 | 定价(输入/输出 per 1K tokens) | Python SDK | 免费额度 |
|---|---|---|---|---|---|
| OpenAI | GPT-4o, GPT-4o-mini | 多模态(文本+图像+音频),工具调用强 | $2.5/$10 (GPT-4o) | openai | $5 试用 |
| Anthropic | Claude 3.5 Sonnet | 大上下文(200K+ tokens),安全 | $3/$15 | anthropic | 免费试用限速 |
| Groq | Llama 3.1 70B, Mixtral | 超快推理(LPU 硬件),开源模型 | $0.24/$0.24 (Mixtral) | groq | 免费 API 限额 |
| Hugging Face | Llama 3, Mistral | 开源模型免费推理,自定义 | 免费/付费(Inference API) | huggingface-hub | 无限免费(限速) |
| Google Gemini | Gemini 1.5 Pro | 多模态+搜索集成 | $0.5/$1.5 | google-generativeai | 免费试用 |
| Mistral AI | Mistral Large 2 | 高效多语言 | $2/$6 | mistralai | 免费社区模型 |
| Cohere | Aya 23B | 企业级自定义 | $0.5/$1 | cohere | 免费试用 |
| ElevenLabs | Voice AI (非纯文本) | 语音合成 | $0.18/min | elevenlabs | 免费 10K chars |
选择建议:初学者从 OpenAI/Groq 开始(SDK 简单)。生产用 LiteLLM 统一多提供商。
2. 基本调用(Hello World 级)
核心:发送提示(prompt),获取响应。以下是单行/简单示例。
2.1 OpenAI 示例
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "解释量子计算,简短点。"}]
)
print(response.choices[0].message.content)
输出示例:量子计算利用量子比特进行并行计算,能解决经典计算机难题,如因子分解。
2.2 Anthropic (Claude) 示例
import os
from anthropic import Anthropic
client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"])
response = client.messages.create(
model="claude-3-5-sonnet-20241022",
max_tokens=100,
messages=[{"role": "user", "content": "写一首关于 AI 的短诗。"}]
)
print(response.content[0].text)
2.3 Groq 示例
import os
from groq import Groq
client = Groq(api_key=os.environ["GROQ_API_KEY"])
response = client.chat.completions.create(
model="llama3-70b-8192",
messages=[{"role": "user", "content": "Python 如何处理异常?"}]
)
print(response.choices[0].message.content)
2.4 Hugging Face Inference API 示例
import os
from huggingface_hub import InferenceClient
client = InferenceClient(token=os.environ["HF_TOKEN"])
response = client.text_generation(
"meta-llama/Llama-3.2-3B-Instruct",
"描述 Hugging Face 的作用。",
max_tokens=50
)
print(response)
通用提示:用 try-except 处理错误(如限速、密钥无效)。e.g., except Exception as e: print(e)。
3. 高级技巧(生产级开发)
3.1 流式响应(Streaming)
实时输出(如聊天 App)。
# OpenAI 示例
stream = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "讲个笑话。"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
3.2 异步调用(Async,高并发)
用 asyncio 并发多个请求。
import asyncio
from openai import AsyncOpenAI
async_client = AsyncOpenAI(api_key=os.environ["OPENAI_API_KEY"])
async def async_call(prompt):
response = await async_client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt}]
)
return response.choices[0].message.content
async def main():
tasks = [async_call("提示1"), async_call("提示2")]
results = await asyncio.gather(*tasks)
print(results)
asyncio.run(main())
3.3 工具调用(Function Calling)
让模型调用自定义函数(如计算器)。OpenAI/Anthropic 支持。
# OpenAI 工具示例
tools = [{"type": "function", "function": {
"name": "add_numbers",
"description": "加两个数",
"parameters": {"type": "object", "properties": {
"a": {"type": "number"}, "b": {"type": "number"}
}, "required": ["a", "b"]}
}}]
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "3+5=?"}],
tools=tools
)
# 如果调用工具,执行函数
if response.choices[0].message.tool_calls:
tool_call = response.choices[0].message.tool_calls[0]
if tool_call.function.name == "add_numbers":
args = json.loads(tool_call.function.arguments)
result = args["a"] + args["b"]
print(result)
3.4 多模态(图像/音频)
OpenAI GPT-4o 支持。
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": [
{"type": "text", "text": "描述这张图。"},
{"type": "image_url", "image_url": {"url": "https://example.com/image.jpg"}}
]}]
)
print(response.choices[0].message.content)
4. 统一多提供商:LiteLLM SDK(推荐 2026 实践)
LiteLLM 支持 100+ LLM,一键切换。
from litellm import completion
import os
os.environ["OPENAI_API_KEY"] = "..."
os.environ["ANTHROPIC_API_KEY"] = "..."
# 调用 OpenAI
response = completion(model="gpt-4o-mini", messages=[{"role": "user", "content": "Hi!"}])
# 切换到 Claude
response = completion(model="claude-3-5-sonnet-20241022", messages=[{"role": "user", "content": "Hi!"}])
print(response.choices[0].message.content)
优势:成本跟踪、负载均衡、日志。
5. 集成框架:LangChain(链式/代理开发)
构建复杂应用。
from langchain_groq import ChatGroq
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
llm = ChatGroq(model="llama3-70b-8192", api_key=os.environ["GROQ_API_KEY"])
prompt = PromptTemplate(input_variables=["topic"], template="解释 {topic}。")
chain = LLMChain(llm=llm, prompt=prompt)
print(chain.run("区块链"))
6. 性能优化 & 最佳实践
| 优化点 | 做法示例 | 收益参考 |
|---|---|---|
| 限速处理 | 用 time.sleep() 或 retry 库 | 避免封禁 |
| 成本控制 | 计算 tokens(tiktoken 库),用 LiteLLM 跟踪 | 节省 20-50% |
| 错误重试 | pip install tenacity;@retry 装饰器 | 鲁棒性 ↑ |
| 监控/日志 | 用 Langfuse 集成(e.g., Groq)。 | 追踪使用 |
| 安全 | 环境变量存密钥;输入过滤防注入 | — |
| 批量处理 | batch API(OpenAI 支持) | 5-10x 快 |
- 常见错误:401(密钥错)、429(限速)、超时(加 timeout=30)。
- 本地运行:用 Ollama/Hugging Face Transformers 跑开源模型(无 API 费)。 e.g.,
from transformers import pipeline; pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-3B")。
7. 完整项目实战:Streamlit 聊天机器人
用 Groq 构建 Web UI。
app.py:
import streamlit as st
from groq import Groq
import os
client = Groq(api_key=os.environ["GROQ_API_KEY"])
st.title("Groq 聊天机器人")
if "messages" not in st.session_state:
st.session_state.messages = []
for message in st.session_state.messages:
with st.chat_message(message["role"]):
st.markdown(message["content"])
prompt = st.chat_input("说点什么?")
if prompt:
st.session_state.messages.append({"role": "user", "content": prompt})
with st.chat_message("user"):
st.markdown(prompt)
with st.chat_message("assistant"):
stream = client.chat.completions.create(
model="mixtral-8x7b-32768",
messages=[{"role": m["role"], "content": m["content"]} for m in st.session_state.messages],
stream=True
)
response = st.write_stream(chunk.choices[0].delta.content or "" for chunk in stream)
st.session_state.messages.append({"role": "assistant", "content": "".join(response)})
运行:streamlit run app.py。访问 localhost:8501。
扩展:加历史记录、工具调用、数据库存储。
8. 进阶学习路线(2026 版)
| 阶段 | 重点 | 资源 |
|---|---|---|
| 入门 | 基本调用、流式 | OpenAI/Groq 官方 docs;本教程 |
| 中级 | 工具/多模态、LangChain | LangChain 教程;Hugging Face 课程 |
| 高级 | 微调/代理、RAG | “From Zero to LLM Hero” 指南; LiteLLM GitHub |
| 专家 | 网关/观测、自定义模型 | Helicone/BricksLLM; PyTorch 集成 |
有具体提供商或功能想深入?如 OpenAI 微调、Groq LPU 优化、Hugging Face 自定义端点?告诉我,我继续展开~