开发者文档与接入规范
本页用于说明 OpenClaw API Gateway 的统一接入方式,包括协议兼容、认证要求、示例请求、CLI / GUI 客户端配置与运行边界。文档提供接入指引;实际可用模型、价格、套餐权益、频率限制与运行状态,以控制台、模型目录和接口返回为准。
面向开发、测试、运维与集成方的统一接入指引,覆盖生产接入前常见的配置、鉴权与联调步骤。
协议兼容表示请求与响应结构兼容,不代表所有模型在每个端点下都具备完全一致的原生能力。
若文档示例与运行时存在差异,请优先以控制台可用模型、套餐权益、错误码与接口返回结果为准。
openclaw.json
适用于使用 OpenClaw 配置目录和本地运行层的场景,便于统一维护默认模型、凭证与扩展 provider。
查看接法 →Claude Code
适用于终端代理、代码生成与 Anthropic Messages 协议工作流,推荐给以命令行为主的研发团队。
查看接法 →Codex CLI
通过 `~/.codex/config.toml` 接入 Responses API,适用于 OpenAI 风格的终端编排与评估流程。
查看接法 →OpenAI / Anthropic SDK
适用于服务端应用、Agent 后端与标准 SDK 集成,通常也是生产联调的第一条路径。
查看接法 →Gemini CLI
适用于 Gemini 兼容接口与多模态工作流,需要 Google 风格请求结构时可直接从此处接入。
查看接法 →简介
OpenClaw API Gateway 提供统一模型接入层,用于在同一账户体系下承载多协议调用、访问控制、计费记录、模型目录与平台级治理能力。平台负责认证、配额、计费与路由转换;具体模型能力、上下文限制、工具支持、稳定性与响应行为,由所选模型及其上游服务共同决定。
OpenClaw 正确接入
这一节用于区分两种常见用法:一是使用 OpenClaw 本体作为本地运行层和配置目录;二是绕过本地运行层,直接调用本站兼容网关。两种方案都可以使用同一平台账户体系,但凭证位置、Base URL 和配置方式不同。
A. 使用 OpenClaw 配置目录接入本站网关
如果你已经采用 OpenClaw 运行层,建议把身份凭证写入 auth-profiles.json,再把默认模型与上游地址写入 openclaw.json。这种方式更便于后续切换模型、扩展 provider 和统一终端工作流。
说明: 如需查看 OpenClaw 本体的 CLI 安装、Provider 机制与本地运行说明,可参考 官方文档。 本页重点说明如何将本站网关接入 OpenClaw 配置目录。
# macOS / Linux / WSL curl -fsSL https://openclaw.ai/install.sh | bash # 初始化并安装后台服务 openclaw onboard --install-daemon # 检查 Gateway openclaw gateway status # 打开控制台 openclaw dashboard
采用 OpenClaw 配置目录接入时,核心是维护 ~/.openclaw/ 下的两个文件:
~/.openclaw/ ├── openclaw.json └── agents/main/agent/auth-profiles.json
第一步:把 API Key 写入 auth-profiles.json:
{
"version": 1,
"profiles": {
"anthropic:default": {
"type": "api_key",
"provider": "anthropic",
"key": "sk-your-api-key"
}
},
"lastGood": {
"anthropic": "anthropic:default"
}
}第二步:在 ~/.openclaw/openclaw.json 中配置默认模型和自定义 baseUrl:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6"
}
}
},
"models": {
"mode": "merge",
"providers": {
"anthropic": {
"baseUrl": "https://api.yunjunet.cn",
"models": []
}
}
}
}也可以通过命令行写入 API Key:
openclaw onboard --auth-choice apiKey --anthropic-api-key sk-your-api-key
避免误配:
• 采用 OpenClaw 配置目录时,关键不是单一环境变量,而是 ~/.openclaw/ 下的结构化配置
• auth-profiles.json 负责保存 API Key,openclaw.json 负责配置模型和 baseUrl
• models.providers.anthropic.models 必须写成空数组 [],省略会触发配置校验错误
• baseUrl 使用 https://api.yunjunet.cn,不要额外拼接 /v1
• 默认模型要写成 provider/model,例如 anthropic/claude-sonnet-4-6
B. 本站 OpenClaw API(api.yunjunet.cn)接入
如果你不使用 OpenClaw 配置目录,可直接在 SDK、CLI、第三方客户端或 IDE 插件中填写本站网关地址与 API Key。平台会在已启用模型与已开放协议范围内提供统一接入能力。
1. 获取 API Key
到 控制台 创建 API Key(以 sk- 开头),创建后仅显示一次,请妥善保管。
2. 选择接入方式
根据你使用的工具,选择对应的接入方式:
| 工具 / 客户端 | 协议 | 文档 |
|---|---|---|
| Claude Code CLI | Anthropic Messages | 查看配置 → |
| Codex CLI(OpenAI) | Responses API | 查看配置 → |
| Gemini CLI | Gemini API | 查看配置 → |
| Cherry Studio / LobeChat / NextChat | OpenAI Chat | 查看配置 → |
| Cursor / Windsurf | OpenAI Chat | 查看配置 → |
| Cline / Continue(VS Code) | OpenAI / Anthropic | 查看配置 → |
3. 通用接入参数
所有客户端填写以下参数即可接入:
# OpenAI 兼容格式(适用于大多数客户端) API Base URL: https://api.yunjunet.cn/v1 API Key: sk-your-api-key # Anthropic 格式(Claude Code CLI / Cline / LobeChat Anthropic 模式) API Base URL: https://api.yunjunet.cn API Key: sk-your-api-key # Gemini 格式(Gemini CLI) Base URL: https://api.yunjunet.cn/v1beta/ API Key: sk-your-api-key
关键说明:
• OpenAI 格式 Base URL 含 /v1,Anthropic 格式不含
• 同一 API Key 可在已开放的兼容端点中复用,但具体支持范围以当前已启用模型和运行时返回为准
• 模型 ID 直接使用控制台或 GET /v1/models 返回的标识,例如 claude-sonnet-4-6、deepseek-chat
• 第三方模型的能力、稳定性和可用性由所选模型及其上游服务决定
认证方式
在 控制台 创建 API Key 后,可按所选兼容协议使用对应认证头。生产环境请将密钥保存在服务端或受控密钥管理系统中,不建议在公开前端或不受控脚本中直接暴露生产 Key。
# OpenAI 格式(适用于 /v1/chat/completions) Authorization: Bearer sk-your-api-key # Anthropic 格式(适用于 /v1/messages) x-api-key: sk-your-api-key # Gemini 格式(适用于 /v1beta/models/*) x-goog-api-key: sk-your-api-key
API Key 以 sk- 开头,创建后仅显示一次,请妥善保管。若出现 401、403、限额或模型不可用等情况,请以接口返回和控制台状态为准进行排查。
快速接入
Claude Code / Codex
如果主要工作流发生在终端中,建议直接使用 CLI 章节,避免先走普通 SDK 再回切终端配置。
看 Claude Code →看 Codex CLI →
openclaw.json 路线;如未采用本地运行层,先用 OpenAI 兼容格式跑通最小请求;CLI 使用者直接查看 Claude Code 或 Codex;多模态与 Gemini 兼容场景再进入 Gemini 章节。
OpenClaw.json
下面给出最小可用的 ~/.openclaw/openclaw.json 结构,适用于把 OpenClaw 作为统一运行层来管理默认模型与路由入口的场景:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6"
}
}
},
"models": {
"mode": "merge",
"providers": {
"anthropic": {
"baseUrl": "https://api.yunjunet.cn",
"models": []
}
}
}
}auth-profiles.json 中。若你并未采用 OpenClaw 配置目录,请直接跳到 SDK 或 CLI 章节,不需要额外维护本地运行层配置。
Python
pip install openai
from openai import OpenAI
client = OpenAI(
base_url="https://api.yunjunet.cn/v1",
api_key="sk-your-api-key"
)
resp = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "你好"}]
)
print(resp.choices[0].message.content)JavaScript / Node.js
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://api.yunjunet.cn/v1',
apiKey: 'sk-your-api-key',
});
const completion = await client.chat.completions.create({
model: 'deepseek-chat',
messages: [{ role: 'user', content: '你好' }],
});
console.log(completion.choices[0].message.content);cURL
curl https://api.yunjunet.cn/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "gpt-4o-mini",
"messages": [{"role": "user", "content": "Hello!"}]
}'Chat Completions
POST/v1/chat/completions
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型 ID,如 gpt-4o-mini、deepseek-chat |
messages | array | 是 | 消息数组,每项包含 role 和 content |
stream | boolean | 否 | 是否流式输出,默认 false |
temperature | number | 否 | 温度参数 0-2,默认 1 |
max_tokens | integer | 否 | 最大输出 token 数 |
top_p | number | 否 | 核采样参数 |
响应示例
{
"id": "chatcmpl-xxx",
"object": "chat.completion",
"model": "gpt-4o-mini",
"choices": [{
"index": 0,
"message": { "role": "assistant", "content": "你好!" },
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 10,
"completion_tokens": 5,
"total_tokens": 15
}
}Messages API(Anthropic 兼容)
POST/v1/messages
用于承载 Anthropic Messages 兼容请求,适合 Claude Code CLI、Anthropic SDK 等原生客户端接入。平台会在当前已启用且可映射的模型范围内完成格式转换;具体能力、工具支持与可用性请以模型目录和运行时返回为准。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型 ID,如 claude-haiku-4-5、deepseek-chat |
messages | array | 是 | 消息数组,Anthropic 格式(content blocks) |
max_tokens | integer | 是 | 最大输出 token 数 |
system | string|array | 否 | 系统提示词 |
stream | boolean | 否 | 是否流式输出,默认 false |
temperature | number | 否 | 温度参数 0-1 |
tools | array | 否 | 工具定义(Anthropic tool 格式) |
请求示例
curl https://api.yunjunet.cn/v1/messages \
-H "Content-Type: application/json" \
-H "x-api-key: sk-your-api-key" \
-H "anthropic-version: 2023-06-01" \
-d '{
"model": "claude-haiku-4-5",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Hello!"}
]
}'响应示例
{
"id": "msg_01XFDUDYJgAACzvnp...",
"type": "message",
"role": "assistant",
"model": "claude-haiku-4-5",
"content": [
{ "type": "text", "text": "Hello! How can I help you today?" }
],
"stop_reason": "end_turn",
"usage": {
"input_tokens": 10,
"output_tokens": 12
}
}流式响应格式
设置 stream: true 后,返回 Anthropic 标准 SSE 事件流:
event: message_start
data: {"type":"message_start","message":{"id":"msg_...","type":"message","role":"assistant","model":"claude-haiku-4-5","content":[],"usage":{"input_tokens":10,"output_tokens":0}}}
event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}
event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"Hello"}}
event: content_block_stop
data: {"type":"content_block_stop","index":0}
event: message_delta
data: {"type":"message_delta","delta":{"stop_reason":"end_turn"},"usage":{"output_tokens":12}}
event: message_stop
data: {"type":"message_stop"}格式自动转换
通过 /v1/messages 端点调用非 Anthropic 模型(如 DeepSeek、GPT)时,平台自动完成双向格式转换:
- 请求:Anthropic Messages 格式 → OpenAI Chat Completions 格式(含 tool_use 转换)
- 响应:OpenAI 格式 → Anthropic Messages 格式(含 SSE 事件流转换)
- 对客户端完全透明,无需关心上游差异
Responses API(OpenAI 兼容)
POST/v1/responses
用于承载 OpenAI Responses 兼容请求,适合 Codex CLI 与 Responses 风格工作流。平台会在当前已启用且可映射的模型范围内完成协议适配;具体模型、价格与支持能力以控制台和接口返回为准。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型 ID,如 claude-sonnet-4-6、gpt-4o |
input | string|array | 是 | 输入内容,字符串或结构化消息数组 |
instructions | string | 否 | 系统提示词(等同于 developer 角色消息) |
stream | boolean | 否 | 是否流式输出,默认 false |
max_output_tokens | integer | 否 | 最大输出 token 数,默认 4096 |
temperature | number | 否 | 温度参数 |
tools | array | 否 | 工具定义(function calling) |
请求示例
curl https://api.yunjunet.cn/v1/responses \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "claude-sonnet-4-6",
"input": "Hello!",
"max_output_tokens": 1024
}'结构化输入(多轮对话)
{
"model": "claude-sonnet-4-6",
"instructions": "You are a helpful assistant",
"input": [
{"type": "message", "role": "user", "content": "What is 2+2?"},
{"type": "message", "role": "assistant", "content": [
{"type": "output_text", "text": "4"}
]},
{"type": "message", "role": "user", "content": "And 3+3?"}
]
}响应示例
{
"id": "resp_xxx",
"object": "response",
"created_at": 1234567890,
"status": "completed",
"model": "claude-sonnet-4-6",
"output": [{
"type": "message",
"id": "msg_xxx",
"role": "assistant",
"status": "completed",
"content": [{"type": "output_text", "text": "6"}]
}],
"usage": {
"input_tokens": 30,
"output_tokens": 5,
"total_tokens": 35
}
}流式响应
设置 stream: true 后,返回标准 SSE 事件流:
event: response.created
data: {"type":"response.created","response":{...}}
event: response.output_text.delta
data: {"type":"response.output_text.delta","delta":"Hello"}
event: response.output_text.delta
data: {"type":"response.output_text.delta","delta":" world!"}
event: response.completed
data: {"type":"response.completed","response":{...usage...}}Gemini API(Google 兼容)
POST/v1beta/models/{model}:generateContent
POST/v1beta/models/{model}:streamGenerateContent
用于承载 Gemini 兼容请求,适合 Gemini CLI 与 Google 风格的多模态调用结构。平台会在当前已启用且可映射的模型范围内完成 Gemini 与其他协议之间的转换;具体可用范围以运行时返回为准。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
contents | array | 是 | 对话内容,每项含 role(user/model)和 parts |
systemInstruction | object | 否 | 系统提示词,含 parts 数组 |
generationConfig | object | 否 | 生成配置:maxOutputTokens、temperature、topP |
请求示例
curl https://api.yunjunet.cn/v1beta/models/claude-sonnet-4-6:generateContent \
-H "Content-Type: application/json" \
-H "x-goog-api-key: sk-your-api-key" \
-d '{
"contents": [
{"role": "user", "parts": [{"text": "Hello!"}]}
],
"generationConfig": {
"maxOutputTokens": 1024,
"temperature": 0.7
}
}'响应示例
{
"candidates": [{
"content": {
"parts": [{"text": "Hello! How can I help you today?"}],
"role": "model"
},
"finishReason": "STOP",
"index": 0
}],
"usageMetadata": {
"promptTokenCount": 10,
"candidatesTokenCount": 12,
"totalTokenCount": 22
},
"modelVersion": "claude-sonnet-4-6"
}流式请求
将端点改为 :streamGenerateContent 即可获得 SSE 流式响应:
POST /v1beta/models/claude-sonnet-4-6:streamGenerateContent
# 响应格式(每个 chunk 为独立 JSON)
data: {"candidates":[{"content":{"parts":[{"text":"Hello"}],"role":"model"},"index":0}],"modelVersion":"claude-sonnet-4-6"}
data: {"candidates":[{"content":{"parts":[{"text":"!"}],"role":"model"},"index":0}],"modelVersion":"claude-sonnet-4-6"}
data: {"candidates":[{"content":{"parts":[{"text":""}],"role":"model"},"finishReason":"STOP","index":0}],"usageMetadata":{"promptTokenCount":10,"candidatesTokenCount":12,"totalTokenCount":22}}429 自动重试
遇到上游限流(429)时,平台自动切换到其他可用端点重试(最多 2 次),无需客户端处理。
Codex CLI 直连本站 API(OpenAI)
这一节讲的是 OpenAI Codex CLI 如何直连本站 API 网关,不是官方 OpenClaw CLI 的配置方式。
配置文件
编辑 ~/.codex/config.toml:
# ~/.codex/config.toml model = "claude-sonnet-4-6" model_provider = "openclaw" [model_providers.openclaw] name = "OpenClaw API" base_url = "https://api.yunjunet.cn/v1" wire_api = "responses" env_key = "OPENCLAW_API_KEY"
设置环境变量
# 设置 API Key export OPENCLAW_API_KEY=sk-your-api-key # 启动 Codex codex
写入 Shell 配置(永久生效)
# Bash echo 'export OPENCLAW_API_KEY=sk-your-api-key' >> ~/.bashrc && source ~/.bashrc # Zsh echo 'export OPENCLAW_API_KEY=sk-your-api-key' >> ~/.zshrc && source ~/.zshrc
支持的模型
Codex CLI 通过 /v1/responses 端点通信,当前已启用且支持映射的模型可按兼容方式使用。
重要说明
⚠ 注意:
• wire_api 必须设为 "responses"(默认值,使用 Responses API)
• base_url 为 https://api.yunjunet.cn/v1(含 /v1)
• env_key 可自定义变量名,需在 Shell 中设置对应的环境变量
• 无需手动补 CLI Header:网关会透传 Codex / OpenAI SDK 常见客户端标识头到上游
• 模型切换:修改 config.toml 中的 model 字段即可切换任意平台模型
Gemini CLI 接入
OpenClaw API 提供与 Gemini CLI 的兼容接入能力,可使用平台 API Key 替代 Google API Key。实际可调用模型范围与多模态能力,以当前启用状态和接口返回为准。
环境变量配置
# 设置环境变量 export GEMINI_API_KEY=sk-your-api-key export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/ # 启动 Gemini CLI gemini
写入 Shell 配置(永久生效)
# Bash 用户 echo 'export GEMINI_API_KEY=sk-your-api-key' >> ~/.bashrc echo 'export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/' >> ~/.bashrc source ~/.bashrc # Zsh 用户 echo 'export GEMINI_API_KEY=sk-your-api-key' >> ~/.zshrc echo 'export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/' >> ~/.zshrc source ~/.zshrc
支持的模型
Gemini CLI 通过 /v1beta/models/{model}:generateContent 端点通信,当前已启用且支持映射的模型可按兼容方式使用:
- Anthropic 模型:claude-opus-4-6、claude-sonnet-4-6 等(自动 Gemini→Anthropic 格式转换)
- OpenAI 模型:gpt-4o、gpt-4o-mini 等(自动 Gemini→OpenAI 格式转换)
- 其他模型:DeepSeek、NVIDIA NIM、Qwen 等全系列模型
重要说明
⚠ 注意:
• GEMINI_BASE_URL 必须以 / 结尾:https://api.yunjunet.cn/v1beta/
• 认证方式:Gemini CLI 使用 GEMINI_API_KEY 环境变量,对应 x-goog-api-key 请求头
• 模型 ID:直接使用平台模型 ID(如 claude-sonnet-4-6),无需加 models/ 前缀
OpenClaw 自定义模型供应商(Custom Provider)
如果你不仅要接入本站默认网关,还希望把本地模型、公司内部推理服务或其他兼容 OpenAI / Anthropic 的模型服务接入 OpenClaw,可以通过 Custom Provider 扩展 OpenClaw 的模型库。
适合什么场景
方式一:使用 `openclaw onboard` 向导
如果你想快速完成配置,优先使用 `openclaw onboard`。在交互式向导里选择 `Custom provider`,然后依次填写 Provider ID、Base URL、Model ID、API Key 和兼容格式即可。
openclaw onboard
如果你要在脚本或自动化环境里一次性写入配置,可以使用非交互式命令:
openclaw onboard \ --auth-choice custom-api-key \ --custom-provider-id my-local-model \ --custom-base-url http://localhost:8000/v1 \ --custom-model-id deepseek-coder-v2 \ --custom-api-key "your-api-key-if-needed" \ --custom-compatibility openai
方式二:手动编辑 `openclaw.json`
如果你需要更细的控制,例如在同一个 Provider 下定义多个模型、设置上下文窗口、最大输出 Token、模型能力和成本字段,直接编辑 `~/.openclaw/openclaw.json` 会更灵活。
{
"models": {
"providers": {
"my-provider": {
"baseUrl": "https://api.example.com/v1",
"apiKey": "${MY_PROVIDER_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "model-a",
"name": "Model A"
}
]
}
}
}
}如果你希望顺便把默认模型切到这个 Provider 下,可以补上 `agents.defaults.model.primary`:
{
"models": {
"providers": {
"lmstudio": {
"baseUrl": "http://localhost:1234/v1",
"apiKey": "lmstudio-key",
"api": "openai-completions",
"models": [
{
"id": "minimax-m2.5-gs32",
"name": "MiniMax M2.5 (Local)",
"contextWindow": 200000,
"maxTokens": 8192,
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
}
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "lmstudio/minimax-m2.5-gs32"
}
}
}
}核心字段说明
| 字段 | 说明 |
|---|---|
baseUrl | 模型服务的 API 基础地址,例如 http://localhost:1234/v1 |
apiKey | 访问服务的密钥,推荐使用 ${ENV_VAR} 从环境变量读取 |
api | 指定兼容规范,常见是 openai-completions 或 anthropic-messages |
models | 定义该 Provider 下的一个或多个模型 |
providerAuthEnvVars | 可选字段,用于声明依赖的环境变量 |
agents.defaults.model.primary | 设置默认模型,格式通常是 provider/model-id |
配置完成后如何验证
写完配置后,建议先列出模型确认 OpenClaw 已识别到你的 Provider;如果识别正常,再把它设置成默认模型。
openclaw models list openclaw models set lmstudio/minimax-m2.5-gs32
openclaw models list 验证模型是否被正确识别,再将其加入默认工作流。
Claude Code CLI 接入
OpenClaw API 提供与 Claude Code CLI 的兼容接入能力,可使用平台 API Key 进行身份认证。实际可用模型范围与运行效果,请以当前控制台和运行时返回为准。
环境变量配置
# 在终端中设置环境变量(注意:不要加 /v1,CLI 会自动拼接) export ANTHROPIC_BASE_URL=https://api.yunjunet.cn export ANTHROPIC_AUTH_TOKEN=sk-your-api-key # 启动 Claude Code(可指定任意已启用的模型) claude claude --model deepseek-chat claude --model claude-haiku-4-5
写入 Shell 配置(永久生效)
# Bash 用户 echo 'export ANTHROPIC_BASE_URL=https://api.yunjunet.cn' >> ~/.bashrc echo 'export ANTHROPIC_AUTH_TOKEN=sk-your-api-key' >> ~/.bashrc source ~/.bashrc # Zsh 用户 echo 'export ANTHROPIC_BASE_URL=https://api.yunjunet.cn' >> ~/.zshrc echo 'export ANTHROPIC_AUTH_TOKEN=sk-your-api-key' >> ~/.zshrc source ~/.zshrc
支持的模型
Claude Code CLI 通过 /v1/messages 端点通信,当前已启用且支持映射的模型可按兼容方式使用:
- Anthropic 模型:claude-opus-4-6、claude-haiku-4-5 等(直接透传,原生体验)
- 其他模型:deepseek-chat、GPT 系列、NVIDIA NIM 模型等(自动格式转换)
重要说明
⚠ 注意:
• 统一 Base URL:https://api.yunjunet.cn(所有 SDK 和 CLI 均使用此地址,无需加 /v1)
• Claude Code CLI:使用环境变量 ANTHROPIC_AUTH_TOKEN 认证
• Anthropic Python SDK:使用 api_key 参数认证
Anthropic Python SDK
pip install anthropic
import anthropic
client = anthropic.Anthropic(
base_url="https://api.yunjunet.cn",
api_key="sk-your-api-key"
)
message = client.messages.create(
model="claude-haiku-4-5",
max_tokens=1024,
messages=[{"role": "user", "content": "Hello!"}]
)
print(message.content[0].text)模型列表
GET/v1/models
返回当前对外可见的模型、价格与基础元信息。无需认证;实际可见范围仍可能受账户权限、套餐与模型发布状态影响。
流式输出
设置 stream: true 后,响应以 Server-Sent Events (SSE) 格式返回:
data: {"id":"chatcmpl-xxx","choices":[{"delta":{"content":"你"},"index":0}]}
data: {"id":"chatcmpl-xxx","choices":[{"delta":{"content":"好"},"index":0}]}
data: {"id":"chatcmpl-xxx","choices":[{"delta":{},"index":0,"finish_reason":"stop"}]}
data: [DONE]Python 流式读取
stream = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "写一首诗"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")错误码
| HTTP 状态码 | 含义 | 说明 |
|---|---|---|
| 400 | 参数错误 | 缺少必填参数或参数格式不正确 |
| 401 | 认证失败 | API Key 无效或已禁用 |
| 402 | 余额不足 | 账户余额不足以支付本次调用 |
| 404 | 模型不存在 | 请求的模型不存在或已下线 |
| 429 | 请求过多 | 超出速率限制,请稍后重试 |
| 500 | 服务器错误 | 上游模型服务异常 |
计费说明
- 默认按实际使用量计费,结算粒度以单次 API 调用记录为准
- Token 用量优先采用上游模型返回值;如上游未返回完整统计,平台可能使用兼容估算结果
- 账户余额与订单展示以控制台口径为准;若模型存在人民币定价,平台会按当前系统汇率完成折算
- 每次调用的 token 数、费用与状态均记录在调用日志中,可在控制台审计
- 流式与非流式请求均会按最终消耗结算,实际明细请以账单记录和接口返回为准
限制说明
- API Key 数量、请求体大小、调用频率、并发和可用模型范围可能随账户等级、套餐与风控状态调整
- 余额、套餐额度或月度限制不足时,新请求可能被拒绝或进入限流状态
- 流式连接是否持续可用,除平台策略外还受上游模型与网络环境影响
- 遇到限制问题时,请优先参考控制台、套餐权益说明与接口错误返回
Cherry Studio 接入
Cherry Studio 是国内最流行的多模型桌面客户端,支持 Windows / macOS / Linux。通过添加自定义服务商即可接入本站所有模型。
配置步骤
- 打开 Cherry Studio → 左下角 设置 → 模型服务
- 点击 添加服务商,类型选择 OpenAI(兼容格式)
- 填写以下信息:
服务商名称: OpenClaw API API 地址: https://api.yunjunet.cn/v1 API Key: sk-your-api-key
- 点击 检查 验证连通性,成功后点击保存
- 在模型列表中手动添加需要的模型 ID(如
claude-sonnet-4-6、deepseek-chat)
提示: Cherry Studio 支持从 /v1/models 自动拉取模型列表,在服务商设置中勾选"自动获取模型"即可。
NextChat(ChatGPT-Next-Web)接入
NextChat 是最广泛使用的开源 ChatGPT Web 界面,支持自定义 API 端点。
Web 版配置(推荐)
- 进入 NextChat 设置页面(右下角齿轮图标)
- 找到 OpenAI API Key,填入你的 API Key
- 找到 接口地址(API Endpoint),填写:
接口地址: https://api.yunjunet.cn API Key: sk-your-api-key 自定义模型: claude-sonnet-4-6,deepseek-chat,gpt-4o
自部署环境变量
OPENAI_API_KEY=sk-your-api-key BASE_URL=https://api.yunjunet.cn CUSTOM_MODELS=claude-sonnet-4-6,deepseek-chat,gpt-4o,gpt-4o-mini
⚠ 注意: 接口地址填写 https://api.yunjunet.cn(不含 /v1),NextChat 会自动拼接路径。
LobeChat 接入
LobeChat 是功能丰富的现代 AI 聊天框架,支持多种模型提供商配置。
界面配置(Web/Desktop)
- 进入 设置 → AI 服务商 → OpenAI
- 填写配置信息:
API Key: sk-your-api-key 代理地址: https://api.yunjunet.cn/v1
- 开启 自定义模型,手动输入模型 ID(如
claude-sonnet-4-6) - 保存并在对话中选择对应模型
自部署环境变量
OPENAI_API_KEY=sk-your-api-key OPENAI_PROXY_URL=https://api.yunjunet.cn/v1 OPENAI_MODEL_LIST=claude-sonnet-4-6,claude-haiku-4-5,deepseek-chat,gpt-4o
Anthropic 直连(推荐 Claude 模型)
LobeChat 也支持直连 Anthropic 格式,使用 Claude 模型体验更完整:
设置 → AI 服务商 → Anthropic API Key: sk-your-api-key API 地址: https://api.yunjunet.cn
ChatBox 接入
ChatBox 是一款跨平台 AI 桌面客户端(Windows / macOS / Linux / iOS / Android)。
配置步骤
- 打开 ChatBox → 设置 → 模型
- AI 服务提供方选择 OpenAI API
- 填写配置:
OpenAI API 域名: https://api.yunjunet.cn API Key: sk-your-api-key 模型: claude-sonnet-4-6(或任意平台模型 ID)
- 保存后直接使用
Cursor / Windsurf 接入
Cursor 和 Windsurf 均为基于 VS Code 的 AI 代码编辑器,支持通过覆盖 OpenAI 接口地址接入本站 API。
Cursor 配置
- 打开 Cursor Settings(
Ctrl/Cmd + Shift + J) - 进入 Models 选项卡
- 在 OpenAI API Key 填入你的 Key,并开启 Override OpenAI Base URL
OpenAI API Key: sk-your-api-key Override Base URL: https://api.yunjunet.cn/v1
- 在模型选择器中添加自定义模型名(如
claude-sonnet-4-6)
Windsurf 配置
- 打开 Windsurf Settings → Windsurf AI
- 选择 OpenAI 作为 provider
- 填写配置:
API Key: sk-your-api-key Base URL: https://api.yunjunet.cn/v1 Model: claude-sonnet-4-6
⚠ 注意: Cursor 的 AI 补全(Tab 键)与 Chat 功能走不同的后端通道,自定义接口主要影响 Chat 和 Composer 功能;代码补全功能仍会使用 Cursor 自己的服务。
Cline(VS Code 插件)接入
Cline 是 VS Code 中功能最强大的 AI 编码 Agent 插件,支持完整的文件编辑、命令执行和浏览器操作。
配置步骤
- 在 VS Code 中安装 Cline 插件
- 点击侧边栏 Cline 图标 → 右上角设置齿轮
- API Provider 选择 OpenAI Compatible
- 填写以下配置:
API Provider: OpenAI Compatible Base URL: https://api.yunjunet.cn/v1 API Key: sk-your-api-key Model ID: claude-sonnet-4-6
使用 Anthropic 格式(推荐)
如需使用 Claude 的完整能力(tool use、扩展 context 等),选择 Anthropic 格式:
API Provider: Anthropic Base URL: https://api.yunjunet.cn API Key: sk-your-api-key Model: claude-sonnet-4-6
推荐: Cline 配合 Claude Sonnet 4.6 效果最佳,支持完整的 tool use 和 computer use 协议。
Continue(VS Code / JetBrains)接入
Continue 是开源 AI 编码助手,支持 VS Code 和所有 JetBrains IDE,通过配置文件接入自定义 API。
配置文件(~/.continue/config.json)
{
"models": [
{
"title": "Claude Sonnet (OpenClaw)",
"provider": "openai",
"model": "claude-sonnet-4-6",
"apiKey": "sk-your-api-key",
"apiBase": "https://api.yunjunet.cn/v1"
},
{
"title": "DeepSeek Chat (OpenClaw)",
"provider": "openai",
"model": "deepseek-chat",
"apiKey": "sk-your-api-key",
"apiBase": "https://api.yunjunet.cn/v1"
}
],
"tabAutocompleteModel": {
"title": "Autocomplete",
"provider": "openai",
"model": "deepseek-chat",
"apiKey": "sk-your-api-key",
"apiBase": "https://api.yunjunet.cn/v1"
}
}使用 Anthropic 格式
{
"models": [
{
"title": "Claude Sonnet (Anthropic)",
"provider": "anthropic",
"model": "claude-sonnet-4-6",
"apiKey": "sk-your-api-key",
"apiBase": "https://api.yunjunet.cn"
}
]
}打开配置文件
# VS Code:Ctrl/Cmd+Shift+P,输入:Continue: Open config.json # 或直接编辑 ~/.continue/config.json