Developer Portal

开发者文档与接入规范

本页用于说明 OpenClaw API Gateway 的统一接入方式,包括协议兼容、认证要求、示例请求、CLI / GUI 客户端配置与运行边界。文档提供接入指引;实际可用模型、价格、套餐权益、频率限制与运行状态,以控制台、模型目录和接口返回为准。

统一入口: https://api.yunjunet.cn 协议兼容: OpenAI / Anthropic / Gemini 权威口径: 控制台 / 模型目录 / 接口返回 适用对象: CLI / SDK / GUI / IDE
统一协议
OpenAI / Anthropic / Gemini
生产地址
https://api.yunjunet.cn
权威依据
Console / /v1/models / runtime
文档定位

面向开发、测试、运维与集成方的统一接入指引,覆盖生产接入前常见的配置、鉴权与联调步骤。

兼容边界

协议兼容表示请求与响应结构兼容,不代表所有模型在每个端点下都具备完全一致的原生能力。

运行口径

若文档示例与运行时存在差异,请优先以控制台可用模型、套餐权益、错误码与接口返回结果为准。

openclaw.json

适用于使用 OpenClaw 配置目录和本地运行层的场景,便于统一维护默认模型、凭证与扩展 provider。

查看接法 →

Claude Code

适用于终端代理、代码生成与 Anthropic Messages 协议工作流,推荐给以命令行为主的研发团队。

查看接法 →

Codex CLI

通过 `~/.codex/config.toml` 接入 Responses API,适用于 OpenAI 风格的终端编排与评估流程。

查看接法 →

OpenAI / Anthropic SDK

适用于服务端应用、Agent 后端与标准 SDK 集成,通常也是生产联调的第一条路径。

查看接法 →

Gemini CLI

适用于 Gemini 兼容接口与多模态工作流,需要 Google 风格请求结构时可直接从此处接入。

查看接法 →

简介

OpenClaw API Gateway 提供统一模型接入层,用于在同一账户体系下承载多协议调用、访问控制、计费记录、模型目录与平台级治理能力。平台负责认证、配额、计费与路由转换;具体模型能力、上下文限制、工具支持、稳定性与响应行为,由所选模型及其上游服务共同决定。

统一入口
https://api.yunjunet.cn
兼容协议
OpenAI + Anthropic + Gemini
权威信息源
Console / /v1/models / errors
接入原则: 建议先创建测试用 API Key,使用最小请求完成联调,再根据业务形态补充模型白名单、套餐、客户端配置与监控规则。文档示例仅用于说明结构,实际模型 ID、价格和限制请以控制台展示与运行时返回为准。

OpenClaw 正确接入

这一节用于区分两种常见用法:一是使用 OpenClaw 本体作为本地运行层和配置目录;二是绕过本地运行层,直接调用本站兼容网关。两种方案都可以使用同一平台账户体系,但凭证位置、Base URL 和配置方式不同。

A. 使用 OpenClaw 配置目录接入本站网关

如果你已经采用 OpenClaw 运行层,建议把身份凭证写入 auth-profiles.json,再把默认模型与上游地址写入 openclaw.json。这种方式更便于后续切换模型、扩展 provider 和统一终端工作流。

说明: 如需查看 OpenClaw 本体的 CLI 安装、Provider 机制与本地运行说明,可参考 官方文档。 本页重点说明如何将本站网关接入 OpenClaw 配置目录。

# macOS / Linux / WSL
curl -fsSL https://openclaw.ai/install.sh | bash

# 初始化并安装后台服务
openclaw onboard --install-daemon

# 检查 Gateway
openclaw gateway status

# 打开控制台
openclaw dashboard

采用 OpenClaw 配置目录接入时,核心是维护 ~/.openclaw/ 下的两个文件:

~/.openclaw/
├── openclaw.json
└── agents/main/agent/auth-profiles.json

第一步:把 API Key 写入 auth-profiles.json

{
  "version": 1,
  "profiles": {
    "anthropic:default": {
      "type": "api_key",
      "provider": "anthropic",
      "key": "sk-your-api-key"
    }
  },
  "lastGood": {
    "anthropic": "anthropic:default"
  }
}

第二步:在 ~/.openclaw/openclaw.json 中配置默认模型和自定义 baseUrl

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "anthropic": {
        "baseUrl": "https://api.yunjunet.cn",
        "models": []
      }
    }
  }
}

也可以通过命令行写入 API Key:

openclaw onboard --auth-choice apiKey --anthropic-api-key sk-your-api-key

避免误配:
• 采用 OpenClaw 配置目录时,关键不是单一环境变量,而是 ~/.openclaw/ 下的结构化配置
auth-profiles.json 负责保存 API Key,openclaw.json 负责配置模型和 baseUrl
models.providers.anthropic.models 必须写成空数组 [],省略会触发配置校验错误
baseUrl 使用 https://api.yunjunet.cn,不要额外拼接 /v1
• 默认模型要写成 provider/model,例如 anthropic/claude-sonnet-4-6

B. 本站 OpenClaw API(api.yunjunet.cn)接入

如果你不使用 OpenClaw 配置目录,可直接在 SDK、CLI、第三方客户端或 IDE 插件中填写本站网关地址与 API Key。平台会在已启用模型与已开放协议范围内提供统一接入能力。

1. 获取 API Key

控制台 创建 API Key(以 sk- 开头),创建后仅显示一次,请妥善保管。

2. 选择接入方式

根据你使用的工具,选择对应的接入方式:

工具 / 客户端协议文档
Claude Code CLIAnthropic Messages查看配置 →
Codex CLI(OpenAI)Responses API查看配置 →
Gemini CLIGemini API查看配置 →
Cherry Studio / LobeChat / NextChatOpenAI Chat查看配置 →
Cursor / WindsurfOpenAI Chat查看配置 →
Cline / Continue(VS Code)OpenAI / Anthropic查看配置 →

3. 通用接入参数

所有客户端填写以下参数即可接入:

# OpenAI 兼容格式(适用于大多数客户端)
API Base URL: https://api.yunjunet.cn/v1
API Key:      sk-your-api-key

# Anthropic 格式(Claude Code CLI / Cline / LobeChat Anthropic 模式)
API Base URL: https://api.yunjunet.cn
API Key:      sk-your-api-key

# Gemini 格式(Gemini CLI)
Base URL:     https://api.yunjunet.cn/v1beta/
API Key:      sk-your-api-key

关键说明:
• OpenAI 格式 Base URL 含 /v1,Anthropic 格式不含
• 同一 API Key 可在已开放的兼容端点中复用,但具体支持范围以当前已启用模型和运行时返回为准
• 模型 ID 直接使用控制台或 GET /v1/models 返回的标识,例如 claude-sonnet-4-6deepseek-chat
• 第三方模型的能力、稳定性和可用性由所选模型及其上游服务决定

认证方式

控制台 创建 API Key 后,可按所选兼容协议使用对应认证头。生产环境请将密钥保存在服务端或受控密钥管理系统中,不建议在公开前端或不受控脚本中直接暴露生产 Key。

# OpenAI 格式(适用于 /v1/chat/completions)
Authorization: Bearer sk-your-api-key

# Anthropic 格式(适用于 /v1/messages)
x-api-key: sk-your-api-key

# Gemini 格式(适用于 /v1beta/models/*)
x-goog-api-key: sk-your-api-key

API Key 以 sk- 开头,创建后仅显示一次,请妥善保管。若出现 401、403、限额或模型不可用等情况,请以接口返回和控制台状态为准进行排查。

快速接入

若目标是先完成一次联调,无需先通读完整文档。推荐顺序是:创建测试用 API Key,选择一条最短接入路径跑通请求,再根据业务需要补充模型白名单、套餐、客户端配置和监控策略。

创建测试 Key
Runtime

openclaw.json

适用于使用 OpenClaw 配置目录的团队化场景,适合统一维护默认模型、凭证和 provider 扩展。

看 openclaw.json →
SDK

SDK 用户

多数服务端应用优先通过 OpenAI 兼容格式联调,替换 base_urlapi_key 即可开始。

看 SDK 示例 →
CLI

Claude Code / Codex

如果主要工作流发生在终端中,建议直接使用 CLI 章节,避免先走普通 SDK 再回切终端配置。

看 Claude Code →
看 Codex CLI →
Multimodal

Gemini 路线

需要 Gemini 兼容请求结构或多模态工作流时,可直接进入 Gemini CLI / API 章节。

看 Gemini CLI →
默认建议: 如已采用 OpenClaw 运行层,优先使用 openclaw.json 路线;如未采用本地运行层,先用 OpenAI 兼容格式跑通最小请求;CLI 使用者直接查看 Claude Code 或 Codex;多模态与 Gemini 兼容场景再进入 Gemini 章节。

OpenClaw.json

下面给出最小可用的 ~/.openclaw/openclaw.json 结构,适用于把 OpenClaw 作为统一运行层来管理默认模型与路由入口的场景:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "anthropic": {
        "baseUrl": "https://api.yunjunet.cn",
        "models": []
      }
    }
  }
}
主推说明: 这个示例仅展示必要字段;API Key 仍需放在 auth-profiles.json 中。若你并未采用 OpenClaw 配置目录,请直接跳到 SDK 或 CLI 章节,不需要额外维护本地运行层配置。

Python

pip install openai

from openai import OpenAI

client = OpenAI(
    base_url="https://api.yunjunet.cn/v1",
    api_key="sk-your-api-key"
)

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "你好"}]
)
print(resp.choices[0].message.content)

JavaScript / Node.js

import OpenAI from 'openai';

const client = new OpenAI({
  baseURL: 'https://api.yunjunet.cn/v1',
  apiKey: 'sk-your-api-key',
});

const completion = await client.chat.completions.create({
  model: 'deepseek-chat',
  messages: [{ role: 'user', content: '你好' }],
});
console.log(completion.choices[0].message.content);

cURL

curl https://api.yunjunet.cn/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Chat Completions

POST/v1/chat/completions

请求参数

参数类型必填说明
modelstring模型 ID,如 gpt-4o-mini、deepseek-chat
messagesarray消息数组,每项包含 role 和 content
streamboolean是否流式输出,默认 false
temperaturenumber温度参数 0-2,默认 1
max_tokensinteger最大输出 token 数
top_pnumber核采样参数

响应示例

{
  "id": "chatcmpl-xxx",
  "object": "chat.completion",
  "model": "gpt-4o-mini",
  "choices": [{
    "index": 0,
    "message": { "role": "assistant", "content": "你好!" },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 5,
    "total_tokens": 15
  }
}

Messages API(Anthropic 兼容)

POST/v1/messages

用于承载 Anthropic Messages 兼容请求,适合 Claude Code CLI、Anthropic SDK 等原生客户端接入。平台会在当前已启用且可映射的模型范围内完成格式转换;具体能力、工具支持与可用性请以模型目录和运行时返回为准。

请求参数

参数类型必填说明
modelstring模型 ID,如 claude-haiku-4-5、deepseek-chat
messagesarray消息数组,Anthropic 格式(content blocks)
max_tokensinteger最大输出 token 数
systemstring|array系统提示词
streamboolean是否流式输出,默认 false
temperaturenumber温度参数 0-1
toolsarray工具定义(Anthropic tool 格式)

请求示例

curl https://api.yunjunet.cn/v1/messages \
  -H "Content-Type: application/json" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -d '{
    "model": "claude-haiku-4-5",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "Hello!"}
    ]
  }'

响应示例

{
  "id": "msg_01XFDUDYJgAACzvnp...",
  "type": "message",
  "role": "assistant",
  "model": "claude-haiku-4-5",
  "content": [
    { "type": "text", "text": "Hello! How can I help you today?" }
  ],
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 10,
    "output_tokens": 12
  }
}

流式响应格式

设置 stream: true 后,返回 Anthropic 标准 SSE 事件流:

event: message_start
data: {"type":"message_start","message":{"id":"msg_...","type":"message","role":"assistant","model":"claude-haiku-4-5","content":[],"usage":{"input_tokens":10,"output_tokens":0}}}

event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"Hello"}}

event: content_block_stop
data: {"type":"content_block_stop","index":0}

event: message_delta
data: {"type":"message_delta","delta":{"stop_reason":"end_turn"},"usage":{"output_tokens":12}}

event: message_stop
data: {"type":"message_stop"}

格式自动转换

通过 /v1/messages 端点调用非 Anthropic 模型(如 DeepSeek、GPT)时,平台自动完成双向格式转换:

  • 请求:Anthropic Messages 格式 → OpenAI Chat Completions 格式(含 tool_use 转换)
  • 响应:OpenAI 格式 → Anthropic Messages 格式(含 SSE 事件流转换)
  • 对客户端完全透明,无需关心上游差异

Responses API(OpenAI 兼容)

POST/v1/responses

用于承载 OpenAI Responses 兼容请求,适合 Codex CLI 与 Responses 风格工作流。平台会在当前已启用且可映射的模型范围内完成协议适配;具体模型、价格与支持能力以控制台和接口返回为准。

请求参数

参数类型必填说明
modelstring模型 ID,如 claude-sonnet-4-6、gpt-4o
inputstring|array输入内容,字符串或结构化消息数组
instructionsstring系统提示词(等同于 developer 角色消息)
streamboolean是否流式输出,默认 false
max_output_tokensinteger最大输出 token 数,默认 4096
temperaturenumber温度参数
toolsarray工具定义(function calling)

请求示例

curl https://api.yunjunet.cn/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -d '{
    "model": "claude-sonnet-4-6",
    "input": "Hello!",
    "max_output_tokens": 1024
  }'

结构化输入(多轮对话)

{
  "model": "claude-sonnet-4-6",
  "instructions": "You are a helpful assistant",
  "input": [
    {"type": "message", "role": "user", "content": "What is 2+2?"},
    {"type": "message", "role": "assistant", "content": [
      {"type": "output_text", "text": "4"}
    ]},
    {"type": "message", "role": "user", "content": "And 3+3?"}
  ]
}

响应示例

{
  "id": "resp_xxx",
  "object": "response",
  "created_at": 1234567890,
  "status": "completed",
  "model": "claude-sonnet-4-6",
  "output": [{
    "type": "message",
    "id": "msg_xxx",
    "role": "assistant",
    "status": "completed",
    "content": [{"type": "output_text", "text": "6"}]
  }],
  "usage": {
    "input_tokens": 30,
    "output_tokens": 5,
    "total_tokens": 35
  }
}

流式响应

设置 stream: true 后,返回标准 SSE 事件流:

event: response.created
data: {"type":"response.created","response":{...}}

event: response.output_text.delta
data: {"type":"response.output_text.delta","delta":"Hello"}

event: response.output_text.delta
data: {"type":"response.output_text.delta","delta":" world!"}

event: response.completed
data: {"type":"response.completed","response":{...usage...}}

Gemini API(Google 兼容)

POST/v1beta/models/{model}:generateContent

POST/v1beta/models/{model}:streamGenerateContent

用于承载 Gemini 兼容请求,适合 Gemini CLI 与 Google 风格的多模态调用结构。平台会在当前已启用且可映射的模型范围内完成 Gemini 与其他协议之间的转换;具体可用范围以运行时返回为准。

请求参数

参数类型必填说明
contentsarray对话内容,每项含 role(user/model)和 parts
systemInstructionobject系统提示词,含 parts 数组
generationConfigobject生成配置:maxOutputTokens、temperature、topP

请求示例

curl https://api.yunjunet.cn/v1beta/models/claude-sonnet-4-6:generateContent \
  -H "Content-Type: application/json" \
  -H "x-goog-api-key: sk-your-api-key" \
  -d '{
    "contents": [
      {"role": "user", "parts": [{"text": "Hello!"}]}
    ],
    "generationConfig": {
      "maxOutputTokens": 1024,
      "temperature": 0.7
    }
  }'

响应示例

{
  "candidates": [{
    "content": {
      "parts": [{"text": "Hello! How can I help you today?"}],
      "role": "model"
    },
    "finishReason": "STOP",
    "index": 0
  }],
  "usageMetadata": {
    "promptTokenCount": 10,
    "candidatesTokenCount": 12,
    "totalTokenCount": 22
  },
  "modelVersion": "claude-sonnet-4-6"
}

流式请求

将端点改为 :streamGenerateContent 即可获得 SSE 流式响应:

POST /v1beta/models/claude-sonnet-4-6:streamGenerateContent

# 响应格式(每个 chunk 为独立 JSON)
data: {"candidates":[{"content":{"parts":[{"text":"Hello"}],"role":"model"},"index":0}],"modelVersion":"claude-sonnet-4-6"}

data: {"candidates":[{"content":{"parts":[{"text":"!"}],"role":"model"},"index":0}],"modelVersion":"claude-sonnet-4-6"}

data: {"candidates":[{"content":{"parts":[{"text":""}],"role":"model"},"finishReason":"STOP","index":0}],"usageMetadata":{"promptTokenCount":10,"candidatesTokenCount":12,"totalTokenCount":22}}

429 自动重试

遇到上游限流(429)时,平台自动切换到其他可用端点重试(最多 2 次),无需客户端处理。

Codex CLI 直连本站 API(OpenAI)

这一节讲的是 OpenAI Codex CLI 如何直连本站 API 网关,不是官方 OpenClaw CLI 的配置方式。

配置文件

编辑 ~/.codex/config.toml

# ~/.codex/config.toml
model = "claude-sonnet-4-6"
model_provider = "openclaw"

[model_providers.openclaw]
name = "OpenClaw API"
base_url = "https://api.yunjunet.cn/v1"
wire_api = "responses"
env_key = "OPENCLAW_API_KEY"

设置环境变量

# 设置 API Key
export OPENCLAW_API_KEY=sk-your-api-key

# 启动 Codex
codex

写入 Shell 配置(永久生效)

# Bash
echo 'export OPENCLAW_API_KEY=sk-your-api-key' >> ~/.bashrc && source ~/.bashrc

# Zsh
echo 'export OPENCLAW_API_KEY=sk-your-api-key' >> ~/.zshrc && source ~/.zshrc

支持的模型

Codex CLI 通过 /v1/responses 端点通信,当前已启用且支持映射的模型可按兼容方式使用。

重要说明

⚠ 注意:
wire_api 必须设为 "responses"(默认值,使用 Responses API)
base_urlhttps://api.yunjunet.cn/v1(含 /v1)
env_key 可自定义变量名,需在 Shell 中设置对应的环境变量
无需手动补 CLI Header:网关会透传 Codex / OpenAI SDK 常见客户端标识头到上游
模型切换:修改 config.toml 中的 model 字段即可切换任意平台模型

Gemini CLI 接入

OpenClaw API 提供与 Gemini CLI 的兼容接入能力,可使用平台 API Key 替代 Google API Key。实际可调用模型范围与多模态能力,以当前启用状态和接口返回为准。

环境变量配置

# 设置环境变量
export GEMINI_API_KEY=sk-your-api-key
export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/

# 启动 Gemini CLI
gemini

写入 Shell 配置(永久生效)

# Bash 用户
echo 'export GEMINI_API_KEY=sk-your-api-key' >> ~/.bashrc
echo 'export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/' >> ~/.bashrc
source ~/.bashrc

# Zsh 用户
echo 'export GEMINI_API_KEY=sk-your-api-key' >> ~/.zshrc
echo 'export GEMINI_BASE_URL=https://api.yunjunet.cn/v1beta/' >> ~/.zshrc
source ~/.zshrc

支持的模型

Gemini CLI 通过 /v1beta/models/{model}:generateContent 端点通信,当前已启用且支持映射的模型可按兼容方式使用:

  • Anthropic 模型:claude-opus-4-6、claude-sonnet-4-6 等(自动 Gemini→Anthropic 格式转换)
  • OpenAI 模型:gpt-4o、gpt-4o-mini 等(自动 Gemini→OpenAI 格式转换)
  • 其他模型:DeepSeek、NVIDIA NIM、Qwen 等全系列模型

重要说明

⚠ 注意:
GEMINI_BASE_URL 必须以 / 结尾:https://api.yunjunet.cn/v1beta/
认证方式:Gemini CLI 使用 GEMINI_API_KEY 环境变量,对应 x-goog-api-key 请求头
模型 ID:直接使用平台模型 ID(如 claude-sonnet-4-6),无需加 models/ 前缀

OpenClaw 自定义模型供应商(Custom Provider)

如果你不仅要接入本站默认网关,还希望把本地模型、公司内部推理服务或其他兼容 OpenAI / Anthropic 的模型服务接入 OpenClaw,可以通过 Custom Provider 扩展 OpenClaw 的模型库。

适合什么场景

本地模型
LM Studio / Ollama / 本地推理服务
内部服务
公司内网 API / 私有模型网关
特殊云服务
新兴平台 / 自定义兼容端点

方式一:使用 `openclaw onboard` 向导

如果你想快速完成配置,优先使用 `openclaw onboard`。在交互式向导里选择 `Custom provider`,然后依次填写 Provider ID、Base URL、Model ID、API Key 和兼容格式即可。

openclaw onboard

如果你要在脚本或自动化环境里一次性写入配置,可以使用非交互式命令:

openclaw onboard \
  --auth-choice custom-api-key \
  --custom-provider-id my-local-model \
  --custom-base-url http://localhost:8000/v1 \
  --custom-model-id deepseek-coder-v2 \
  --custom-api-key "your-api-key-if-needed" \
  --custom-compatibility openai
填写建议: `Provider ID` 用来标识供应商,例如 `my-local-model`;`Compatibility` 一般选择 `openai` 或 `anthropic`;如果你的服务不需要认证,API Key 可以先填占位值。

方式二:手动编辑 `openclaw.json`

如果你需要更细的控制,例如在同一个 Provider 下定义多个模型、设置上下文窗口、最大输出 Token、模型能力和成本字段,直接编辑 `~/.openclaw/openclaw.json` 会更灵活。

{
  "models": {
    "providers": {
      "my-provider": {
        "baseUrl": "https://api.example.com/v1",
        "apiKey": "${MY_PROVIDER_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "model-a",
            "name": "Model A"
          }
        ]
      }
    }
  }
}

如果你希望顺便把默认模型切到这个 Provider 下,可以补上 `agents.defaults.model.primary`:

{
  "models": {
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "minimax-m2.5-gs32",
            "name": "MiniMax M2.5 (Local)",
            "contextWindow": 200000,
            "maxTokens": 8192,
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            }
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "lmstudio/minimax-m2.5-gs32"
      }
    }
  }
}

核心字段说明

字段说明
baseUrl模型服务的 API 基础地址,例如 http://localhost:1234/v1
apiKey访问服务的密钥,推荐使用 ${ENV_VAR} 从环境变量读取
api指定兼容规范,常见是 openai-completionsanthropic-messages
models定义该 Provider 下的一个或多个模型
providerAuthEnvVars可选字段,用于声明依赖的环境变量
agents.defaults.model.primary设置默认模型,格式通常是 provider/model-id

配置完成后如何验证

写完配置后,建议先列出模型确认 OpenClaw 已识别到你的 Provider;如果识别正常,再把它设置成默认模型。

openclaw models list
openclaw models set lmstudio/minimax-m2.5-gs32
补充说明: 如需在生产环境中引入自定义 Provider,建议先通过 openclaw models list 验证模型是否被正确识别,再将其加入默认工作流。

Claude Code CLI 接入

OpenClaw API 提供与 Claude Code CLI 的兼容接入能力,可使用平台 API Key 进行身份认证。实际可用模型范围与运行效果,请以当前控制台和运行时返回为准。

环境变量配置

# 在终端中设置环境变量(注意:不要加 /v1,CLI 会自动拼接)
export ANTHROPIC_BASE_URL=https://api.yunjunet.cn
export ANTHROPIC_AUTH_TOKEN=sk-your-api-key

# 启动 Claude Code(可指定任意已启用的模型)
claude
claude --model deepseek-chat
claude --model claude-haiku-4-5

写入 Shell 配置(永久生效)

# Bash 用户
echo 'export ANTHROPIC_BASE_URL=https://api.yunjunet.cn' >> ~/.bashrc
echo 'export ANTHROPIC_AUTH_TOKEN=sk-your-api-key' >> ~/.bashrc
source ~/.bashrc

# Zsh 用户
echo 'export ANTHROPIC_BASE_URL=https://api.yunjunet.cn' >> ~/.zshrc
echo 'export ANTHROPIC_AUTH_TOKEN=sk-your-api-key' >> ~/.zshrc
source ~/.zshrc

支持的模型

Claude Code CLI 通过 /v1/messages 端点通信,当前已启用且支持映射的模型可按兼容方式使用:

  • Anthropic 模型:claude-opus-4-6、claude-haiku-4-5 等(直接透传,原生体验)
  • 其他模型:deepseek-chat、GPT 系列、NVIDIA NIM 模型等(自动格式转换)

重要说明

⚠ 注意:
统一 Base URLhttps://api.yunjunet.cn(所有 SDK 和 CLI 均使用此地址,无需加 /v1)
Claude Code CLI:使用环境变量 ANTHROPIC_AUTH_TOKEN 认证
Anthropic Python SDK:使用 api_key 参数认证

Anthropic Python SDK

pip install anthropic

import anthropic

client = anthropic.Anthropic(
    base_url="https://api.yunjunet.cn",
    api_key="sk-your-api-key"
)

message = client.messages.create(
    model="claude-haiku-4-5",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello!"}]
)
print(message.content[0].text)

模型列表

GET/v1/models

返回当前对外可见的模型、价格与基础元信息。无需认证;实际可见范围仍可能受账户权限、套餐与模型发布状态影响。

流式输出

设置 stream: true 后,响应以 Server-Sent Events (SSE) 格式返回:

data: {"id":"chatcmpl-xxx","choices":[{"delta":{"content":"你"},"index":0}]}

data: {"id":"chatcmpl-xxx","choices":[{"delta":{"content":"好"},"index":0}]}

data: {"id":"chatcmpl-xxx","choices":[{"delta":{},"index":0,"finish_reason":"stop"}]}

data: [DONE]

Python 流式读取

stream = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "写一首诗"}],
    stream=True
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

错误码

HTTP 状态码含义说明
400参数错误缺少必填参数或参数格式不正确
401认证失败API Key 无效或已禁用
402余额不足账户余额不足以支付本次调用
404模型不存在请求的模型不存在或已下线
429请求过多超出速率限制,请稍后重试
500服务器错误上游模型服务异常

计费说明

  • 默认按实际使用量计费,结算粒度以单次 API 调用记录为准
  • Token 用量优先采用上游模型返回值;如上游未返回完整统计,平台可能使用兼容估算结果
  • 账户余额与订单展示以控制台口径为准;若模型存在人民币定价,平台会按当前系统汇率完成折算
  • 每次调用的 token 数、费用与状态均记录在调用日志中,可在控制台审计
  • 流式与非流式请求均会按最终消耗结算,实际明细请以账单记录和接口返回为准

限制说明

  • API Key 数量、请求体大小、调用频率、并发和可用模型范围可能随账户等级、套餐与风控状态调整
  • 余额、套餐额度或月度限制不足时,新请求可能被拒绝或进入限流状态
  • 流式连接是否持续可用,除平台策略外还受上游模型与网络环境影响
  • 遇到限制问题时,请优先参考控制台、套餐权益说明与接口错误返回

Cherry Studio 接入

Cherry Studio 是国内最流行的多模型桌面客户端,支持 Windows / macOS / Linux。通过添加自定义服务商即可接入本站所有模型。

配置步骤

  1. 打开 Cherry Studio → 左下角 设置模型服务
  2. 点击 添加服务商,类型选择 OpenAI(兼容格式)
  3. 填写以下信息:
服务商名称: OpenClaw API
API 地址:   https://api.yunjunet.cn/v1
API Key:    sk-your-api-key
  1. 点击 检查 验证连通性,成功后点击保存
  2. 在模型列表中手动添加需要的模型 ID(如 claude-sonnet-4-6deepseek-chat

提示: Cherry Studio 支持从 /v1/models 自动拉取模型列表,在服务商设置中勾选"自动获取模型"即可。

NextChat(ChatGPT-Next-Web)接入

NextChat 是最广泛使用的开源 ChatGPT Web 界面,支持自定义 API 端点。

Web 版配置(推荐)

  1. 进入 NextChat 设置页面(右下角齿轮图标)
  2. 找到 OpenAI API Key,填入你的 API Key
  3. 找到 接口地址(API Endpoint),填写:
接口地址: https://api.yunjunet.cn
API Key:  sk-your-api-key
自定义模型: claude-sonnet-4-6,deepseek-chat,gpt-4o

自部署环境变量

OPENAI_API_KEY=sk-your-api-key
BASE_URL=https://api.yunjunet.cn
CUSTOM_MODELS=claude-sonnet-4-6,deepseek-chat,gpt-4o,gpt-4o-mini

⚠ 注意: 接口地址填写 https://api.yunjunet.cn(不含 /v1),NextChat 会自动拼接路径。

LobeChat 接入

LobeChat 是功能丰富的现代 AI 聊天框架,支持多种模型提供商配置。

界面配置(Web/Desktop)

  1. 进入 设置AI 服务商OpenAI
  2. 填写配置信息:
API Key:    sk-your-api-key
代理地址:   https://api.yunjunet.cn/v1
  1. 开启 自定义模型,手动输入模型 ID(如 claude-sonnet-4-6
  2. 保存并在对话中选择对应模型

自部署环境变量

OPENAI_API_KEY=sk-your-api-key
OPENAI_PROXY_URL=https://api.yunjunet.cn/v1
OPENAI_MODEL_LIST=claude-sonnet-4-6,claude-haiku-4-5,deepseek-chat,gpt-4o

Anthropic 直连(推荐 Claude 模型)

LobeChat 也支持直连 Anthropic 格式,使用 Claude 模型体验更完整:

设置 → AI 服务商 → Anthropic
API Key:  sk-your-api-key
API 地址: https://api.yunjunet.cn

ChatBox 接入

ChatBox 是一款跨平台 AI 桌面客户端(Windows / macOS / Linux / iOS / Android)。

配置步骤

  1. 打开 ChatBox → 设置模型
  2. AI 服务提供方选择 OpenAI API
  3. 填写配置:
OpenAI API 域名: https://api.yunjunet.cn
API Key:         sk-your-api-key
模型:            claude-sonnet-4-6(或任意平台模型 ID)
  1. 保存后直接使用

Cursor / Windsurf 接入

Cursor 和 Windsurf 均为基于 VS Code 的 AI 代码编辑器,支持通过覆盖 OpenAI 接口地址接入本站 API。

Cursor 配置

  1. 打开 Cursor SettingsCtrl/Cmd + Shift + J
  2. 进入 Models 选项卡
  3. OpenAI API Key 填入你的 Key,并开启 Override OpenAI Base URL
OpenAI API Key:       sk-your-api-key
Override Base URL:    https://api.yunjunet.cn/v1
  1. 在模型选择器中添加自定义模型名(如 claude-sonnet-4-6

Windsurf 配置

  1. 打开 Windsurf SettingsWindsurf AI
  2. 选择 OpenAI 作为 provider
  3. 填写配置:
API Key:  sk-your-api-key
Base URL: https://api.yunjunet.cn/v1
Model:    claude-sonnet-4-6

⚠ 注意: Cursor 的 AI 补全(Tab 键)与 Chat 功能走不同的后端通道,自定义接口主要影响 Chat 和 Composer 功能;代码补全功能仍会使用 Cursor 自己的服务。

Cline(VS Code 插件)接入

Cline 是 VS Code 中功能最强大的 AI 编码 Agent 插件,支持完整的文件编辑、命令执行和浏览器操作。

配置步骤

  1. 在 VS Code 中安装 Cline 插件
  2. 点击侧边栏 Cline 图标 → 右上角设置齿轮
  3. API Provider 选择 OpenAI Compatible
  4. 填写以下配置:
API Provider:  OpenAI Compatible
Base URL:      https://api.yunjunet.cn/v1
API Key:       sk-your-api-key
Model ID:      claude-sonnet-4-6

使用 Anthropic 格式(推荐)

如需使用 Claude 的完整能力(tool use、扩展 context 等),选择 Anthropic 格式:

API Provider:   Anthropic
Base URL:       https://api.yunjunet.cn
API Key:        sk-your-api-key
Model:          claude-sonnet-4-6

推荐: Cline 配合 Claude Sonnet 4.6 效果最佳,支持完整的 tool use 和 computer use 协议。

Continue(VS Code / JetBrains)接入

Continue 是开源 AI 编码助手,支持 VS Code 和所有 JetBrains IDE,通过配置文件接入自定义 API。

配置文件(~/.continue/config.json)

{
  "models": [
    {
      "title": "Claude Sonnet (OpenClaw)",
      "provider": "openai",
      "model": "claude-sonnet-4-6",
      "apiKey": "sk-your-api-key",
      "apiBase": "https://api.yunjunet.cn/v1"
    },
    {
      "title": "DeepSeek Chat (OpenClaw)",
      "provider": "openai",
      "model": "deepseek-chat",
      "apiKey": "sk-your-api-key",
      "apiBase": "https://api.yunjunet.cn/v1"
    }
  ],
  "tabAutocompleteModel": {
    "title": "Autocomplete",
    "provider": "openai",
    "model": "deepseek-chat",
    "apiKey": "sk-your-api-key",
    "apiBase": "https://api.yunjunet.cn/v1"
  }
}

使用 Anthropic 格式

{
  "models": [
    {
      "title": "Claude Sonnet (Anthropic)",
      "provider": "anthropic",
      "model": "claude-sonnet-4-6",
      "apiKey": "sk-your-api-key",
      "apiBase": "https://api.yunjunet.cn"
    }
  ]
}

打开配置文件

# VS Code:Ctrl/Cmd+Shift+P,输入:Continue: Open config.json
# 或直接编辑
~/.continue/config.json

完成文档阅读后,可继续进入控制面与路由说明

如已明确接入工具链,请前往控制台创建或管理 API Key;如需继续评估平台职责、协议边界与治理能力,请查看路由能力说明页。