Gemini 外部调用教程
在任意程序、SDK、第三方客户端中调用 ColdAPI 的 gemini-3.1-pro-preview 模型。统一走 OpenAI 兼容协议,URL + Key 即用。
1
控制台准备
登录 控制台,在「模型选择」里切到 gemini-3.1-pro-preview。
⚠️ 服务端按控制台所选模型转发,客户端请求里写的 model 字段会被忽略,但接口本身只在选了 Gemini / GPT 类模型时才放行。
2
接口信息
Base URL
https://vpnfast.sbs/v1
完整端点
POST https://vpnfast.sbs/v1/chat/completions Header: Authorization: Bearer <YOUR_API_KEY>
API Key 在控制台首页复制(与账户 Key 相同,sk-cold-...)。
3
curl 示例
curl -X POST https://vpnfast.sbs/v1/chat/completions ^
-H "Content-Type: application/json" ^
-H "Authorization: Bearer <YOUR_API_KEY>" ^
-d "{\"model\":\"gemini-3.1-pro-preview\",\"messages\":[{\"role\":\"user\",\"content\":\"你好\"}],\"stream\":false}"
上面用的是 Windows CMD 的 ^ 续行;Linux / macOS 把 ^ 换成 \,外层引号换单引号即可。
4
Python · OpenAI SDK
from openai import OpenAI
client = OpenAI(
base_url="https://vpnfast.sbs/v1",
api_key="<YOUR_API_KEY>",
)
resp = client.chat.completions.create(
model="gemini-3.1-pro-preview",
messages=[{"role": "user", "content": "用一句话介绍你自己"}],
)
print(resp.choices[0].message.content)
5
Node.js · OpenAI SDK
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://vpnfast.sbs/v1",
apiKey: "<YOUR_API_KEY>",
});
const resp = await client.chat.completions.create({
model: "gemini-3.1-pro-preview",
messages: [{ role: "user", content: "用一句话介绍你自己" }],
});
console.log(resp.choices[0].message.content);
6
第三方客户端通用配置
凡是支持 "OpenAI 兼容 / 自定义 Base URL" 的客户端(Cherry Studio、ChatBox、NextChat、LobeChat、Cursor、Cline、Continue 等),统一填:
- API 类型 / Provider: OpenAI(或 OpenAI Compatible)
- Base URL / API Host:
https://vpnfast.sbs/v1 - API Key: 控制台复制的
sk-cold-... - 模型 / Model:
gemini-3.1-pro-preview
⚠️ 部分客户端会在 Base URL 后自动追加 /chat/completions,所以这里填到 /v1 就行,不要带后缀。
⚠️ 必读
- 本接口走 OpenAI 兼容协议(
/v1/chat/completions),不是 Google Gemini 原生 API,所以官方@google/gemini-cli无法直接对接。 - 如果一定要用命令行 Gemini 风格交互,可装支持自定义 Base URL 的兼容版(如 qwen-code、各类 OpenAI-Compatible CLI)。
- 所有请求按控制台所选模型计费,账户余额在控制台首页可查。