📖 TOENK API 文档

完全兼容 OpenAI 接口协议,一行代码切换。提供 DeepSeek / GPT / Claude / Gemini 等 19+ 模型的国内极速接入方案。

🚀

快速开始

5分钟完成账号注册、API Key获取和首次API调用

新手必读
💬

API参考

Chat Completions、Embeddings等全部接口详细文档

开发者
🐍

SDK集成

Python / Node.js / Go / Java / cURL 等多语言SDK接入指南

代码
💰

模型定价

所有模型价格透明展示,按量计费,查看完整定价表

定价

常见问题(FAQ)

账户、计费、技术、安全等全方面问题解答

快速查找
👥

开发者社区

加入开发者交流群,获取最新动态和技术支持

社区
🔒

合规文档

隐私政策、服务条款、数据处理协议等合规文件

合规

📊 平台状态

实时平台运营数据,每30秒自动刷新。

👥
-
注册用户
🤖
-
可用模型
📡
-
API通道
⏱️
-
运行时间

🚀 快速开始

1

注册账号

访问 注册页面,填写邮箱和密码完成注册。注册即赠 500,000 额度(约100万次对话)。

2

创建 API Key

登录后进入 令牌管理,点击「添加令牌」生成你的专属密钥。

3

调用 API

使用 OpenAI SDK,设置 base_url = "https://toenk-api.com/v1" 即可。3行代码完成接入!

⚡ 接入指南

Python SDK - 一行切换
from openai import OpenAI

# 配置 TOENK API
client = OpenAI(
    api_key="sk-your-api-key",          # 替换为你的密钥
    base_url="https://toenk-api.com/v1" # 只需改为TOENK地址
)

# 调用 DeepSeek V4-Flash
response = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "你是一个助手"},
        {"role": "user", "content": "你好!"}
    ]
)
print(response.choices[0].message.content)
cURL 直接调用
curl https://toenk-api.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [{"role": "user", "content": "你好"}]
  }'

🌟 最佳实践

以下是加速和优化API调用的一些建议:

1

使用流式输出减少等待

设置 stream: true 可以实现打字机效果,用户体验更好,首字延迟更低。适用于对话、聊天等实时场景。

2

设置合理的 max_tokens

避免生成过长回复浪费 tokens。根据场景设定适当的 max_tokens 值可节省 30-50% 成本。

3

使用系统提示词优化输出

通过精心设计的 system prompt 可以减少无效输出,提高生成质量和效率,减少试错次数。

4

批量处理减少连接开销

将多个短请求合并为一次长请求,减少网络往返,节约整体延迟和 token 消耗。

💡
更多最佳实践请参考 开发者博客 →,我们会持续更新性能优化技巧和实战案例。

🧠 可用模型 (19+ 个)

平台支持以下主流模型,持续更新中:

deepseek-v4-flash deepseek-v4-pro deepseek-reasoner deepseek-chat deepseek-v3.2 gpt-4o gpt-4o-mini gpt-5 gpt-5.4 claude-sonnet-4 claude-opus-4 gemini-2.5-flash gemini-2.5-pro grok-4.1 kimi-k2.6 qwen3.6-plus qwen3.6-flash glm-5 glm-5.1 doubao-seed-2.0-pro
💡
完整模型列表: 使用 API Key 访问 GET /v1/models 获取最新列表。详细价格请查看 模型定价表 →

📋 模型名称映射表

以下展示平台当前提供的主要模型及其官方名称对应关系:

TOENK 名称官方名称提供商类型
deepseek-v4-flashDeepSeek-V4-FlashDeepSeek对话
deepseek-v4-proDeepSeek-V4-ProDeepSeek推理
deepseek-reasonerDeepSeek-R1DeepSeek推理
deepseek-chatDeepSeek-V3.2DeepSeek对话
gpt-4o-miniGPT-4o-miniOpenAI对话
claude-sonnet-4Claude Sonnet 4Anthropic对话
gemini-2.5-flashGemini 2.5 FlashGoogle对话
💡
完整列表: 使用 API Key 访问 GET /v1/models 获取最新可用模型列表。

💬 Chat Completions

完全兼容 OpenAI Chat Completions API,支持所有参数。

请求端点

POST /v1/chat/completions
POST https://toenk-api.com/v1/chat/completions

# 请求头
Authorization: Bearer sk-your-api-key
Content-Type: application/json

# 请求体示例
{
  "model": "deepseek-v4-flash",
  "messages": [
    {"role": "system", "content": "你是一个助手"},
    {"role": "user", "content": "你好"}
  ],
  "temperature": 0.7,
  "max_tokens": 2048,
  "stream": false
}

请求参数

参数类型必填说明
modelstring模型名称
messagesarray消息列表,支持 system/user/assistant role
temperaturenumber采样温度 (0-2),默认1.0
max_tokensinteger最大输出 tokens
streamboolean是否流式输出
top_pnumber核采样参数
frequency_penaltynumber频率惩罚 (-2 到 2)
presence_penaltynumber存在惩罚 (-2 到 2)
toolsarrayFunction Calling 工具定义

🔑 认证鉴权

所有 API 请求需要在 HTTP Header 中添加 Bearer Token 认证:

认证方式
Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

API Key 可在 令牌管理 页面创建和管理。为保障安全,建议定期轮换密钥,并为不同场景创建独立的 Key。

⚠️ 错误码

API 请求失败时返回标准 HTTP 状态码和错误信息:

状态码说明处理方式
400请求参数错误检查请求体格式和参数
401认证失败检查 API Key 是否正确
402余额不足充值后重试
403权限不足IP白名单/额度限制
429请求频率过高降低请求频率,等待后重试
500服务端错误等待后重试,联系技术支持
503服务暂不可用等待后重试

🐍 Python SDK

安装 & 使用
# 安装 OpenAI SDK
pip install openai

# 基础调用
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-key",
    base_url="https://toenk-api.com/v1"
)

# 流式输出
stream = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[{"role": "user", "content": "讲个故事"}],
    stream=True
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end="")

🐍 Python 版本支持

💡
我们建议使用 Python 3.10 或更高版本以获得最佳体验。Python 3.8 已停止支持。
Python 版本支持状态建议
Python 3.8停止支持2024年10月已停止支持,请升级
Python 3.9兼容可使用,建议升级
Python 3.10兼容 ✅推荐使用
Python 3.11兼容 ✅推荐使用
Python 3.12兼容 ✅完全支持
Python 3.13兼容 ✅最新版本,完全支持

🟢 Node.js SDK

npm openai SDK
npm install openai

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'sk-your-key',
  baseURL: 'https://toenk-api.com/v1'
});

const response = await client.chat.completions.create({
  model: 'deepseek-v4-flash',
  messages: [{ role: 'user', content: '你好' }]
});

console.log(response.choices[0].message.content);

🔷 Go SDK

go-openai SDK
package main

import (
    "context"
    "fmt"
    openai "github.com/sashabaranov/go-openai"
)

func main() {
    client := openai.NewClientWithConfig(
        openai.DefaultConfig("sk-your-key"),
    )
    client.BaseURL = "https://toenk-api.com/v1"

    resp, _ := client.CreateChatCompletion(
        context.Background(),
        openai.ChatCompletionRequest{
            Model: openai.GPT4oMini,
            Messages: []openai.ChatCompletionMessage{
                {Role: openai.ChatMessageRoleUser, Content: "你好"},
            },
        },
    )
    fmt.Println(resp.Choices[0].Message.Content)
}

☕ Java SDK

Spring Boot + OpenAI client
// Maven 依赖
// <dependency>
//   <groupId>com.theokanning.openai-gpt3-java</groupId>
//   <artifactId>service</artifactId>
//   <version>0.18.2</version>
// </dependency>

OpenAiService service = new OpenAiService(
    "sk-your-key",
    Duration.ofSeconds(30)
);

ChatCompletionRequest request = ChatCompletionRequest.builder()
    .model("deepseek-v4-flash")
    .messages(List.of(new ChatMessage(
        ChatMessageRole.USER.value(), "你好"
    )))
    .build();

// 设置 base_url
System.setProperty("openai.base.url",
    "https://toenk-api.com/v1");

ChatCompletionResult result = service
    .createChatCompletion(request);
System.out.println(
    result.getChoices().get(0)
        .getMessage().getContent());

🌐 cURL 示例

cURL 直接调用
curl https://toenk-api.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [{"role": "user", "content": "你好"}]
  }'

❓ 常见问题

📖
完整 FAQ 请访问 FAQ 常见问题页面 →,包含账户、计费、技术、安全等全方面问题解答。

👥 开发者社区

加入 TOENK API 开发者社区,获取第一手产品动态、技术支持和行业交流。

💬

加入交流群

微信扫码添加客服,邀请加入官方开发者交流群。群内提供技术指导、模型评测、专属折扣等福利。

📱 微信: 412828197 ✉️ 邮件: 412828197@qq.com
📝

开发者博客

技术教程、模型对比、最佳实践和产品更新公告

阅读
🐙

开源社区

关注我们的GitHub仓库,获取SDK和工具代码

github.com/toenk-api
💡
社区福利: 加入开发者社区可获取 专属折扣码新模型优先体验技术分享会 邀请资格。

🔒 合规文档

TOENK API 致力于为用户提供安全、合规的服务。以下是我们的合规和政策文档:

🔒

隐私政策

我们如何收集、使用和保护您的个人信息。我们严格遵守数据最小化原则,仅收集服务必要的元数据。

📜

服务条款

使用 TOENK API 服务需遵守的条款和条件。包括服务可用性 SLA 承诺、用户义务和责任限制。

📄

数据处理协议 (DPA)

数据处理协议(Data Processing Agreement),明确双方在数据处理中的权利义务,确保符合相关法规要求。

🔐

安全合规中心

等保2.0定级备案、OWASP API安全整改、AI内容标注与算法备案材料。系统性的安全合规建设文档。

ℹ️
合规文档持续更新中。如有特殊合规需求或需要签署企业级 DPA,请联系 412828197@qq.com
📊
系统监控: 平台已内建完善的性能监控和健康检查体系,包括实时仪表盘、自动故障检测和报警系统。 访问 服务状态页面 可查看实时运行状态。无需额外配置第三方监控工具。