注册账号
访问 注册页面,填写邮箱和密码完成注册。注册即赠 500,000 额度(约100万次对话)。
完全兼容 OpenAI 接口协议,一行代码切换。提供 DeepSeek / GPT / Claude / Gemini 等 19+ 模型的国内极速接入方案。
5分钟完成账号注册、API Key获取和首次API调用
新手必读Chat Completions、Embeddings等全部接口详细文档
开发者Python / Node.js / Go / Java / cURL 等多语言SDK接入指南
代码所有模型价格透明展示,按量计费,查看完整定价表
定价账户、计费、技术、安全等全方面问题解答
快速查找加入开发者交流群,获取最新动态和技术支持
社区隐私政策、服务条款、数据处理协议等合规文件
合规实时平台运营数据,每30秒自动刷新。
from openai import OpenAI # 配置 TOENK API client = OpenAI( api_key="sk-your-api-key", # 替换为你的密钥 base_url="https://toenk-api.com/v1" # 只需改为TOENK地址 ) # 调用 DeepSeek V4-Flash response = client.chat.completions.create( model="deepseek-v4-flash", messages=[ {"role": "system", "content": "你是一个助手"}, {"role": "user", "content": "你好!"} ] ) print(response.choices[0].message.content)
curl https://toenk-api.com/v1/chat/completions \ -H "Authorization: Bearer sk-your-key" \ -H "Content-Type: application/json" \ -d '{ "model": "deepseek-v4-flash", "messages": [{"role": "user", "content": "你好"}] }'
以下是加速和优化API调用的一些建议:
设置 stream: true 可以实现打字机效果,用户体验更好,首字延迟更低。适用于对话、聊天等实时场景。
避免生成过长回复浪费 tokens。根据场景设定适当的 max_tokens 值可节省 30-50% 成本。
通过精心设计的 system prompt 可以减少无效输出,提高生成质量和效率,减少试错次数。
将多个短请求合并为一次长请求,减少网络往返,节约整体延迟和 token 消耗。
以下展示平台当前提供的主要模型及其官方名称对应关系:
| TOENK 名称 | 官方名称 | 提供商 | 类型 |
|---|---|---|---|
deepseek-v4-flash | DeepSeek-V4-Flash | DeepSeek | 对话 |
deepseek-v4-pro | DeepSeek-V4-Pro | DeepSeek | 推理 |
deepseek-reasoner | DeepSeek-R1 | DeepSeek | 推理 |
deepseek-chat | DeepSeek-V3.2 | DeepSeek | 对话 |
gpt-4o-mini | GPT-4o-mini | OpenAI | 对话 |
claude-sonnet-4 | Claude Sonnet 4 | Anthropic | 对话 |
gemini-2.5-flash | Gemini 2.5 Flash | 对话 |
GET /v1/models 获取最新可用模型列表。完全兼容 OpenAI Chat Completions API,支持所有参数。
POST https://toenk-api.com/v1/chat/completions # 请求头 Authorization: Bearer sk-your-api-key Content-Type: application/json # 请求体示例 { "model": "deepseek-v4-flash", "messages": [ {"role": "system", "content": "你是一个助手"}, {"role": "user", "content": "你好"} ], "temperature": 0.7, "max_tokens": 2048, "stream": false }
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | ✅ | 模型名称 |
messages | array | ✅ | 消息列表,支持 system/user/assistant role |
temperature | number | ❌ | 采样温度 (0-2),默认1.0 |
max_tokens | integer | ❌ | 最大输出 tokens |
stream | boolean | ❌ | 是否流式输出 |
top_p | number | ❌ | 核采样参数 |
frequency_penalty | number | ❌ | 频率惩罚 (-2 到 2) |
presence_penalty | number | ❌ | 存在惩罚 (-2 到 2) |
tools | array | ❌ | Function Calling 工具定义 |
所有 API 请求需要在 HTTP Header 中添加 Bearer Token 认证:
Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
API Key 可在 令牌管理 页面创建和管理。为保障安全,建议定期轮换密钥,并为不同场景创建独立的 Key。
API 请求失败时返回标准 HTTP 状态码和错误信息:
| 状态码 | 说明 | 处理方式 |
|---|---|---|
400 | 请求参数错误 | 检查请求体格式和参数 |
401 | 认证失败 | 检查 API Key 是否正确 |
402 | 余额不足 | 充值后重试 |
403 | 权限不足 | IP白名单/额度限制 |
429 | 请求频率过高 | 降低请求频率,等待后重试 |
500 | 服务端错误 | 等待后重试,联系技术支持 |
503 | 服务暂不可用 | 等待后重试 |
# 安装 OpenAI SDK pip install openai # 基础调用 from openai import OpenAI client = OpenAI( api_key="sk-your-key", base_url="https://toenk-api.com/v1" ) # 流式输出 stream = client.chat.completions.create( model="deepseek-v4-flash", messages=[{"role": "user", "content": "讲个故事"}], stream=True ) for chunk in stream: print(chunk.choices[0].delta.content, end="")
| Python 版本 | 支持状态 | 建议 |
|---|---|---|
| Python 3.8 | 停止支持 | 2024年10月已停止支持,请升级 |
| Python 3.9 | 兼容 | 可使用,建议升级 |
| Python 3.10 | 兼容 ✅ | 推荐使用 |
| Python 3.11 | 兼容 ✅ | 推荐使用 |
| Python 3.12 | 兼容 ✅ | 完全支持 |
| Python 3.13 | 兼容 ✅ | 最新版本,完全支持 |
npm install openai import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'sk-your-key', baseURL: 'https://toenk-api.com/v1' }); const response = await client.chat.completions.create({ model: 'deepseek-v4-flash', messages: [{ role: 'user', content: '你好' }] }); console.log(response.choices[0].message.content);
package main import ( "context" "fmt" openai "github.com/sashabaranov/go-openai" ) func main() { client := openai.NewClientWithConfig( openai.DefaultConfig("sk-your-key"), ) client.BaseURL = "https://toenk-api.com/v1" resp, _ := client.CreateChatCompletion( context.Background(), openai.ChatCompletionRequest{ Model: openai.GPT4oMini, Messages: []openai.ChatCompletionMessage{ {Role: openai.ChatMessageRoleUser, Content: "你好"}, }, }, ) fmt.Println(resp.Choices[0].Message.Content) }
// Maven 依赖 // <dependency> // <groupId>com.theokanning.openai-gpt3-java</groupId> // <artifactId>service</artifactId> // <version>0.18.2</version> // </dependency> OpenAiService service = new OpenAiService( "sk-your-key", Duration.ofSeconds(30) ); ChatCompletionRequest request = ChatCompletionRequest.builder() .model("deepseek-v4-flash") .messages(List.of(new ChatMessage( ChatMessageRole.USER.value(), "你好" ))) .build(); // 设置 base_url System.setProperty("openai.base.url", "https://toenk-api.com/v1"); ChatCompletionResult result = service .createChatCompletion(request); System.out.println( result.getChoices().get(0) .getMessage().getContent());
curl https://toenk-api.com/v1/chat/completions \ -H "Authorization: Bearer sk-your-key" \ -H "Content-Type: application/json" \ -d '{ "model": "deepseek-v4-flash", "messages": [{"role": "user", "content": "你好"}] }'
加入 TOENK API 开发者社区,获取第一手产品动态、技术支持和行业交流。
微信扫码添加客服,邀请加入官方开发者交流群。群内提供技术指导、模型评测、专属折扣等福利。
技术教程、模型对比、最佳实践和产品更新公告
阅读关注我们的GitHub仓库,获取SDK和工具代码
github.com/toenk-apiTOENK API 致力于为用户提供安全、合规的服务。以下是我们的合规和政策文档:
数据处理协议(Data Processing Agreement),明确双方在数据处理中的权利义务,确保符合相关法规要求。