❓ 常见问题
全面了解 TOENK API 的使用方法、计费规则和技术细节。没找到答案?请联系我们。
👤 账户相关 (5)
注册流程非常简单:
- 访问 注册页面
- 填写邮箱地址和密码(密码需至少8位,含大小写字母)
- 点击邮箱中的验证链接完成激活
- 登录后即可使用。注册即赠送 500,000 免费额度
在登录页面点击 "忘记密码" 链接,输入注册邮箱,系统将发送密码重置链接到您的邮箱。如未收到,请检查垃圾邮件箱,或联系客服手动重置。
登录后,进入 令牌管理 页面(路径:/keys),点击 "添加令牌" 按钮,设置令牌名称和限额后即可生成。创建后请立即复制保存,页面刷新后将不再显示完整密钥。
可以。您可以根据不同场景创建多个 API Key,例如:开发环境一个、生产环境一个、测试环境一个。还可以为每个 Key 设置独立的额度限制和IP白名单,实现更精细的权限管理。
登录后进入 个人设置 页面(/profile),可修改昵称、邮箱偏好设置和通知方式等。安全相关的敏感信息变更(如修改邮箱)可能需要邮件验证。
💰 计费相关 (5)
按实际 token 用量 计费,无需月费或年费。不同模型价格不同,详细价格请查看 模型定价表。计费单位为每百万 tokens(1M tokens)的价格。
新用户注册即赠 500,000 免费额度,可在控制台查看剩余额度。
有!新用户注册即赠送 500,000 额度。以 deepseek-v4-flash 计算(¥0.5/1M tokens),约等于 100万次对话 的用量。免费额度有效期为 30天,使用完或到期后未用完部分自动清零。
登录后进入 充值页面(/top-up),支持以下支付方式:
- 🧧 支付宝:扫码支付,即时到账
- 💚 微信支付:扫码支付,即时到账
充值金额长期有效,不会过期。批量采购(月消费超1000元)可联系客服获取VIP费率和专用额度池。
登录后进入 消费记录 页面,可查看详细的用量统计和扣费记录。支持按时间范围、模型类型筛选。
当余额和免费额度都用完后,API 请求将返回 402 Payment Required 或 403 Insufficient Quota 错误。及时充值后即可恢复服务。建议设置 余额告警阈值,当余额低于指定值时系统会自动发送通知。
⚙️ 技术相关 (6)
在 API 请求中将 model 参数改为目标模型名称即可。例如:
"model": "deepseek-v4-flash"→ DeepSeek V4-Flash"model": "gpt-4o"→ GPT-4o"model": "claude-sonnet-4"→ Claude Sonnet 4
完整模型列表可通过 GET /v1/models API(需 API Key)获取。
base_url(也称为 base_url / api_base)是 OpenAI SDK 中用于指定 API 服务地址的参数。使用 TOENK API 时,只需将其设置为:base_url = "https://toenk-api.com/v1"
示例(Python):
client = OpenAI(
api_key="sk-your-key",
base_url="https://toenk-api.com/v1"
)如果遇到响应慢的情况,建议:
- 使用流式输出(stream=True),首 token 延迟通常 <200ms
- 切换模型:deepseek-v4-flash 或 qwen3.6-flash 响应速度最快
- 检查网络:确保使用国内BGP线路直连,P99延迟<500ms
- 减少 max_tokens:输出长度越长,等待时间越久
- 避开高峰期:工作日10:00-11:00和14:00-16:00为使用高峰
支持。完全兼容 OpenAI 的 SSE (Server-Sent Events) 流式输出。在请求中设置 stream: true(或 stream=True)即可启用。流式输出的首 token 延迟极低,适合对话和实时场景。
支持!完全兼容 OpenAI 的 Function Calling 和 Tool Use 接口规范。你可以定义工具函数,模型会自动判断何时调用。适用于智能体(Agent)框架、代码执行和外部工具集成等场景。
支持图片输入(Vision)的模型包括:gpt-4o、gpt-4o-mini、claude-sonnet-4、gemini-2.5-flash/pro 等。使用方式与 OpenAI Vision API 一致,将图片以 base64 URL 形式传入 messages.content 数组。音频输入支持部分模型(如 gpt-4o-audio-preview)。
🧠 模型相关 (4)
平台支持 19+ 个模型,覆盖所有主流AI厂商:
- DeepSeek:deepseek-v4-flash / v4-pro / reasoner / chat / v3.2
- OpenAI:gpt-4o / gpt-4o-mini / gpt-5 / gpt-5.4
- Anthropic:claude-sonnet-4 / claude-opus-4
- Google:gemini-2.5-flash / gemini-2.5-pro
- 阿里通义:qwen3.6-plus / qwen3.6-flash
- 智谱:glm-5 / glm-5.1
- 其他:grok-4.1 (xAI)、kimi-k2.6 (Moonshot)、doubao-seed-2.0-pro (字节)
按场景推荐:
- 日常对话/轻量任务:deepseek-v4-flash(性价比之王,¥0.5/1M)
- 复杂推理/数学/代码:deepseek-v4-pro 或 deepseek-reasoner
- 长文本/大上下文:gemini 系列(1M上下文)或 deepseek 系列
- 创意写作:claude-sonnet-4
- 需要Function Calling:所有主流模型均支持
会!我们持续关注各大厂商的新模型发布,第一时间接入最新的高性能模型。每次新增模型会通过公告和 Release Notes 通知用户。建议定期通过 GET /v1/models API 获取最新的模型列表。
各模型上下文长度如下:
- deepseek 系列:128K tokens
- gpt-4o / 4o-mini:128K tokens
- gpt-5 / 5.4:256K tokens
- claude 系列:200K tokens
- gemini 系列:1M tokens(最大)
- qwen 系列:128K tokens
- 其他模型:通常 128K tokens
🔒 安全相关 (4)
以下几点建议保护您的 API Key 安全:
- 不要明文存储:使用环境变量或密钥管理服务(如 Vault)
- 使用 IP 白名单:创建 Key 时绑定固定IP,非白名单IP无法使用
- 设置额度限制:为每个 Key 设置单日/总额度,防止意外超支
- 定期轮换:建议每 90 天更换一次 Key
- 不要分享:切勿将 Key 暴露在客户端代码、公共仓库或公开页面中
是。所有 API 通信均使用 TLS 1.2 / TLS 1.3 加密传输,证书由 Let's Encrypt 签发。API 鉴权采用 Bearer Token 方式,每次请求都需携带有效令牌。我们使用 HSTS 强制 HTTPS,确保数据传输全程加密。
我们严格遵守数据保护原则:
- 请求内容:仅记录元数据(时间、模型、用量),不保存对话内容
- 访问日志:保留了7天用于运维排障,到期自动清除
- API Key:使用单向哈希存储,即使数据泄露也无法还原
- 数据传输:不向第三方分享或出售用户数据
详细信息请阅读 隐私政策。
有。我们部署了多层安全防护体系:
- WAF规则:自动拦截SQL注入、XSS、路径穿越等OWASP Top 10攻击
- 速率限制:单IP每分钟请求数限制,防止滥用
- IP黑名单:自动检测并封禁恶意扫描和攻击IP
- 渠道容灾:多节点集群部署,单节点故障自动切换
📋 通用问题 (4)
完全兼容。TOENK API 实现了 OpenAI Chat Completions、Embeddings 等全部接口协议。您只需修改 base_url 为 https://toenk-api.com/v1,现有代码无需任何改动即可无缝切换。同样兼容 Anhtropic SDK 和 Google AI SDK 的接口规范。
非常快。国内 BGP服务器直连,电信/联通/移动三网优化:
- P50 延迟:<100ms
- P99 延迟:<500ms
- 可用性:99.9% SLA
- 多节点集群:故障自动切换,服务无中断
我们提供多渠道技术支持:
- 📧 邮件:412828197@qq.com
- 💬 工单系统:登录后在控制台提交工单
- 📖 文档中心:toenk-api.com/docs/
技术支持团队 7×24 小时响应,紧急问题 5 分钟内响应。
有。我们提供 99.9% 的月度服务可用性保障。多节点集群 + 智能负载均衡部署,任何单点故障自动切换至健康节点,切换时间 <60秒。具体条款详见 服务条款。