❓ 常见问题

全面了解 TOENK API 的使用方法、计费规则和技术细节。没找到答案?请联系我们。

👤 账户相关 (5)

如何注册 TOENK API 账号?

注册流程非常简单:

  • 访问 注册页面
  • 填写邮箱地址和密码(密码需至少8位,含大小写字母)
  • 点击邮箱中的验证链接完成激活
  • 登录后即可使用。注册即赠送 500,000 免费额度
忘记密码怎么办?

在登录页面点击 "忘记密码" 链接,输入注册邮箱,系统将发送密码重置链接到您的邮箱。如未收到,请检查垃圾邮件箱,或联系客服手动重置。

如何获取和创建 API Key?

登录后,进入 令牌管理 页面(路径:/keys),点击 "添加令牌" 按钮,设置令牌名称和限额后即可生成。创建后请立即复制保存,页面刷新后将不再显示完整密钥。

可以创建多个 API Key 吗?

可以。您可以根据不同场景创建多个 API Key,例如:开发环境一个、生产环境一个、测试环境一个。还可以为每个 Key 设置独立的额度限制和IP白名单,实现更精细的权限管理。

如何修改账户信息?

登录后进入 个人设置 页面(/profile),可修改昵称、邮箱偏好设置和通知方式等。安全相关的敏感信息变更(如修改邮箱)可能需要邮件验证。

💰 计费相关 (5)

如何收费?

按实际 token 用量 计费,无需月费或年费。不同模型价格不同,详细价格请查看 模型定价表。计费单位为每百万 tokens(1M tokens)的价格。

新用户注册即赠 500,000 免费额度,可在控制台查看剩余额度。

有免费额度吗?

有!新用户注册即赠送 500,000 额度。以 deepseek-v4-flash 计算(¥0.5/1M tokens),约等于 100万次对话 的用量。免费额度有效期为 30天,使用完或到期后未用完部分自动清零。

如何充值?

登录后进入 充值页面(/top-up),支持以下支付方式:

  • 🧧 支付宝:扫码支付,即时到账
  • 💚 微信支付:扫码支付,即时到账

充值金额长期有效,不会过期。批量采购(月消费超1000元)可联系客服获取VIP费率和专用额度池。

如何查看消费记录?

登录后进入 消费记录 页面,可查看详细的用量统计和扣费记录。支持按时间范围、模型类型筛选。

余额用完了会怎么样?

当余额和免费额度都用完后,API 请求将返回 402 Payment Required403 Insufficient Quota 错误。及时充值后即可恢复服务。建议设置 余额告警阈值,当余额低于指定值时系统会自动发送通知。

⚙️ 技术相关 (6)

如何切换模型?

在 API 请求中将 model 参数改为目标模型名称即可。例如:

  • "model": "deepseek-v4-flash" → DeepSeek V4-Flash
  • "model": "gpt-4o" → GPT-4o
  • "model": "claude-sonnet-4" → Claude Sonnet 4

完整模型列表可通过 GET /v1/models API(需 API Key)获取。

什么是 base_url?如何设置?

base_url(也称为 base_url / api_base)是 OpenAI SDK 中用于指定 API 服务地址的参数。使用 TOENK API 时,只需将其设置为:
base_url = "https://toenk-api.com/v1"

示例(Python):

client = OpenAI(
    api_key="sk-your-key",
    base_url="https://toenk-api.com/v1"
)
响应太慢怎么办?

如果遇到响应慢的情况,建议:

  • 使用流式输出(stream=True),首 token 延迟通常 <200ms
  • 切换模型:deepseek-v4-flash 或 qwen3.6-flash 响应速度最快
  • 检查网络:确保使用国内BGP线路直连,P99延迟<500ms
  • 减少 max_tokens:输出长度越长,等待时间越久
  • 避开高峰期:工作日10:00-11:00和14:00-16:00为使用高峰
支持流式输出 (Streaming) 吗?

支持。完全兼容 OpenAI 的 SSE (Server-Sent Events) 流式输出。在请求中设置 stream: true(或 stream=True)即可启用。流式输出的首 token 延迟极低,适合对话和实时场景。

支持 Function Calling / Tool Use 吗?

支持!完全兼容 OpenAI 的 Function Calling 和 Tool Use 接口规范。你可以定义工具函数,模型会自动判断何时调用。适用于智能体(Agent)框架、代码执行和外部工具集成等场景。

支持多模态(图片/音频)输入吗?

支持图片输入(Vision)的模型包括:gpt-4o、gpt-4o-mini、claude-sonnet-4、gemini-2.5-flash/pro 等。使用方式与 OpenAI Vision API 一致,将图片以 base64 URL 形式传入 messages.content 数组。音频输入支持部分模型(如 gpt-4o-audio-preview)。

🧠 模型相关 (4)

TOENK API 支持哪些模型?

平台支持 19+ 个模型,覆盖所有主流AI厂商:

  • DeepSeek:deepseek-v4-flash / v4-pro / reasoner / chat / v3.2
  • OpenAI:gpt-4o / gpt-4o-mini / gpt-5 / gpt-5.4
  • Anthropic:claude-sonnet-4 / claude-opus-4
  • Google:gemini-2.5-flash / gemini-2.5-pro
  • 阿里通义:qwen3.6-plus / qwen3.6-flash
  • 智谱:glm-5 / glm-5.1
  • 其他:grok-4.1 (xAI)、kimi-k2.6 (Moonshot)、doubao-seed-2.0-pro (字节)
各个模型的特点是什么?如何选择?

按场景推荐:

  • 日常对话/轻量任务:deepseek-v4-flash(性价比之王,¥0.5/1M)
  • 复杂推理/数学/代码:deepseek-v4-pro 或 deepseek-reasoner
  • 长文本/大上下文:gemini 系列(1M上下文)或 deepseek 系列
  • 创意写作:claude-sonnet-4
  • 需要Function Calling:所有主流模型均支持
模型会持续更新吗?

会!我们持续关注各大厂商的新模型发布,第一时间接入最新的高性能模型。每次新增模型会通过公告和 Release Notes 通知用户。建议定期通过 GET /v1/models API 获取最新的模型列表。

各模型上下文长度是多少?

各模型上下文长度如下:

  • deepseek 系列:128K tokens
  • gpt-4o / 4o-mini:128K tokens
  • gpt-5 / 5.4:256K tokens
  • claude 系列:200K tokens
  • gemini 系列:1M tokens(最大)
  • qwen 系列:128K tokens
  • 其他模型:通常 128K tokens

🔒 安全相关 (4)

API Key 如何保护?

以下几点建议保护您的 API Key 安全:

  • 不要明文存储:使用环境变量或密钥管理服务(如 Vault)
  • 使用 IP 白名单:创建 Key 时绑定固定IP,非白名单IP无法使用
  • 设置额度限制:为每个 Key 设置单日/总额度,防止意外超支
  • 定期轮换:建议每 90 天更换一次 Key
  • 不要分享:切勿将 Key 暴露在客户端代码、公共仓库或公开页面中
数据传输是否加密?

是。所有 API 通信均使用 TLS 1.2 / TLS 1.3 加密传输,证书由 Let's Encrypt 签发。API 鉴权采用 Bearer Token 方式,每次请求都需携带有效令牌。我们使用 HSTS 强制 HTTPS,确保数据传输全程加密。

日志如何处理?我的数据会被记录吗?

我们严格遵守数据保护原则:

  • 请求内容:仅记录元数据(时间、模型、用量),不保存对话内容
  • 访问日志:保留了7天用于运维排障,到期自动清除
  • API Key:使用单向哈希存储,即使数据泄露也无法还原
  • 数据传输:不向第三方分享或出售用户数据

详细信息请阅读 隐私政策

有防火墙和 DDoS 防护吗?

有。我们部署了多层安全防护体系:

  • WAF规则:自动拦截SQL注入、XSS、路径穿越等OWASP Top 10攻击
  • 速率限制:单IP每分钟请求数限制,防止滥用
  • IP黑名单:自动检测并封禁恶意扫描和攻击IP
  • 渠道容灾:多节点集群部署,单节点故障自动切换

📋 通用问题 (4)

与 OpenAI 接口完全兼容吗?

完全兼容。TOENK API 实现了 OpenAI Chat Completions、Embeddings 等全部接口协议。您只需修改 base_urlhttps://toenk-api.com/v1,现有代码无需任何改动即可无缝切换。同样兼容 Anhtropic SDK 和 Google AI SDK 的接口规范。

国内访问速度快吗?

非常快。国内 BGP服务器直连,电信/联通/移动三网优化:

  • P50 延迟:<100ms
  • P99 延迟:<500ms
  • 可用性:99.9% SLA
  • 多节点集群:故障自动切换,服务无中断
如何联系技术支持?

我们提供多渠道技术支持:

技术支持团队 7×24 小时响应,紧急问题 5 分钟内响应。

有 SLA 保障吗?

有。我们提供 99.9% 的月度服务可用性保障。多节点集群 + 智能负载均衡部署,任何单点故障自动切换至健康节点,切换时间 <60秒。具体条款详见 服务条款

🤔 仍然有疑问?

我们的技术支持团队随时为您解答,工作日平均响应时间 <5 分钟

📧 发送邮件