Qwen-Free-API 服务已启动,请使用客户端进行连接

面向开发者的 Qwen API 代理

兼容 OpenAI 协议,稳定流式、多轮上下文与检索。工程语义清晰、易接入、可维护。

⚠️ 免责声明

逆向 API 存在不稳定性。建议前往 阿里云百炼平台 付费使用,避免封禁风险。

本项目仅用于研究学习,不接受任何资金往来。仅限自用,禁止商用或对外提供服务。

核心特性

流式输出

毫秒级首字节,边生成边传输,提升交互性能(SSE/Web/CLI)。

多轮对话

上下文记忆与压缩,保证长对话的稳定响应(Token 管理与截断策略)。

联网检索

实时信息聚合,提升回答的时效与准确性(可插拔 Provider)。

Qwen 生态

深度集成阿里云通义千问全家桶,支持 Qwen2.5 等先进模型。

接入指南

01 · 方法1:从通义千问获取 Token

通义千问 登录

进入通义千问随便发起一个对话,然后F12打开开发者工具,从Application > Cookies中找到tongyi_sso_ticket的值,这将作为Authorization的Bearer Token值:

获取tongyi_sso_ticket
Authorization: Bearer YOUR_QWEN_TOKEN

02 · 方法2:从阿里云获取 Token

阿里云 登录(如果该账号有服务器等重要资产不建议使用),如果该账号之前未进入过通义千问 ,需要先进入同意协议,否则无法生效。

然后F12打开开发者工具,从Application > Cookies中找到login_aliyunid_ticket的值,这将作为Authorization的Bearer Token值:

获取login_aliyunid_ticket
Authorization: Bearer YOUR_ALIYUN_TOKEN

03 · 多账号轮询

将多个 Token 用逗号拼接,服务自动挑选一个执行。

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

04 · 选择客户端或 SDK

推荐使用 LobeChat / NextChat / Dify 或直接使用 OpenAI SDK。

curl -X POST /v1/chat/completions \
  -H "Authorization: Bearer YOUR_USER_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{ "model":"qwen-turbo", "messages":[{"role":"user","content":"Hello"}] }'

接口兼容性

OpenAI 兼容

/v1/chat/completions
推荐

Google Gemini 兼容

/v1beta/models/:model:generateContent
gemini-cli

Anthropic Claude 兼容

/v1/messages
claude-code

支持模型

Qwen3-235B-A22B

最强大的混合专家语言模型,支持思维预算机制

用途 · 复杂推理 / 高性能任务

Qwen3-Coder

强大的编程专用语言模型,擅长代码生成和工具使用

用途 · 代码生成 / 编程助手

Qwen3-30B-A3B

紧凑高性能的混合专家模型

用途 · 平衡性能 / 通用任务

Qwen3-Coder-Flash

快速准确的代码生成模型

用途 · 快速编程 / 代码补全

Qwen2.5-Max

Qwen系列中最强大的语言模型

用途 · 高级推理 / 专业任务

客户端生态

覆盖聊天、命令行与应用开发场景。

LobeChat

现代化聊天界面。

NextChat

简洁多平台客户端。

Dify

AI 应用开发平台。

OpenAI SDK

直接编程接入。

ChatBox

桌面端聊天工具。

继续探索

更多客户端持续适配中。