Qwen-Free-API 服务已启动,请使用客户端进行连接
核心特性
流式输出
毫秒级首字节,边生成边传输,提升交互性能(SSE/Web/CLI)。
多轮对话
上下文记忆与压缩,保证长对话的稳定响应(Token 管理与截断策略)。
联网检索
实时信息聚合,提升回答的时效与准确性(可插拔 Provider)。
Qwen 生态
深度集成阿里云通义千问全家桶,支持 Qwen2.5 等先进模型。
接入指南
01 · 方法1:从通义千问获取 Token
从 通义千问 登录
进入通义千问随便发起一个对话,然后F12打开开发者工具,从Application > Cookies中找到tongyi_sso_ticket的值,这将作为Authorization的Bearer Token值:
Authorization: Bearer YOUR_QWEN_TOKEN
02 · 方法2:从阿里云获取 Token
从 阿里云 登录(如果该账号有服务器等重要资产不建议使用),如果该账号之前未进入过通义千问 ,需要先进入同意协议,否则无法生效。
然后F12打开开发者工具,从Application > Cookies中找到login_aliyunid_ticket的值,这将作为Authorization的Bearer Token值:
Authorization: Bearer YOUR_ALIYUN_TOKEN
03 · 多账号轮询
将多个 Token 用逗号拼接,服务自动挑选一个执行。
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
04 · 选择客户端或 SDK
推荐使用 LobeChat / NextChat / Dify 或直接使用 OpenAI SDK。
curl -X POST /v1/chat/completions \
-H "Authorization: Bearer YOUR_USER_TOKEN" \
-H "Content-Type: application/json" \
-d '{ "model":"qwen-turbo", "messages":[{"role":"user","content":"Hello"}] }'
接口兼容性
OpenAI 兼容
/v1/chat/completions
推荐
Google Gemini 兼容
/v1beta/models/:model:generateContent
gemini-cli
Anthropic Claude 兼容
/v1/messages
claude-code
支持模型
Qwen3-235B-A22B
最强大的混合专家语言模型,支持思维预算机制
用途 · 复杂推理 / 高性能任务
Qwen3-Coder
强大的编程专用语言模型,擅长代码生成和工具使用
用途 · 代码生成 / 编程助手
Qwen3-30B-A3B
紧凑高性能的混合专家模型
用途 · 平衡性能 / 通用任务
Qwen3-Coder-Flash
快速准确的代码生成模型
用途 · 快速编程 / 代码补全
Qwen2.5-Max
Qwen系列中最强大的语言模型
用途 · 高级推理 / 专业任务
客户端生态
覆盖聊天、命令行与应用开发场景。
LobeChat
现代化聊天界面。
NextChat
简洁多平台客户端。
Dify
AI 应用开发平台。
OpenAI SDK
直接编程接入。
ChatBox
桌面端聊天工具。
继续探索
更多客户端持续适配中。