GLM-Free-API (Cloudflare Worker) 服务已启动
核心特性
流式输出
毫秒级首字节,边生成边传输,提升交互性能。
多轮对话
上下文记忆与压缩,保证长对话的稳定响应。
联网检索
实时信息聚合,提升回答的时效与准确性。
多协议兼容
同时支持 OpenAI、Gemini、Claude 三种 API 格式。
接入指南
01 · 从智谱清言获取 Token
登录 智谱清言,在 Cookies 中找到 chatglm_refresh_token。
Authorization: Bearer YOUR_REFRESH_TOKEN
02 · 智能体接入(可选)
打开智能体聊天界面,地址栏的 ID 即 model 参数值。
03 · 多账号轮询
将多个 Token 用逗号拼接,服务自动挑选一个执行。
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
04 · 客户端接入
使用 OpenAI SDK、gemini-cli、claude-code 或 Dify 等工具接入。
curl -X POST /v1/chat/completions \
-H "Authorization: Bearer YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{ "model":"glm-4", "messages":[{"role":"user","content":"Hello"}] }'
接口兼容性
OpenAI 兼容
/v1/chat/completions
推荐Google Gemini 兼容
/v1beta/models/:model:generateContent
gemini-cliAnthropic Claude 兼容
/v1/messages
claude-code支持模型
GLM-4.7
高智能旗舰 - 通用对话、推理与智能体能力全面升级。
用途 · 高性能推理 / 编码 / 智能体
GLM-4.6v
超强性能 - 上下文提升至200K - 高级编码与工具调用。
用途 · 高性能推理 / 编码 / 工具调用
GLM-4.6
超强性能 - 上下文提升至200K - 高级编码与工具调用。
用途 · 高性能推理 / 编码 / 工具调用
客户端生态
覆盖聊天、命令行与应用开发场景。
LobeChat
现代化聊天界面。
NextChat
简洁多平台客户端。
Dify
AI 应用开发平台。
OpenAI SDK
直接编程接入。
ChatBox
桌面端聊天工具。
继续探索
更多客户端持续适配中。