把国内主流 AI 网页版转成 OpenAI 兼容 API,零成本调用。
东京节点 (43.167.192.145) — 外网网关
服务面板机(硅谷/中央) + 本地 FreeClaw。内存 1.3G/1.9G,紧张。
端口
服务
模型
来源
状态
8010
Kimi
moonshot-v1/8k/32k/128k/vision
LLM-Red-Team
✅
8011
DeepSeek
chat/coder/r1/search + 变体
LLM-Red-Team
✅
8013
GLM
glm-4.7/4.6v/4.6
xiaoY233/GLM-Free-API
✅
8014
豆包
doubao
1994qrq/2025doubao-free-api
✅
8017
MiniMax
M2/M2-Stable
xiaoY233/MiniMax-Free-API
✅
8019
秘塔搜索
concise/detail/research + scholar
LLM-Red-Team
✅
SUPER 节点 (10.10.0.5) — 内网全量
服务 C宅 OpenClaw + 局域网。346GB RAM,无压力。GitHub 不通,通过东京中转 clone。
端口
服务
模型
来源
状态
8010
Kimi
moonshot-v1/8k/32k/128k/vision
LLM-Red-Team
✅
8011
DeepSeek
chat/coder/r1/search + 变体
LLM-Red-Team
✅
8013
GLM
glm-4.7/4.6v/4.6
xiaoY233/GLM-Free-API
✅
8014
豆包
doubao
1994qrq/2025doubao-free-api
✅
8015
阶跃星辰
step-v1/vision
LLM-Red-Team
✅
8016
讯飞星火
v1.1/v2.1/v3.1/v3.5/vision
LLM-Red-Team
✅
8017
MiniMax
M2/M2-Stable
xiaoY233/MiniMax-Free-API
✅
8018
即梦画图
jimeng (文生图)
LLM-Red-Team
✅
8019
秘塔搜索
concise/detail/research + scholar
LLM-Red-Team
✅
服务
端口
来源
备注
通义千问
8012
Rfym21/Qwen2API (368⭐)
东京/SUPER 均未部署
LLM-Red-Team 官方 (全部 archived,代码可用)
百度文心 · 百川 · 零一万物Yi · 商汤 · 昆仑天工 · 网易有道 · 小米MiMo(开源模型,非web)
环境变量名: SERVER_PORT (不是 PORT)
部署: npm install && npm run build,pm2 ecosystem.config.js 管理
所有项目统一 OpenAI 兼容接口: /v1/chat/completions, /v1/models
Token 通过 Authorization: Bearer <token> 传入
# 克隆 / 进入目录
cd free-llm-hub
# 配置 token(复制模板后填入真实 token)
cp .env.example .env
vim .env
# 启动所有服务
docker compose up -d
# 查看状态
docker compose ps
# 查看某个服务日志
docker compose logs -f kimi-free-api
所有平台的操作套路一样:浏览器登录 → F12 开发者工具 → Application → Cookies ,找对应字段复制。
打开 https://kimi.moonshot.cn/ 并登录
F12 → Application → Cookies → kimi.moonshot.cn
找 refresh_token 字段,复制值
打开 https://chat.deepseek.com/ 并登录
F12 → Application → Cookies
找 userToken 或抓 Authorization header(Network 里随便一个请求)
打开 https://www.doubao.com/ 并登录
F12 → Application → Cookies → www.doubao.com
找 sessionid 字段
打开 https://chatglm.cn/ 并登录
F12 → Network → 找任意 API 请求 → Request Headers → Authorization
去掉 Bearer 前缀,剩下的就是 token
打开 https://tongyi.aliyun.com/ 并登录
F12 → Application → Cookies → tongyi.aliyun.com
找 login_aliyunid_ticket 或 token 字段
在 ~/.openclaw/openclaw.json 的 providers 里追加:
{
"name" : " kimi-free" ,
"baseUrl" : " http://127.0.0.1:8010/v1" ,
"apiKey" : " 任意字符串" ,
"models" : [" kimi" ],
"priority" : 10 ,
"costPerMillion" : 0
},
{
"name" : " deepseek-free" ,
"baseUrl" : " http://127.0.0.1:8011/v1" ,
"apiKey" : " 任意字符串" ,
"models" : [" deepseek-chat" , " deepseek-reasoner" ],
"priority" : 10 ,
"costPerMillion" : 0
},
{
"name" : " doubao-free" ,
"baseUrl" : " http://127.0.0.1:8012/v1" ,
"apiKey" : " 任意字符串" ,
"models" : [" doubao" ],
"priority" : 10 ,
"costPerMillion" : 0
},
{
"name" : " glm-free" ,
"baseUrl" : " http://127.0.0.1:8013/v1" ,
"apiKey" : " 任意字符串" ,
"models" : [" glm-4-plus" ],
"priority" : 10 ,
"costPerMillion" : 0
},
{
"name" : " qwen-free" ,
"baseUrl" : " http://127.0.0.1:8014/v1" ,
"apiKey" : " 任意字符串" ,
"models" : [" qwen-plus" ],
"priority" : 10 ,
"costPerMillion" : 0
}
直接当 OpenAI 用,api_key 填 token(或随意字符串,看各 free-api 文档)。
# 调 Kimi
curl http://localhost:8010/v1/chat/completions \
-H " Content-Type: application/json" \
-H " Authorization: Bearer your_kimi_refresh_token" \
-d ' {
"model": "kimi",
"messages": [{"role": "user", "content": "你好"}]
}'
# 调 DeepSeek R1
curl http://localhost:8011/v1/chat/completions \
-H " Content-Type: application/json" \
-H " Authorization: Bearer your_deepseek_token" \
-d ' {
"model": "deepseek-reasoner",
"messages": [{"role": "user", "content": "1+1=?"}]
}'
# 调 GLM-4
curl http://localhost:8013/v1/chat/completions \
-H " Content-Type: application/json" \
-H " Authorization: Bearer your_glm_token" \
-d ' {
"model": "glm-4-plus",
"messages": [{"role": "user", "content": "写首诗"}]
}'
Python(openai SDK):
from openai import OpenAI
client = OpenAI (
base_url = "http://localhost:8010/v1" ,
api_key = "your_kimi_refresh_token"
)
resp = client .chat .completions .create (
model = "kimi" ,
messages = [{"role" : "user" , "content" : "你好" }]
)
print (resp .choices [0 ].message .content )
仅供学习研究 ,不要用于生产环境或商业用途
多账号轮换 :.env 里每个平台填多个 token 用逗号分隔,自动负载均衡,单账号容易触发限速
不要高频调用 :模拟网页行为,频率过高会被封号,建议加请求间隔
token 有效期 :各平台 token 会过期,需要定期更新;建议做监控告警
网络 :国内服务器直接访问,海外服务器可能需要代理