Skip to content

CicadaRelay/free-llm-hub

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 
 
 

Free LLM Hub

把国内主流 AI 网页版转成 OpenAI 兼容 API,零成本调用。


部署状态

东京节点 (43.167.192.145) — 外网网关

服务面板机(硅谷/中央) + 本地 FreeClaw。内存 1.3G/1.9G,紧张。

端口 服务 模型 来源 状态
8010 Kimi moonshot-v1/8k/32k/128k/vision LLM-Red-Team
8011 DeepSeek chat/coder/r1/search + 变体 LLM-Red-Team
8013 GLM glm-4.7/4.6v/4.6 xiaoY233/GLM-Free-API
8014 豆包 doubao 1994qrq/2025doubao-free-api
8017 MiniMax M2/M2-Stable xiaoY233/MiniMax-Free-API
8019 秘塔搜索 concise/detail/research + scholar LLM-Red-Team

SUPER 节点 (10.10.0.5) — 内网全量

服务 C宅 OpenClaw + 局域网。346GB RAM,无压力。GitHub 不通,通过东京中转 clone。

端口 服务 模型 来源 状态
8010 Kimi moonshot-v1/8k/32k/128k/vision LLM-Red-Team
8011 DeepSeek chat/coder/r1/search + 变体 LLM-Red-Team
8013 GLM glm-4.7/4.6v/4.6 xiaoY233/GLM-Free-API
8014 豆包 doubao 1994qrq/2025doubao-free-api
8015 阶跃星辰 step-v1/vision LLM-Red-Team
8016 讯飞星火 v1.1/v2.1/v3.1/v3.5/vision LLM-Red-Team
8017 MiniMax M2/M2-Stable xiaoY233/MiniMax-Free-API
8018 即梦画图 jimeng (文生图) LLM-Red-Team
8019 秘塔搜索 concise/detail/research + scholar LLM-Red-Team

未部署

服务 端口 来源 备注
通义千问 8012 Rfym21/Qwen2API (368⭐) 东京/SUPER 均未部署

项目生态全景

LLM-Red-Team 官方 (全部 archived,代码可用)

项目 Stars 平台
kimi-free-api 4,763 月之暗面 Kimi
deepseek-free-api 2,809 DeepSeek
kimi-cc 1,666 Kimi (唯一存活)
qwen-free-api 1,179 通义千问
jimeng-free-api 1,065 即梦(文生图)
glm-free-api 825 智谱GLM
metaso-free-api 796 秘塔搜索
doubao-free-api 687 字节豆包
minimax-free-api 467 MiniMax/海螺
step-free-api 249 阶跃星辰
spark-free-api 153 讯飞星火
emohaa-free-api 148 聆心Emohaa

活跃 Fork / 替代者

项目 Stars 平台 优势
1994qrq/2025doubao-free-api 147 豆包 最活跃豆包fork
Bitsea1/doubao-free-api 83 豆包(+文生图) 支持画图
xiaoY233/GLM-Free-API 36 GLM-4.7 最新模型
xiaoY233/DeepSeek-Free-API 35 DeepSeek V3.2 最新模型
xiaoY233/Kimi-Free-API 35 Kimi 活跃维护
xiaoY233/Qwen-Free-API 30 通义千问3 最新模型
xiaoY233/MiniMax-Free-API 27 MiniMax M2 最新模型

chat2api 风格

项目 Stars 用途
lanqian528/chat2api 3,389 ChatGPT Web→API
Rfym21/Qwen2API 368 通义千问→API (推荐)
iidamie/deepseek2api 368 DeepSeek→API
hmjz100/Z.ai2api 127 多平台聚合
juzeon/yuanbao-chat2api 91 腾讯元宝→API

编程工具逆向

项目 Stars 用途
router-for-me/CLIProxyAPI 14,233 Gemini CLI/Claude Code/Codex→API
fuergaosi233/claude-code-proxy 2,108 Claude Code→OpenAI API
xllm-go/bypass 1,151 Cursor绕限
cubezhao/augment-token-mng 1,058 Augment Code token管理
wisdgod/cursor-api 656 Cursor→OpenAI API

聚合管理平台

项目 Stars 用途
chatanywhere/GPT_API_free 36,464 免费GPT/DeepSeek Key分发
songquanpeng/one-api 30,207 LLM API统一管理
QuantumNous/new-api 19,522 one-api二开

缺口 (无 free-api 项目)

百度文心 · 百川 · 零一万物Yi · 商汤 · 昆仑天工 · 网易有道 · 小米MiMo(开源模型,非web)


技术要点

  • 环境变量名: SERVER_PORT (不是 PORT)
  • 部署: npm install && npm run build,pm2 ecosystem.config.js 管理
  • 所有项目统一 OpenAI 兼容接口: /v1/chat/completions, /v1/models
  • Token 通过 Authorization: Bearer <token> 传入

端口映射

服务 端口 API 地址 模型名
Kimi 8010 http://HOST:8010/v1/chat/completions moonshot-v1-128k
DeepSeek 8011 http://HOST:8011/v1/chat/completions deepseek-chat / deepseek-r1
通义千问 8012 http://HOST:8012/v1/chat/completions qwen-plus
GLM 8013 http://HOST:8013/v1/chat/completions glm-4-plus
豆包 8014 http://HOST:8014/v1/chat/completions doubao
阶跃星辰 8015 http://HOST:8015/v1/chat/completions step-2
讯飞星火 8016 http://HOST:8016/v1/chat/completions spark-4.0
MiniMax 8017 http://HOST:8017/v1/chat/completions minimax-m2
即梦画图 8018 http://HOST:8018/v1/images/generations jimeng
秘塔搜索 8019 http://HOST:8019/v1/chat/completions metaso

部署

# 克隆 / 进入目录
cd free-llm-hub

# 配置 token(复制模板后填入真实 token)
cp .env.example .env
vim .env

# 启动所有服务
docker compose up -d

# 查看状态
docker compose ps

# 查看某个服务日志
docker compose logs -f kimi-free-api

Token 获取方法

所有平台的操作套路一样:浏览器登录 → F12 开发者工具 → Application → Cookies,找对应字段复制。

Kimi

  1. 打开 https://kimi.moonshot.cn/ 并登录
  2. F12 → Application → Cookies → kimi.moonshot.cn
  3. refresh_token 字段,复制值

DeepSeek

  1. 打开 https://chat.deepseek.com/ 并登录
  2. F12 → Application → Cookies
  3. userToken 或抓 Authorization header(Network 里随便一个请求)

豆包

  1. 打开 https://www.doubao.com/ 并登录
  2. F12 → Application → Cookies → www.doubao.com
  3. sessionid 字段

智谱 GLM

  1. 打开 https://chatglm.cn/ 并登录
  2. F12 → Network → 找任意 API 请求 → Request Headers → Authorization
  3. 去掉 Bearer 前缀,剩下的就是 token

通义千问

  1. 打开 https://tongyi.aliyun.com/ 并登录
  2. F12 → Application → Cookies → tongyi.aliyun.com
  3. login_aliyunid_tickettoken 字段

FreeClaw 路由配置

~/.openclaw/openclaw.jsonproviders 里追加:

{
  "name": "kimi-free",
  "baseUrl": "http://127.0.0.1:8010/v1",
  "apiKey": "任意字符串",
  "models": ["kimi"],
  "priority": 10,
  "costPerMillion": 0
},
{
  "name": "deepseek-free",
  "baseUrl": "http://127.0.0.1:8011/v1",
  "apiKey": "任意字符串",
  "models": ["deepseek-chat", "deepseek-reasoner"],
  "priority": 10,
  "costPerMillion": 0
},
{
  "name": "doubao-free",
  "baseUrl": "http://127.0.0.1:8012/v1",
  "apiKey": "任意字符串",
  "models": ["doubao"],
  "priority": 10,
  "costPerMillion": 0
},
{
  "name": "glm-free",
  "baseUrl": "http://127.0.0.1:8013/v1",
  "apiKey": "任意字符串",
  "models": ["glm-4-plus"],
  "priority": 10,
  "costPerMillion": 0
},
{
  "name": "qwen-free",
  "baseUrl": "http://127.0.0.1:8014/v1",
  "apiKey": "任意字符串",
  "models": ["qwen-plus"],
  "priority": 10,
  "costPerMillion": 0
}

API 调用示例

直接当 OpenAI 用,api_key 填 token(或随意字符串,看各 free-api 文档)。

# 调 Kimi
curl http://localhost:8010/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your_kimi_refresh_token" \
  -d '{
    "model": "kimi",
    "messages": [{"role": "user", "content": "你好"}]
  }'

# 调 DeepSeek R1
curl http://localhost:8011/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your_deepseek_token" \
  -d '{
    "model": "deepseek-reasoner",
    "messages": [{"role": "user", "content": "1+1=?"}]
  }'

# 调 GLM-4
curl http://localhost:8013/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your_glm_token" \
  -d '{
    "model": "glm-4-plus",
    "messages": [{"role": "user", "content": "写首诗"}]
  }'

Python(openai SDK):

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8010/v1",
    api_key="your_kimi_refresh_token"
)

resp = client.chat.completions.create(
    model="kimi",
    messages=[{"role": "user", "content": "你好"}]
)
print(resp.choices[0].message.content)

注意事项

  • 仅供学习研究,不要用于生产环境或商业用途
  • 多账号轮换.env 里每个平台填多个 token 用逗号分隔,自动负载均衡,单账号容易触发限速
  • 不要高频调用:模拟网页行为,频率过高会被封号,建议加请求间隔
  • token 有效期:各平台 token 会过期,需要定期更新;建议做监控告警
  • 网络:国内服务器直接访问,海外服务器可能需要代理

About

Launch multiple free and low-friction AI gateways with one command

Topics

Resources

License

Code of conduct

Contributing

Security policy

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors