Vibe Coding 了一个 MCP AI Hub,给你的 AI Agent 一键接入 100+ AI 模型

之前用 Claude Code 的时候,只能和 Claude Code 配置的单个模型聊天。想用 GPT-5 或者 Gemini 2.5 Pro,得切换到别的工具。这种来回切换不仅麻烦,还会打断思路。为了在一个工具里用上不同的模型,所以就 Vibe Coding 了 MCP AI Hub 这个项目,并开源在 https://github.com/feiskyer/mcp-ai-hub

MCP AI Hub 是一个 MCP 服务器,通过 LiteLLM 把 Codex、Claude Code 等 Agent 工具连接到 100+ AI 模型。你只要在 ~/.ai_hub.yaml 里配置好 API Key 和你所希望使用的模型,就能在各种 Agent 中随意切换 OpenAI、Anthropic、Google 等各家的模型。

为什么做 MCP AI Hub?

用 AI 工具时,我经常会遇到一个问题:每个模型擅长的能力都不同,而每个工具只能用配置好的单个模型,想换个模型打个辅助就得换工具。

而现在有了 MCP AI Hub,在 AI Agent 里就能:

  • 用 Claude Code 作为 Agent 收集上下文并做编程开发;
  • 用 GPT-5 审核 Claude Code 的修改计划以及代码变更;
  • 用 Nano Banana 画示意图。

MCP AI Hub 包含什么?

MCP AI Hub 通过 LiteLLM 提供统一接口,把不同 AI 服务商的 API 统一起来,主要功能包括:

1. 统一的模型接口

不管是 OpenAI、Anthropic 还是 Google,都用同一套 API 调用。

model_list:
  - model_name: gpt-4
    litellm_params:
      model: openai/gpt-4
      api_key: "sk-your-openai-key"
      max_tokens: 2048
      temperature: 0.7

  - model_name: claude-sonnet
    litellm_params:
      model: anthropic/claude-3-5-sonnet-20241022
      api_key: "sk-ant-your-anthropic-key"
      max_tokens: 4096

2. 支持 100+ AI 提供商

参照 LiteLLM 文档,MCP AI Hub 支持所有主流 AI 服务商的模型,包括 OpenAI、Google Gemini、Anthropic 以及各类本地大模型。

3. 系统提示词配置

可以为每个模型设置专门的系统提示词:

global_system_prompt: "你是一个专业的 AI 助手。"

model_list:
  - model_name: gpt-4
    system_prompt: "你是一个精准的代码助手。"
    litellm_params:
      model: openai/gpt-4
      api_key: "sk-your-key"

  - model_name: claude-sonnet
    system_prompt: ""  # 空字符串会禁用全局提示词
    litellm_params:
      model: anthropic/claude-3-5-sonnet-20241022
      api_key: "sk-ant-your-key"

4. MCP 工具集成

提供三个核心工具,简单够用:

  • chat:与指定模型对话;
  • list_models:列出所有配置的模型;
  • get_model_info:查看模型配置详情。

如何使用

快速安装

# 方式一:从 PyPI 安装
pip install mcp-ai-hub

# 方式二:用 uv 安装(推荐)
uv tool install mcp-ai-hub

# 方式三:从源码安装
pip install git+https://github.com/feiskyer/mcp-ai-hub.git

配置 API Key

~/.ai_hub.yaml 里创建配置文件:

model_list:
  - model_name: gpt-4
    litellm_params:
      model: openai/gpt-4
      api_key: "sk-your-openai-api-key"
      max_tokens: 2048
      temperature: 0.7

  - model_name: claude-sonnet
    litellm_params:
      model: anthropic/claude-3-5-sonnet-20241022
      api_key: "sk-ant-your-anthropic-api-key"
      max_tokens: 4096
      temperature: 0.7

连接到 Claude Desktop

编辑配置文件:

macOS~/Library/Application Support/Claude/claude_desktop_config.json Windows%APPDATA%\Claude\claude_desktop_config.json

{
  "mcpServers": {
    "ai-hub": {
      "command": "mcp-ai-hub"
    }
  }
}

连接到 Claude Code

claude mcp add -s user ai-hub mcp-ai-hub

然后在 Claude Code 里就能这样用:

用 gpt-4 帮我分析这段代码的性能问题
用 claude-sonnet 写一个快速排序的实现
用 gemini-2.5-flash-image 画XXX图
用 gemini-2.5-pro 总结这个 100 页的文档

本地模型配置

如果你想用本地模型保护隐私,可以这样配置:

model_list:
  - model_name: local-llama
    litellm_params:
      model: openai/llama-2-7b-chat
      api_key: "dummy-key"  # 本地服务器通常接受任意 API key
      api_base: "http://localhost:8080/v1"
      max_tokens: 4000
      temperature: 0.7

这样就能用 Ollama 或者 LM Studio 等本地服务了。

与 Zen MCP 的对比

可能有人会问,已经有 Zen MCP 了,为什么还要 MCP AI Hub?

Zen MCP 是一个功能非常丰富的 MCP 服务器,提供了 codereviewdebugplannerconsensus 等十几种工具。每个工具都有自己的多步骤工作流、参数和描述,这些都会消耗 AI Agent 的上下文窗口。所以,这也就带来一个问题:工具太多会占用大量上下文空间

比如,使用 Claude Code 的 /context 可以看到默认配置大概会占用 24.5k 的上下文空间:

image-20251011213043642

MCP AI Hub 的设计理念恰恰相反

  • 简单高效:只提供 3 个核心工具(chatlist_modelsget_model_info),没有附加功能;
  • 专注模型接入:不做复杂的工作流,只做一件事 — 连接模型;
  • 节省上下文:工具少,占用的上下文空间就少,给 AI 更多空间思考;
  • 灵活组合:可以和其他 MCP 服务器配合使用,各司其职。

如果你需要的是:在不同 AI 模型间切换、快速接入新的 AI 服务商、保持工具简洁、不浪费上下文空间,那 MCP AI Hub 会是更合适的选择。而如果你需要完整的代码审查、规划、共识等工作流,Zen MCP 会更适合。


项目地址https://github.com/feiskyer/mcp-ai-hub

相关资源


欢迎长按下面的二维码关注 Feisky 公众号,了解更多云原生和 AI 知识。

comments powered by Disqus