提供商概览
AI Supreme Council 直接从您的浏览器连接到大语言模型 (LLM) 提供商。中间没有代理服务器 —— 您的 API 密钥和对话直接发送到提供商的 API 端点。这就是 BYOK(自带密钥)模式。
工作原理
- 您从提供商(如 Anthropic、OpenAI、Google)获取 API 密钥
- 将密钥粘贴到 AI Supreme Council 的设置中
- 密钥本地存储在您的浏览器中(
localStorage)—— 永远不会到达我们的服务器 - 当您发送消息时,浏览器直接调用提供商的 API
- 响应通过服务器发送事件 (SSE) 实时流式返回给您
API 密钥专门存储在您浏览器的 localStorage 中。它们从不包含在分享的机器人 URL 中,从不发送到 AI Supreme Council 服务器,也从不被记录。只有您正在与之聊天的提供商会收到您的密钥。
提供商对比
| 提供商 | 需要 API 密钥 | 免费额度 | 著名模型 | 推理 | 视觉 |
|---|---|---|---|---|---|
| Google Gemini | 是 | 是(无需信用卡) | Gemini 2.5 Flash、2.5 Pro、3 Flash Preview | 是 | 是 |
| OpenRouter | 是 | 是(20+ 免费模型) | 来自所有提供商的 300+ 模型 | 是 | 是 |
| Groq | 是 | 是(有限速) | Llama 3.3 70B、DeepSeek R1 Distill、Compound Beta | 是 | 是 |
| Anthropic | 是 | 否 | Claude Opus 4.6、Sonnet 4.5、Haiku 4.5 | 是 | 是 |
| OpenAI | 是 | 否 | GPT-5、GPT-4.1、o3、o4-mini | 是 | 是 |
| xAI | 是 | 否 | Grok 4.1 Fast、Grok 4、Grok 3 | 是 | 是 |
| DeepSeek | 是 | 否 | DeepSeek V3.2、R1、V3.2 Reasoner | 是 | 否 |
| Mistral | 是 | 否 | Mistral Large 3、Codestral、Devstral 2 | 否 | 是 |
| Ollama | 否 | 免费(本地) | 您本地安装的任何模型 | 视情况 | 视情况 |
最快速的入门方式是使用 Google Gemini(免费 API 密钥,无需信用卡)或 OpenRouter(20+ 免费模型,包括 DeepSeek R1、Qwen 3 和 Llama 3.3)。请参阅快速入门了解详细步骤。
添加 API 密钥
- 在 aiscouncil.com 打开 AI Supreme Council
- 点击侧边栏中的设置齿轮图标
- 进入 AI 模型标签页
- 找到您想要的提供商并粘贴您的 API 密钥
- 密钥会立即保存并持久化在您的浏览器中
您也可以在首次运行向导中创建第一个机器人配置文件时输入 API 密钥。
每机器人 API 密钥
每个机器人配置文件可以拥有自己的 API 密钥,该密钥会覆盖该提供商的全局密钥。如果您为不同项目或计费账户使用单独的密钥,这很有用。在机器人的配置面板(右侧边栏)中设置每机器人密钥。
提供商选择的工作方式
创建机器人配置文件时,您选择一个提供商和一个模型。提供商决定调用哪个 API 端点,模型决定您正在与哪个具体的 AI 进行聊天。
模型从社区模型注册表加载,该注册表独立于应用程序更新。当注册表刷新时(每 24 小时或页面重新加载时),新模型会自动出现。
API 格式
大多数提供商使用 OpenAI 兼容的 Chat Completions API 格式。两个例外:
| 格式 | 提供商 | 说明 |
|---|---|---|
| OpenAI 兼容 | OpenAI、xAI、OpenRouter、DeepSeek、Mistral、Groq、Ollama 等 | 标准 POST /v1/chat/completions,使用 Bearer 认证 |
| Anthropic | Anthropic | 自定义 Messages API,使用 x-api-key 头 |
| Gemini | Google Gemini | 原生 generateContent API,使用 ?key= 查询参数 |
这种差异会自动处理 —— 使用应用程序时您无需担心 API 格式。
推理/思考支持
多个提供商支持推理或"思考"模式,模型在回答之前展示其逐步思考过程:
| 提供商 | 功能名称 | 如何启用 |
|---|---|---|
| Anthropic | Extended Thinking | 在配置面板中设置推理投入(预算 token 或预设) |
| Google Gemini | Thinking Config | 在配置面板中设置推理投入(预算 token 或预设) |
| OpenAI 兼容 | Reasoning Effort | 在配置面板中设置为 low、medium 或 high |
推理输出显示在模型响应上方可折叠的"思考"块中。
自定义提供商
您可以将任何 OpenAI 兼容的 API 端点添加为自定义提供商:
- 打开设置 > AI 模型
- 滚动到自定义提供商
- 输入名称、API 端点 URL 和 API 密钥
- 创建机器人配置文件时,自定义提供商会出现在提供商下拉菜单中
自定义提供商持久化存储在 localStorage 中,只要端点实现 OpenAI Chat Completions 格式,就支持所有标准功能(流式传输、工具调用等)。
使用量追踪
AI Supreme Council 在设置 > 使用量中按提供商追踪 token 使用情况。您可以查看所有聊天会话的输入 token、输出 token 和预估费用。这有助于您监控支出,无需分别查看每个提供商的仪表板。