当我们推出 JieGou 时,我们支持三个云 LLM 供应商:Anthropic、OpenAI 和 Google。然后我们添加了兼容 OpenAI 的端点用于自托管和第三方模型。今天,我们新增了五个一等供应商——总数达到九个。
新供应商
Mistral AI
Mistral 的模型在多语言任务、代码生成和结构化输出方面表现出色。JieGou 现在支持 Mistral Large、Medium 和 Small 作为一等供应商,具有完整的 BYOK、断路器和密钥验证支持。
- **最适合:**多语言内容、欧洲数据驻留要求、成本效益高的代码生成
- **模型:**Mistral Large(最新版)、Mistral Medium、Mistral Small
Groq
Groq 的定制 LPU 硬件提供比传统 GPU 供应商快 10-20 倍的推理速度。当延迟比模型大小更重要时,Groq 是明确的选择。
- **最适合:**实时应用、大批量处理、延迟敏感型工作流
- **模型:**所有 Groq 托管的模型,通过其兼容 OpenAI 的 API
xAI (Grok)
xAI 的 Grok 模型在推理和实时信息综合方面具有独特能力。作为一等供应商提供,与 Anthropic 和 OpenAI 具有相同的集成深度。
- **最适合:**推理密集型任务、实时分析、创意生成
- **模型:**通过 xAI API 的 Grok 模型
AWS Bedrock
对于已在 AWS 上运行的组织,Bedrock 通过单个 AWS 端点提供对多个基础模型的访问。JieGou 处理 SigV4 请求签名——您只需提供 AWS 凭证。
- **最适合:**AWS 原生组织、需要 AWS VPC 数据边界的受监管行业、使用 IAM 访问控制的团队
- **模型:**所有 Bedrock Converse API 模型(Claude、Titan、Llama、通过 AWS 的 Mistral)
Azure OpenAI
企业 Azure 客户现在可以通过其 Azure OpenAI 部署路由 JieGou。这使所有 LLM 流量保持在您的 Azure 租户内,并使用您现有的 Azure AD 认证和网络控制。
- **最适合:**Azure 优先的企业、有 Azure 合规要求的组织、使用 Azure Private Link 的团队
- **模型:**所有 Azure OpenAI 部署模型(GPT-5、o3、自定义微调)
每个供应商都是一等公民
所有九个供应商共享相同的集成深度:
| 能力 | 全部 9 个供应商 |
|---|---|
| BYOK 加密 | 按账户密钥的 AES-256-GCM |
| 按供应商断路器 | 重复故障后自动打开,冷却后重置 |
| 密钥验证 | 对供应商模型列表端点的预检查 |
| 按步骤选择 | 为每个工作流步骤选择不同供应商和模型 |
| 令牌追踪 | 跨所有供应商的统一使用仪表板 |
| 成本估算 | 使用供应商特定定价的执行前成本估算 |
| 流式传输 | 所有支持模型的实时流式传输 |
| 工具调用 | MCP 和自定义工具适用于所有供应商 |
按步骤模型选择
多供应商支持的真正力量在于在单个工作流中混合模型:
- 步骤 1(研究):使用 Groq 进行快速初始数据收集
- 步骤 2(分析):使用 Claude Opus 进行深度推理
- 步骤 3(翻译):使用 Mistral 进行多语言输出
- 步骤 4(代码生成):使用 GPT-5 进行结构化代码输出
- 步骤 5(审查):使用 Grok 进行快速质量检查
每个步骤可以使用不同供应商,无需额外配置。输入映射、输出模式和工具调用在各供应商间工作方式完全相同。
按供应商断路器
不同供应商有不同的可靠性配置。我们按供应商调整了断路器阈值:
| 供应商 | 故障阈值 | 重置时间 |
|---|---|---|
| Anthropic、OpenAI、Google、Mistral、xAI | 5 次故障 | 30 秒 |
| Groq | 3 次故障 | 60 秒 |
| AWS Bedrock | 3 次故障 | 45 秒 |
| Azure OpenAI | 5 次故障 | 30 秒 |
Groq 和 Bedrock 有更低的阈值因为它们有更严格的速率限制。断路器是 fail-open 的——如果 Redis 不可用,请求正常进行。
计划可用性
| 供应商 | Starter | Pro | Team | Enterprise |
|---|---|---|---|---|
| Anthropic、OpenAI、Google | 是 | 是 | 是 | 是 |
| Mistral、Groq、xAI | — | 是 | 是 | 是 |
| 兼容 OpenAI | — | 是 | 是 | 是 |
| AWS Bedrock、Azure OpenAI | — | — | 是 | 是 |
| Ollama、vLLM(本地) | — | — | — | 是 |
开始使用
- 前往账户设置 > API 密钥
- 点击添加密钥并选择您的供应商
- 输入您的 API 密钥——立即以 AES-256-GCM 加密
- 密钥针对供应商端点进行验证
- 开始在任何配方或工作流步骤中使用该供应商
所有五个新供应商现已在 Pro 计划及以上可用。Bedrock 和 Azure OpenAI 在 Team 和 Enterprise 可用。
添加供应商密钥 并开始混合模型。