Skip to content
产品

9 个 LLM 供应商,一个平台:Mistral、Groq、xAI、Bedrock 和 Azure 加入 JieGou

JieGou 现在开箱即用支持 9 个 LLM 供应商——从超快的 Groq 推理到企业级 AWS Bedrock 和 Azure OpenAI。为每个步骤选择合适的模型。

JT
JieGou Team
· · 2 分钟阅读

当我们推出 JieGou 时,我们支持三个云 LLM 供应商:Anthropic、OpenAI 和 Google。然后我们添加了兼容 OpenAI 的端点用于自托管和第三方模型。今天,我们新增了五个一等供应商——总数达到九个。

新供应商

Mistral AI

Mistral 的模型在多语言任务、代码生成和结构化输出方面表现出色。JieGou 现在支持 Mistral Large、Medium 和 Small 作为一等供应商,具有完整的 BYOK、断路器和密钥验证支持。

  • **最适合:**多语言内容、欧洲数据驻留要求、成本效益高的代码生成
  • **模型:**Mistral Large(最新版)、Mistral Medium、Mistral Small

Groq

Groq 的定制 LPU 硬件提供比传统 GPU 供应商快 10-20 倍的推理速度。当延迟比模型大小更重要时,Groq 是明确的选择。

  • **最适合:**实时应用、大批量处理、延迟敏感型工作流
  • **模型:**所有 Groq 托管的模型,通过其兼容 OpenAI 的 API

xAI (Grok)

xAI 的 Grok 模型在推理和实时信息综合方面具有独特能力。作为一等供应商提供,与 Anthropic 和 OpenAI 具有相同的集成深度。

  • **最适合:**推理密集型任务、实时分析、创意生成
  • **模型:**通过 xAI API 的 Grok 模型

AWS Bedrock

对于已在 AWS 上运行的组织,Bedrock 通过单个 AWS 端点提供对多个基础模型的访问。JieGou 处理 SigV4 请求签名——您只需提供 AWS 凭证。

  • **最适合:**AWS 原生组织、需要 AWS VPC 数据边界的受监管行业、使用 IAM 访问控制的团队
  • **模型:**所有 Bedrock Converse API 模型(Claude、Titan、Llama、通过 AWS 的 Mistral)

Azure OpenAI

企业 Azure 客户现在可以通过其 Azure OpenAI 部署路由 JieGou。这使所有 LLM 流量保持在您的 Azure 租户内,并使用您现有的 Azure AD 认证和网络控制。

  • **最适合:**Azure 优先的企业、有 Azure 合规要求的组织、使用 Azure Private Link 的团队
  • **模型:**所有 Azure OpenAI 部署模型(GPT-5、o3、自定义微调)

每个供应商都是一等公民

所有九个供应商共享相同的集成深度:

能力全部 9 个供应商
BYOK 加密按账户密钥的 AES-256-GCM
按供应商断路器重复故障后自动打开,冷却后重置
密钥验证对供应商模型列表端点的预检查
按步骤选择为每个工作流步骤选择不同供应商和模型
令牌追踪跨所有供应商的统一使用仪表板
成本估算使用供应商特定定价的执行前成本估算
流式传输所有支持模型的实时流式传输
工具调用MCP 和自定义工具适用于所有供应商

按步骤模型选择

多供应商支持的真正力量在于在单个工作流中混合模型

  1. 步骤 1(研究):使用 Groq 进行快速初始数据收集
  2. 步骤 2(分析):使用 Claude Opus 进行深度推理
  3. 步骤 3(翻译):使用 Mistral 进行多语言输出
  4. 步骤 4(代码生成):使用 GPT-5 进行结构化代码输出
  5. 步骤 5(审查):使用 Grok 进行快速质量检查

每个步骤可以使用不同供应商,无需额外配置。输入映射、输出模式和工具调用在各供应商间工作方式完全相同。

按供应商断路器

不同供应商有不同的可靠性配置。我们按供应商调整了断路器阈值:

供应商故障阈值重置时间
Anthropic、OpenAI、Google、Mistral、xAI5 次故障30 秒
Groq3 次故障60 秒
AWS Bedrock3 次故障45 秒
Azure OpenAI5 次故障30 秒

Groq 和 Bedrock 有更低的阈值因为它们有更严格的速率限制。断路器是 fail-open 的——如果 Redis 不可用,请求正常进行。

计划可用性

供应商StarterProTeamEnterprise
Anthropic、OpenAI、Google
Mistral、Groq、xAI
兼容 OpenAI
AWS Bedrock、Azure OpenAI
Ollama、vLLM(本地)

开始使用

  1. 前往账户设置 > API 密钥
  2. 点击添加密钥并选择您的供应商
  3. 输入您的 API 密钥——立即以 AES-256-GCM 加密
  4. 密钥针对供应商端点进行验证
  5. 开始在任何配方或工作流步骤中使用该供应商

所有五个新供应商现已在 Pro 计划及以上可用。Bedrock 和 Azure OpenAI 在 Team 和 Enterprise 可用。

添加供应商密钥 并开始混合模型。

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
分享这篇文章

喜欢这篇文章吗?

在您的信箱中获取工作流程技巧、产品更新和自动化指南。

No spam. Unsubscribe anytime.