Skip to content
產品

9 個 LLM 提供商,一個平台:Mistral、Groq、xAI、Bedrock 和 Azure 加入 JieGou

JieGou 現在開箱即用支援 9 個 LLM 提供商 — 從超快速 Groq 推理到企業級 AWS Bedrock 和 Azure OpenAI。為每個步驟選擇合適的模型。

JT
JieGou Team
· · 2 分鐘閱讀

當我們推出 JieGou 時,我們支援三個雲端 LLM 提供商:Anthropic、OpenAI 和 Google。然後我們為自託管和第三方模型添加了 OpenAI 相容端點。今天,我們新增了五個一流提供商 — 總數達到九個。

新提供商

Mistral AI

Mistral 的模型在多語言任務、程式碼生成和結構化輸出方面表現優異。JieGou 現在將 Mistral Large、Medium 和 Small 作為一流提供商支援,具備完整的 BYOK、熔斷器和金鑰驗證。

  • 最適合: 多語言內容、歐洲資料駐留需求、高性價比的程式碼生成
  • 模型: Mistral Large(最新版)、Mistral Medium、Mistral Small

Groq

Groq 的自訂 LPU 硬體提供比傳統 GPU 提供商快 10-20 倍的推理速度。當延遲比模型大小更重要時,Groq 是明確的選擇。

  • 最適合: 即時應用、大量批次處理、對延遲敏感的工作流程
  • 模型: 所有 Groq 託管模型,透過其 OpenAI 相容 API

xAI (Grok)

xAI 的 Grok 模型在推理和即時資訊綜合方面帶來獨特能力。作為一流提供商提供,與 Anthropic 和 OpenAI 具有相同的整合深度。

  • 最適合: 推理密集型任務、即時分析、創意生成
  • 模型: 透過 xAI API 的 Grok 模型

AWS Bedrock

對於已在 AWS 上執行的組織,Bedrock 通過單一 AWS 端點提供多個基礎模型的存取。JieGou 處理 SigV4 請求簽署 — 你只需提供 AWS 憑證。

  • 最適合: AWS 原生組織、需要 AWS VPC 資料邊界的受監管行業、使用 IAM 存取控制的團隊
  • 模型: 所有 Bedrock Converse API 模型(Claude、Titan、Llama、Mistral via AWS)

Azure OpenAI

企業 Azure 客戶現在可以透過其 Azure OpenAI 部署路由 JieGou。這讓所有 LLM 流量保持在你的 Azure 租戶內,並使用現有的 Azure AD 驗證和網路控制。

  • 最適合: Azure 優先的企業、具有 Azure 合規要求的組織、使用 Azure Private Link 的團隊
  • 模型: 所有 Azure OpenAI 部署模型(GPT-5、o3、自訂微調)

每個提供商都是一等公民

所有九個提供商共享相同的整合深度:

能力全部 9 個提供商
BYOK 加密AES-256-GCM,使用帳戶專屬金鑰
每提供商熔斷器重複失敗時自動開啟,冷卻後重置
金鑰驗證針對提供商模型列表端點的預檢查
逐步選擇為每個工作流程步驟選擇不同的提供商和模型
Token 追蹤跨所有提供商的統一使用儀表板
成本估算使用提供商特定定價的預執行成本估算
串流所有支援模型的即時串流
工具呼叫MCP 和自訂工具適用於所有提供商

逐步模型選擇

多提供商支援的真正威力在於在單一工作流程中混合模型

  1. 步驟 1(研究):使用 Groq 進行快速初始資料收集
  2. 步驟 2(分析):使用 Claude Opus 進行深度推理
  3. 步驟 3(翻譯):使用 Mistral 進行多語言輸出
  4. 步驟 4(程式碼生成):使用 GPT-5 進行結構化程式碼輸出
  5. 步驟 5(審查):使用 Grok 進行快速品質檢查

每個步驟可以使用不同的提供商,無需額外設定。輸入映射、輸出 schema 和工具呼叫在所有提供商之間完全相同。

特定提供商的熔斷器

不同提供商有不同的可靠性特徵。我們根據提供商調整了熔斷器閾值:

提供商失敗閾值重置時間
Anthropic、OpenAI、Google、Mistral、xAI5 次失敗30 秒
Groq3 次失敗60 秒
AWS Bedrock3 次失敗45 秒
Azure OpenAI5 次失敗30 秒

Groq 和 Bedrock 的閾值較低,因為它們有更嚴格的速率限制。熔斷器是故障開放式的 — 如果 Redis 不可用,請求正常進行。

方案可用性

提供商StarterProTeamEnterprise
Anthropic、OpenAI、Google
Mistral、Groq、xAI
OpenAI 相容
AWS Bedrock、Azure OpenAI
Ollama、vLLM(本地)

開始使用

  1. 前往帳戶設定 > API 金鑰
  2. 點擊新增金鑰並選擇你的提供商
  3. 輸入你的 API 金鑰 — 立即使用 AES-256-GCM 加密
  4. 金鑰針對提供商端點進行驗證
  5. 開始在任何配方或工作流程步驟中使用該提供商

所有五個新提供商今天在 Pro 方案及以上可用。Bedrock 和 Azure OpenAI 在 Team 和 Enterprise 方案可用。

新增提供商金鑰,開始混合模型。

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
分享這篇文章

喜歡這篇文章嗎?

在您的信箱中獲取工作流程技巧、產品更新和自動化指南。

No spam. Unsubscribe anytime.