Skip to content
プロダクト

9つのLLMプロバイダー、1つのプラットフォーム:Mistral、Groq、xAI、Bedrock、Azure OpenAIがJieGouに参加

JieGouは9つのLLMプロバイダーを標準でサポート -- 超高速Groq推論からエンタープライズグレードのAWS BedrockとAzure OpenAIまで。すべてのステップに適切なモデルを選択できます。

JT
JieGou Team
· · 1 分で読めます

JieGouのローンチ時、3つのクラウドLLMプロバイダーをサポートしていました:Anthropic、OpenAI、Google。その後、セルフホストとサードパーティモデル向けにOpenAI互換エンドポイントを追加しました。今日、5つの新しいファーストクラスプロバイダーを追加し、合計9つになりました。

新しいプロバイダー

Mistral AI

Mistralのモデルは多言語タスク、コード生成、構造化出力に強いです。JieGouはMistral Large、Medium、Smallを完全なBYOK、サーキットブレーカー、キーバリデーションサポート付きのファーストクラスプロバイダーとしてサポート。

  • 最適な用途: 多言語コンテンツ、欧州データレジデンシー要件、コスト効率の良いコード生成
  • モデル: Mistral Large(最新)、Mistral Medium、Mistral Small

Groq

GroqのカスタムLPUハードウェアは従来のGPUプロバイダーより10-20倍高速な推論速度を提供。レイテンシがモデルサイズより重要な場合、Groqが明確な選択です。

  • 最適な用途: リアルタイムアプリケーション、大量バッチ処理、レイテンシ敏感なワークフロー
  • モデル: OpenAI互換API経由のすべてのGroqホストモデル

xAI(Grok)

xAIのGrokモデルは推論とリアルタイム情報統合にユニークな機能を提供。AnthropicやOpenAIと同じ統合深度のファーストクラスプロバイダーとして利用可能。

  • 最適な用途: 推論重視タスク、リアルタイム分析、クリエイティブ生成
  • モデル: xAI API経由のGrokモデル

AWS Bedrock

すでにAWSで運用している組織向けに、Bedrockは単一のAWSエンドポイントを通じて複数の基盤モデルへのアクセスを提供。JieGouがSigV4リクエスト署名を処理 — AWS認証情報を提供するだけ。

  • 最適な用途: AWSネイティブ組織、AWS VPCデータ境界を必要とする規制業界、IAMベースアクセスコントロールを使用するチーム
  • モデル: すべてのBedrock Converse APIモデル(Claude、Titan、Llama、Mistral via AWS)

Azure OpenAI

エンタープライズAzure顧客はJieGouをAzure OpenAIデプロイメント経由でルーティングできるようになりました。すべてのLLMトラフィックをAzureテナント内に保持し、既存のAzure AD認証とネットワークコントロールを使用します。

  • 最適な用途: Azureファーストエンタープライズ、Azureコンプライアンス要件のある組織、Azure Private Linkを使用するチーム
  • モデル: すべてのAzure OpenAIデプロイメントモデル(GPT-5、o3、カスタムファインチューニング)

すべてのプロバイダーがファーストクラスシチズン

9つのプロバイダーすべてが同じ統合深度を共有:

機能全9プロバイダー
BYOK暗号化アカウントごとのキーでAES-256-GCM
プロバイダーごとのサーキットブレーカー繰り返しの障害で自動オープン、クールダウン後にリセット
キーバリデーションプロバイダーのモデルリストエンドポイントに対するプリフライトチェック
ステップごとの選択ワークフローステップごとに異なるプロバイダーとモデルを選択
トークン追跡すべてのプロバイダーにわたる統一使用ダッシュボード
コスト見積もりプロバイダー固有の価格設定による実行前コスト見積もり
ストリーミングサポートされるすべてのモデルでリアルタイムストリーミング
ツール呼び出しMCPとカスタムツールがすべてのプロバイダーで動作

ステップごとのモデル選択

マルチプロバイダーサポートの真の力は単一ワークフロー内でのモデルミキシングです:

  1. ステップ1(リサーチ):Groqで高速初期データ収集
  2. ステップ2(分析):Claude Opusで深い推論
  3. ステップ3(翻訳):Mistralで多言語出力
  4. ステップ4(コード生成):GPT-5で構造化コード出力
  5. ステップ5(レビュー):Grokで迅速な品質チェック

各ステップは追加設定なしに異なるプロバイダーを使用できます。入力マッピング、出力スキーマ、ツール呼び出しはプロバイダー間で同一に動作します。

プランの利用可能性

プロバイダーStarterProTeamEnterprise
Anthropic、OpenAI、Googleはいはいはいはい
Mistral、Groq、xAIはいはいはい
OpenAI互換はいはいはい
AWS Bedrock、Azure OpenAIはいはい
Ollama、vLLM(ローカル)はい

始めましょう

  1. Account Settings > API Keysに移動
  2. Add Keyをクリックしてプロバイダーを選択
  3. APIキーを入力 — AES-256-GCMで即座に暗号化
  4. プロバイダーのエンドポイントに対してキーを検証
  5. 任意のレシピまたはワークフローステップでプロバイダーの使用を開始

5つの新しいプロバイダーすべてがProプラン以上で今日利用可能です。BedrockとAzure OpenAIはTeamとEnterpriseで利用可能です。

プロバイダーキーを追加してモデルミキシングを開始しましょう。

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
この記事をシェアする

この記事はお役に立ちましたか?

ワークフローのヒント、製品アップデート、自動化ガイドをメールでお届けします。

No spam. Unsubscribe anytime.