すべてのAI自動化プラットフォームが「マルチモデルサポート」を謳っています。実際には、設定のドロップダウンでGPT-4oとGPT-5を切り替えられるという意味であることがほとんどです。Claudeもリストにあるかもしれません。オープンソースモデルを実行したい場合は、自力で対応する必要があります。
JieGouは異なるアプローチを取っています。クラウドホスト型でもセルフホスト型でも、プロプライエタリでもオープンソースでも、すべてのLLMをファーストクラスの市民として扱うユニバーサルモデルレイヤーを構築しました。この記事では、その仕組みとなぜ重要かを説明します。
1つのプラットフォームに4つのプロバイダーティア
ティア1:BYOK付きクラウドプロバイダー
Anthropic(Claude Sonnet 4.6、Haiku 4.5、Opus 4.6)、OpenAI(GPT-5.2、GPT-5-mini、GPT-5-nano、o3、o4-mini)、Google(Gemini 3.1 Pro、Gemini 3 Flash、Gemini 2.5 Pro/Flash)に独自のAPIキーを使用できます。
キーは、HKDF-SHA256によるアカウントごとの派生キーを使用したAES-256-GCMで暗号化されます。実行中にのみメモリ内で復号化され、平文で保存されることはありません。無料ティアではプラットフォーム提供のキーを使用して、認証情報を入力せずに開始することもできます。
ティア2:認定オープンソースモデル
vLLM上で4つのオープンソースモデルをエンドツーエンドでテストし、ツール呼び出し、構造化JSON出力、recipe実行を含む完全なJieGou互換性を認定しました:
| モデル | パラメータ | ツール呼び出し | 構造化出力 | ビジョン | コンテキスト |
|---|---|---|---|---|---|
| Llama 4 Maverick | 400B+ MoE | 対応 | 対応 | 対応 | 1Mトークン |
| DeepSeek V3.2 | 671B MoE | 対応 | 対応 | 非対応 | 128Kトークン |
| Qwen 3 235B | 235B MoE | 対応 | 対応 | 非対応 | 128Kトークン |
| Mistral 3 Large | 123B dense | 対応 | 対応 | 対応 | 128Kトークン |
「認定」とは、これらのモデルに対して数千のrecipe実行を行い、ツール呼び出しと構造化出力が正しく動作することを検証し、互換性レベルを文書化したことを意味します。安心してデプロイできます。
ティア3:コミュニティモデル
OpenAI互換APIでアクセス可能な任意のモデルがJieGouで動作します。テストは行っていないため「community」ティアラベルが付きますが、統合は同一です。OpenAI APIフォーマットに対応していれば、JieGouで使用できます。
ティア4:自動検出ローカルモデル
JieGouは起動時にローカル推論サーバーを探索します:
http://ollama:11434(Docker Composeサービス名)http://localhost:11434(ローカルOllama)http://localhost:8000(ローカルvLLM)OLLAMA_BASE_URL環境変数
サーバーが見つかると、モデルリストをクエリし、それらのモデルをモデルピッカーで利用可能にします。手動設定は不要です。検出結果は推論サーバーへの過剰なアクセスを避けるために5分間キャッシュされます。
ステップごとのモデル選択
これが、マルチプロバイダーサポートを比較表のチェックボックスではなく、実際に有用なものにする機能です。
JieGouのworkflowでは、すべてのステップが異なるモデルを使用できます。典型的なセットアップ:
| ワークフローステップ | タスク | モデル | 理由 |
|---|---|---|---|
| 1. リサーチ | 詳細な競合分析 | Claude Opus 4.6 | 最高の推論品質 |
| 2. 分類 | 結果のカテゴリ化 | GPT-5-nano | 分類に高速かつ安価 |
| 3. 抽出 | 構造化データの取得 | Llama 4 Maverick | 最低コストで大量処理 |
| 4. 要約 | エグゼクティブブリーフの作成 | Claude Sonnet 4.6 | 優れた文章品質 |
| 5. 翻訳 | 5言語にローカライズ | Qwen 3 235B | 最高の多言語パフォーマンス |
同じ柔軟性がrecipe(各recipeに独自のモデル設定)、会話(チャットごとにモデルを選択)、バッチ実行(選択したモデルがすべての行に適用)にも適用されます。
モデルレコメンデーションエンジン
すべてのタスクに適切なモデルを選ぶのは強力ですが、複雑でもあります。レコメンデーションエンジンがそれを実用的にします。
recipeの10回以上の実行後、エンジンは使用したすべてのモデルをスコアリングするのに十分なデータを持ちます:
score = successRate × 0.5 + costEfficiency × 0.3 + speed × 0.2
過去60日間の実行履歴を見て以下を比較します:
- 成功率 — エラーなしで完了した実行の割合
- コスト効率 — 成功した実行あたりのコスト(低いほど良い)
- 速度 — 平均実行時間(速いほど良い)
現在のモデルが10回以上の実行で90%以上の成功率を持つ場合、エンジンは良い選択であることを確認します。そうでなければ、完全なメトリクス付きで最高スコアの代替を推奨し、情報に基づいた切り替えを可能にします。
厳密な比較には、bakeoffを実行できます——LLM-as-judgeスコアリングと95%信頼区間による一対一の評価です。Bakeoffは任意の2つのモデル、2つのrecipe、または2つのworkflowを比較できます。
エンタープライズのレジリエンス
複数のプロバイダーにわたって本番ワークロードを実行するには、APIキー管理以上のものが必要です。JieGouには3つのレジリエンスレイヤーが含まれています:
サーキットブレーカー
各プロバイダーに独自のサーキットブレーカーがあります。60秒以内に5回の呼び出しが失敗すると、サーキットがオープンになり——後続の呼び出しはタイムアウトの代わりに即座に失敗します。30秒後、サーキットはハーフオープン状態になりプローブリクエストを送信します。成功すると、サーキットがクローズしトラフィックが再開します。
openai-compatibleプロバイダーの場合、サーキットブレーカーはアカウントごとにスコープされます(各顧客が異なるエンドポイントを持つ可能性があるため)。クラウドプロバイダーはグローバルサーキットブレーカーを共有します。
重要なのは、サーキットブレーカーはfail-openです——Redisがダウンしてサーキット状態を確認できない場合、呼び出しを通します。これにより、モニタリングの障害がworkflowをブロックすることはありません。
同時実行制限
グローバルセマフォがアカウントごとの同時LLM呼び出しを制限し、暴走した使用を防ぎます。制限はプランに応じてスケールします:
| プランティア | グローバル容量シェア | アカウントごとの最大 |
|---|---|---|
| Enterprise | 100%(150スロット) | 10同時 |
| Pro | 83%(125スロット) | 10同時 |
| Starter | 67%(100スロット) | 10同時 |
コスト追跡
すべてのLLM呼び出しがトークン使用量と推定コストを記録します。BYOKを使用する場合、コストは別途追跡されます——分析ダッシュボードに表示されますが、プロバイダーに直接支払うため、プラットフォームの使用制限にはカウントされません。
コストエスティメーターは直近20回の成功した実行の履歴平均を使用して、実行前にコストを予測します。recipeごと、workflowステップごと、バッチ実行ごとの予想支出を確認できます。
ゼロナレッジキーアーキテクチャ
JieGouは保存時にAPIキーを平文で見ることはありません。暗号化パイプライン:
- ルートキーをSecret Managerまたは環境変数からロード(64文字の16進数)
- アカウントごとのキーをHKDF-SHA256で導出:
HKDF(rootKey, "", "jiegou-byok-envelope-v1:{accountId}", 32) - 暗号化:ランダムな12バイトIVと16バイト認証タグ付きAES-256-GCM
- 保存:暗号文+IV+認証タグのみがFirestoreに保存
- 復号化:実行時にメモリ内で行われ、永続化されない
キーローテーションがサポートされています——システムはダウンタイムなしでレガシーのグローバル暗号化スキームからアカウントごとのエンベロープ暗号化に移行できます。
API呼び出しが401または403を返した場合、システムは自動的にキーを無効としてマークし、明確なエラーを表示します。設定ページからキーの再検証または置き換えが可能です。
はじめに
- 無料ティア:Anthropic、OpenAI、Google用のプラットフォーム提供キーを使用——認証情報不要
- BYOK:設定 > APIキーに移動し、プロバイダーキーを追加すると即座に暗号化されます
- オープンソース:カスタムベースURL(例:
http://your-vllm-server:8000/v1)とモデル名を入力 - 自動検出:OllamaまたはvLLMがローカルで実行されている場合、モデルが自動的に表示されます
マルチプロバイダーモデルアクセスはすべてのプランでご利用いただけます。OpenAI互換エンドポイントとモデルレコメンデーションエンジンはPro以上でご利用いただけます。認定モデルレジストリと自動検出はEnterprise機能です。
マルチプロバイダーモデルサポートを詳しく見るか、無料トライアルを開始することができます。