Skip to content
プロダクト

オープンソースLLM + JieGou:クラウド依存なしでAI自動化を実行

Llama、DeepSeek、Qwen、Mistralを自社インフラにデプロイしてJieGouを使用。データをクラウドに送信できないエンタープライズ向けのエアギャップAI自動化の実践ガイド。

JT
JieGou Team
· · 1 分で読めます

一部の組織はデータをOpenAIに送信できません。Anthropicにも。Googleにも。モデルが十分でないからではなく — データが建物から出てはいけないからです。

患者記録を処理するヘルスケアシステム。取引データを扱う金融機関。機密情報を扱う防衛請負業者。データ主権要件に縛られた政府機関。これらの組織にとって、AI自動化の約束には常に注釈がありました:クラウドAPIにデータを送信することに問題がなければ

JieGouはその注釈を取り除きます。

何が変わったか

2つのことが収束してセルフホストAI自動化を実用的にしました:

オープンソースモデルが追いついた。 Llama 4 Maverick、DeepSeek V3、Qwen 3 235B、Mistral 3 Largeは多くのタスクでGPT-4oに匹敵またはそれを超える品質を提供します。ツール呼び出し、構造化出力、長いコンテキストウィンドウ — エンタープライズワークフローが必要とする機能がすべて揃っています。

推論サーバーが成熟した。 vLLM、Ollama、SGLang、LocalAIが本番対応のOpenAI互換APIを提供します。https://api.openai.com/v1の代わりにhttp://localhost:8000/v1を指定すれば、すべて動作します。

JieGouはOpenAI互換エンドポイントをファーストクラスプロバイダーとしてサポートするようになりました。同じレシピシステム、同じワークフローエンジン、同じBakeoff比較、同じ承認ゲート — 自社ハードウェアで自社モデルを使って実行するだけです。

認証済み vs. コミュニティモデル

すべてのオープンソースモデルがJieGouの全機能を均等に処理するわけではありません。テストして信頼性を確認したモデルを認証しています:

モデルサイズ主要機能
Llama 4 Maverick400B+ MoEツール呼び出し、構造化出力、ビジョン、1Mコンテキスト
DeepSeek V3.2671B MoE推論、コード生成、構造化出力
Qwen 3 235B235B MoE多言語、ツール呼び出し、構造化出力
Mistral 3 Large123Bビジョン、ツール呼び出し、128Kコンテキスト

認証済みモデルはモデルセレクターに緑のバッジが付きます。コミュニティモデルはグレーのバッジ付き。

デプロイメントオプション

オプション1:Docker Composeスターターキット(最もシンプル)

git clone https://github.com/JieGouAI/orion.git
cd orion/console/self-hosted-starter
cp .env.example .env
docker compose up -d
./models/pull-models.sh llama3.3

5分で動作するAI自動化プラットフォーム。

オプション2:ハイブリッドVPCデプロイメント(エンタープライズ)

JieGouのマネージドコントロールプレーン(UI、スケジューリング、モニタリング)を使用しつつ、実行はオンプレミスで行う組織向け。

オプション3:フルKubernetesデプロイメント

自社K8sクラスターを運用する大規模組織向け。JieGouはHelmチャートを提供。

プラットフォーム比較

n8nはセルフホスティングとOllama統合をサポートしますが、汎用ワークフローツールであり、AI自動化専用ではありません。認証済みモデルレジストリなし、Bakeoffシステムなし、部門ファーストワークフロー組織なし、承認ゲートなし。

ZapierMicrosoft Copilot Studioはクラウド専用です。セルフホストオプションは一切ありません。

JieGouはセルフホストAI自動化と規制業界が必要とするエンタープライズ機能を組み合わせた唯一のプラットフォームです。

始めましょう

セルフホストスターターキットは今すぐ利用可能です。リポジトリをクローンし、Docker Composeを実行し、モデルをプルして自動化を開始しましょう。

ハイブリッドVPCデプロイメントや規制業界向けコンプライアンスコントロールが必要な場合は、Enterpriseプランについて営業チームに連絡してください。

open-source self-hosted air-gapped ollama vllm enterprise llm compliance
この記事をシェアする

この記事はお役に立ちましたか?

ワークフローのヒント、製品アップデート、自動化ガイドをメールでお届けします。

No spam. Unsubscribe anytime.