Skip to content
Produit

LLM open-source + JieGou : exécutez l'automatisation IA sans dépendance cloud

Déployez JieGou avec Llama, DeepSeek, Qwen et Mistral sur votre propre infrastructure. Un guide pratique pour l'automatisation IA air-gapped pour les entreprises qui ne peuvent pas envoyer de données dans le cloud.

JT
JieGou Team
· · 6 min de lecture

Certaines organisations ne peuvent pas envoyer de données à OpenAI. Ni à Anthropic. Ni à Google. Non pas parce que les modèles ne sont pas assez bons — mais parce que les données ne peuvent pas quitter le bâtiment.

Les systèmes de santé traitant des dossiers patients. Les institutions financières gérant des données de transactions. Les sous-traitants de défense travaillant avec des informations classifiées. Les agences gouvernementales liées par des exigences de souveraineté des données. Pour ces organisations, la promesse de l’automatisation IA a toujours été accompagnée d’un astérisque : à condition que vous soyez à l’aise avec l’envoi de vos données vers une API cloud.

JieGou supprime cet astérisque.

Ce qui a changé

Deux choses ont convergé pour rendre l’automatisation IA auto-hébergée pratique :

Les modèles open-source ont rattrapé leur retard. Llama 4 Maverick, DeepSeek V3, Qwen 3 235B et Mistral 3 Large délivrent une qualité qui égale ou dépasse GPT-4o sur de nombreuses tâches. Appel d’outils, sortie structurée, fenêtres de contexte longues — les capacités dont les workflows d’entreprise ont besoin sont toutes là.

Les serveurs d’inférence ont mûri. vLLM, Ollama, SGLang et LocalAI fournissent des API compatibles OpenAI prêtes pour la production. Vous pointez votre application vers http://localhost:8000/v1 au lieu de https://api.openai.com/v1, et tout fonctionne.

JieGou supporte désormais tout endpoint compatible OpenAI comme fournisseur de première classe. Même système de recettes, même moteur de workflow, mêmes comparaisons par bakeoff, mêmes portes d’approbation — mais exécuté sur votre matériel avec vos modèles.

Comment ça fonctionne

Le fournisseur compatible OpenAI

JieGou traite les endpoints personnalisés de la même manière qu’Anthropic, OpenAI et Google. Quand vous configurez un endpoint personnalisé dans Paramètres > Clés API, vous fournissez :

  • URL de l’endpoint — Où se trouve votre serveur d’inférence (par ex., http://ollama:11434/v1)
  • Nom du modèle — Quel modèle utiliser (par ex., llama3.3)
  • Clé API — Optionnelle. La plupart des endpoints locaux n’en nécessitent pas.

À partir de là, chaque fonctionnalité JieGou fonctionne avec votre modèle : recettes, workflows, bakeoffs, exécutions par lots, chat multi-tours, extraction de sortie structurée — tout.

Modèles certifiés vs. communautaires

Tous les modèles open-source ne gèrent pas chaque fonctionnalité JieGou de manière égale. L’appel d’outils, la sortie JSON structurée et le traitement de contexte long nécessitent des capacités de modèle spécifiques. Nous testons et certifions les modèles qui gèrent de manière fiable l’ensemble complet des fonctionnalités JieGou :

ModèleTailleCapacités clés
Llama 4 Maverick400B+ MoEAppel d’outils, sortie structurée, vision, contexte 1M
DeepSeek V3.2671B MoERaisonnement, génération de code, sortie structurée
Qwen 3 235B235B MoEMultilingue, appel d’outils, sortie structurée
Mistral 3 Large123BVision, appel d’outils, contexte 128K

Les modèles certifiés obtiennent un badge vert dans le sélecteur de modèles. Les modèles communautaires (tout le reste) obtiennent un badge gris avec une note : « Non certifié — la qualité peut varier. » Nous encourageons les utilisateurs à exécuter un Bakeoff comparant les modèles communautaires aux certifiés avant de les mettre en production.

Auto-découverte

Quand JieGou démarre, il sonde les endpoints locaux bien connus :

  • http://ollama:11434 — Réseau Docker (conteneur Ollama co-localisé)
  • http://localhost:11434 — Port par défaut d’Ollama
  • http://localhost:8000 — Port par défaut de vLLM

S’il trouve un serveur d’inférence en cours d’exécution, le tableau de bord admin affiche une bannière : « Endpoint LLM local détecté » avec un bouton « Configurer » en un clic qui pré-remplit les paramètres de l’endpoint.

Gestionnaire de téléchargement de modèles

Pour les endpoints Ollama, JieGou inclut un gestionnaire de modèles intégré. Parcourez la liste des modèles certifiés, cliquez sur « Pull », et observez la progression du téléchargement en temps réel. Pas de terminal nécessaire.

Options de déploiement

Option 1 : Kit de démarrage Docker Compose (le plus simple)

Pour l’évaluation ou les petites équipes. Tout en un seul docker compose up :

git clone https://github.com/JieGouAI/orion.git
cd orion/console/self-hosted-starter
cp .env.example .env
docker compose up -d
./models/pull-models.sh llama3.3

Cinq minutes pour une plateforme d’automatisation IA fonctionnelle. JieGou détecte automatiquement l’instance Ollama co-localisée. Ouvrez http://localhost:3000 et commencez à construire.

Pour l’accélération GPU :

docker compose -f docker-compose.yml -f docker-compose.gpu.yml up -d

Option 2 : Déploiement VPC hybride (enterprise)

Pour les organisations qui veulent le plan de contrôle managé de JieGou (UI, planification, monitoring) mais qui ont besoin que l’exécution se fasse sur site. Les agents d’exécution VPC s’exécutent dans votre réseau, reçoivent les requêtes d’exécution d’étapes et les traitent en utilisant vos endpoints LLM locaux. Le plan de contrôle ne voit jamais les données brutes.

Option 3 : Déploiement Kubernetes complet

Pour les grandes organisations exécutant leurs propres clusters K8s. JieGou fournit un Helm chart (console/chart/) qui se déploie aux côtés de vos services vLLM ou Ollama existants. Configurez l’endpoint personnalisé pour pointer vers le nom DNS interne de votre service d’inférence.

Comparaison des plateformes

Comment l’histoire auto-hébergée de JieGou se compare-t-elle aux alternatives ?

n8n supporte l’auto-hébergement et a une intégration Ollama, mais c’est un outil de workflow généraliste — pas conçu spécifiquement pour l’automatisation IA. Pas de registre de modèles certifiés, pas de système de bakeoff pour comparer la qualité des modèles, pas d’organisation de workflows par département, pas de portes d’approbation.

Zapier et Microsoft Copilot Studio sont cloud uniquement. Il n’y a pas d’option auto-hébergée, point.

LangChain/LangGraph fournit les briques de construction mais pas la plateforme. Vous devez encore construire l’UI, la gestion des utilisateurs, la planification, les workflows d’approbation, le monitoring de qualité et tout le reste. C’est le produit, pas un appel de bibliothèque.

JieGou est la seule plateforme qui combine l’automatisation IA auto-hébergée avec les fonctionnalités enterprise dont les industries réglementées ont besoin : RBAC, workflows d’approbation, journalisation d’audit, préréglages de conformité et bakeoffs de qualité — le tout exécuté sur votre infrastructure.

Et ensuite

Nous investissons massivement dans l’expérience auto-hébergée :

  • Benchmarks de performance des modèles — Scoring de qualité automatisé pour chaque modèle certifié contre la suite de tests de recettes de JieGou
  • Calculateur de coûts d’inférence — Comparez les coûts GPU auto-hébergés vs. la tarification API cloud pour votre charge de travail spécifique
  • Orchestration multi-GPU — Routez différentes recettes vers différents modèles selon les exigences de capacités
  • Catalogue de modèles hors ligne — Bundles de modèles pré-packagés pour les environnements entièrement air-gapped sans aucun accès internet

Pour commencer

Le kit de démarrage auto-hébergé est disponible maintenant. Clonez le repo, exécutez Docker Compose, tirez un modèle et commencez à automatiser.

Si vous avez besoin d’un déploiement VPC hybride ou de contrôles de conformité pour les industries réglementées, contactez notre équipe commerciale à propos du plan Enterprise.

open-source self-hosted air-gapped ollama vllm enterprise llm compliance
Partager cet article

Vous avez aime cet article ?

Recevez des astuces workflows, des mises a jour produit et des guides d'automatisation dans votre boite de reception.

No spam. Unsubscribe anytime.