Quand nous avons lancé JieGou, nous supportions trois fournisseurs LLM cloud : Anthropic, OpenAI et Google. Puis nous avons ajouté les endpoints compatibles OpenAI pour les modèles auto-hébergés et tiers. Aujourd’hui, nous ajoutons cinq fournisseurs de première classe supplémentaires — portant le total à neuf.
Les nouveaux fournisseurs
Mistral AI
Les modèles de Mistral excellent dans les tâches multilingues, la génération de code et la sortie structurée. JieGou supporte désormais Mistral Large, Medium et Small comme fournisseurs de première classe avec support complet BYOK, disjoncteur et validation de clés.
- Idéal pour : Contenu multilingue, exigences de résidence des données européennes, génération de code économique
- Modèles : Mistral Large (dernier), Mistral Medium, Mistral Small
Groq
Le matériel LPU personnalisé de Groq délivre des vitesses d’inférence 10 à 20x plus rapides que les fournisseurs GPU traditionnels. Quand la latence compte plus que la taille du modèle, Groq est le choix évident.
- Idéal pour : Applications temps réel, traitement par lots à haut volume, workflows sensibles à la latence
- Modèles : Tous les modèles hébergés par Groq via leur API compatible OpenAI
xAI (Grok)
Les modèles Grok de xAI apportent des capacités uniques en raisonnement et synthèse d’information en temps réel. Disponible comme fournisseur de première classe avec la même profondeur d’intégration qu’Anthropic et OpenAI.
- Idéal pour : Tâches intensives en raisonnement, analyse en temps réel, génération créative
- Modèles : Modèles Grok via l’API xAI
AWS Bedrock
Pour les organisations déjà sur AWS, Bedrock fournit un accès à plusieurs modèles de fondation via un seul endpoint AWS. JieGou gère la signature de requêtes SigV4 — vous fournissez simplement vos identifiants AWS.
- Idéal pour : Organisations natives AWS, industries réglementées nécessitant des frontières de données VPC AWS, équipes utilisant le contrôle d’accès basé sur IAM
- Modèles : Tous les modèles de l’API Bedrock Converse (Claude, Titan, Llama, Mistral via AWS)
Azure OpenAI
Les clients Azure d’entreprise peuvent désormais router JieGou via leurs déploiements Azure OpenAI. Cela maintient tout le trafic LLM dans votre tenant Azure et utilise votre authentification Azure AD existante et vos contrôles réseau.
- Idéal pour : Entreprises Azure-first, organisations avec des exigences de conformité Azure, équipes utilisant Azure Private Link
- Modèles : Tous les modèles de déploiement Azure OpenAI (GPT-5, o3, fine-tuned personnalisés)
Chaque fournisseur est un citoyen de première classe
Les neuf fournisseurs partagent la même profondeur d’intégration :
| Capacité | Les 9 fournisseurs |
|---|---|
| Chiffrement BYOK | AES-256-GCM avec clés par compte |
| Disjoncteur par fournisseur | S’ouvre automatiquement sur les échecs répétés, se réinitialise après refroidissement |
| Validation de clé | Vérification préalable contre l’endpoint de listing de modèles du fournisseur |
| Sélection par étape | Choisissez un fournisseur et modèle différent pour chaque étape de workflow |
| Suivi des tokens | Tableau de bord d’utilisation unifié pour tous les fournisseurs |
| Estimation des coûts | Estimations pré-exécution utilisant la tarification spécifique au fournisseur |
| Streaming | Streaming en temps réel pour tous les modèles supportés |
| Appel d’outils | Les outils MCP et personnalisés fonctionnent avec tous les fournisseurs |
Sélection de modèle par étape
La vraie puissance du support multi-fournisseur est le mélange de modèles au sein d’un seul workflow :
- Étape 1 (Recherche) : Utiliser Groq pour une collecte de données initiale rapide
- Étape 2 (Analyse) : Utiliser Claude Opus pour un raisonnement approfondi
- Étape 3 (Traduction) : Utiliser Mistral pour une sortie multilingue
- Étape 4 (Génération de code) : Utiliser GPT-5 pour une sortie de code structurée
- Étape 5 (Revue) : Utiliser Grok pour des vérifications qualité rapides
Chaque étape peut utiliser un fournisseur différent sans aucune configuration supplémentaire. Les mappages d’entrée, les schémas de sortie et l’appel d’outils fonctionnent de manière identique entre les fournisseurs.
Disjoncteurs spécifiques au fournisseur
Différents fournisseurs ont différents profils de fiabilité. Nous avons ajusté les seuils de disjoncteur par fournisseur :
| Fournisseur | Seuil d’échec | Temps de réinitialisation |
|---|---|---|
| Anthropic, OpenAI, Google, Mistral, xAI | 5 échecs | 30 secondes |
| Groq | 3 échecs | 60 secondes |
| AWS Bedrock | 3 échecs | 45 secondes |
| Azure OpenAI | 5 échecs | 30 secondes |
Groq et Bedrock ont des seuils plus bas car ils ont des limitations de débit plus agressives. Le disjoncteur est en mode fail-open — si Redis est indisponible, les requêtes passent normalement.
Disponibilité par plan
| Fournisseur | Starter | Pro | Team | Enterprise |
|---|---|---|---|---|
| Anthropic, OpenAI, Google | Oui | Oui | Oui | Oui |
| Mistral, Groq, xAI | — | Oui | Oui | Oui |
| Compatible OpenAI | — | Oui | Oui | Oui |
| AWS Bedrock, Azure OpenAI | — | — | Oui | Oui |
| Ollama, vLLM (local) | — | — | — | Oui |
Pour commencer
- Allez dans Paramètres du compte > Clés API
- Cliquez sur Ajouter une clé et sélectionnez votre fournisseur
- Entrez votre clé API — elle est chiffrée immédiatement avec AES-256-GCM
- La clé est validée contre l’endpoint du fournisseur
- Commencez à utiliser le fournisseur dans n’importe quelle recette ou étape de workflow
Les cinq nouveaux fournisseurs sont disponibles aujourd’hui sur les plans Pro et supérieurs. Bedrock et Azure OpenAI sont disponibles sur Team et Enterprise.
Ajoutez une clé de fournisseur et commencez à mixer les modèles.