Skip to content
Produit

9 fournisseurs LLM, une plateforme : Mistral, Groq, xAI, Bedrock et Azure rejoignent JieGou

JieGou supporte désormais 9 fournisseurs LLM nativement — de l'inférence ultra-rapide de Groq aux solutions enterprise AWS Bedrock et Azure OpenAI. Choisissez le bon modèle pour chaque étape.

JT
JieGou Team
· · 5 min de lecture

Quand nous avons lancé JieGou, nous supportions trois fournisseurs LLM cloud : Anthropic, OpenAI et Google. Puis nous avons ajouté les endpoints compatibles OpenAI pour les modèles auto-hébergés et tiers. Aujourd’hui, nous ajoutons cinq fournisseurs de première classe supplémentaires — portant le total à neuf.

Les nouveaux fournisseurs

Mistral AI

Les modèles de Mistral excellent dans les tâches multilingues, la génération de code et la sortie structurée. JieGou supporte désormais Mistral Large, Medium et Small comme fournisseurs de première classe avec support complet BYOK, disjoncteur et validation de clés.

  • Idéal pour : Contenu multilingue, exigences de résidence des données européennes, génération de code économique
  • Modèles : Mistral Large (dernier), Mistral Medium, Mistral Small

Groq

Le matériel LPU personnalisé de Groq délivre des vitesses d’inférence 10 à 20x plus rapides que les fournisseurs GPU traditionnels. Quand la latence compte plus que la taille du modèle, Groq est le choix évident.

  • Idéal pour : Applications temps réel, traitement par lots à haut volume, workflows sensibles à la latence
  • Modèles : Tous les modèles hébergés par Groq via leur API compatible OpenAI

xAI (Grok)

Les modèles Grok de xAI apportent des capacités uniques en raisonnement et synthèse d’information en temps réel. Disponible comme fournisseur de première classe avec la même profondeur d’intégration qu’Anthropic et OpenAI.

  • Idéal pour : Tâches intensives en raisonnement, analyse en temps réel, génération créative
  • Modèles : Modèles Grok via l’API xAI

AWS Bedrock

Pour les organisations déjà sur AWS, Bedrock fournit un accès à plusieurs modèles de fondation via un seul endpoint AWS. JieGou gère la signature de requêtes SigV4 — vous fournissez simplement vos identifiants AWS.

  • Idéal pour : Organisations natives AWS, industries réglementées nécessitant des frontières de données VPC AWS, équipes utilisant le contrôle d’accès basé sur IAM
  • Modèles : Tous les modèles de l’API Bedrock Converse (Claude, Titan, Llama, Mistral via AWS)

Azure OpenAI

Les clients Azure d’entreprise peuvent désormais router JieGou via leurs déploiements Azure OpenAI. Cela maintient tout le trafic LLM dans votre tenant Azure et utilise votre authentification Azure AD existante et vos contrôles réseau.

  • Idéal pour : Entreprises Azure-first, organisations avec des exigences de conformité Azure, équipes utilisant Azure Private Link
  • Modèles : Tous les modèles de déploiement Azure OpenAI (GPT-5, o3, fine-tuned personnalisés)

Chaque fournisseur est un citoyen de première classe

Les neuf fournisseurs partagent la même profondeur d’intégration :

CapacitéLes 9 fournisseurs
Chiffrement BYOKAES-256-GCM avec clés par compte
Disjoncteur par fournisseurS’ouvre automatiquement sur les échecs répétés, se réinitialise après refroidissement
Validation de cléVérification préalable contre l’endpoint de listing de modèles du fournisseur
Sélection par étapeChoisissez un fournisseur et modèle différent pour chaque étape de workflow
Suivi des tokensTableau de bord d’utilisation unifié pour tous les fournisseurs
Estimation des coûtsEstimations pré-exécution utilisant la tarification spécifique au fournisseur
StreamingStreaming en temps réel pour tous les modèles supportés
Appel d’outilsLes outils MCP et personnalisés fonctionnent avec tous les fournisseurs

Sélection de modèle par étape

La vraie puissance du support multi-fournisseur est le mélange de modèles au sein d’un seul workflow :

  1. Étape 1 (Recherche) : Utiliser Groq pour une collecte de données initiale rapide
  2. Étape 2 (Analyse) : Utiliser Claude Opus pour un raisonnement approfondi
  3. Étape 3 (Traduction) : Utiliser Mistral pour une sortie multilingue
  4. Étape 4 (Génération de code) : Utiliser GPT-5 pour une sortie de code structurée
  5. Étape 5 (Revue) : Utiliser Grok pour des vérifications qualité rapides

Chaque étape peut utiliser un fournisseur différent sans aucune configuration supplémentaire. Les mappages d’entrée, les schémas de sortie et l’appel d’outils fonctionnent de manière identique entre les fournisseurs.

Disjoncteurs spécifiques au fournisseur

Différents fournisseurs ont différents profils de fiabilité. Nous avons ajusté les seuils de disjoncteur par fournisseur :

FournisseurSeuil d’échecTemps de réinitialisation
Anthropic, OpenAI, Google, Mistral, xAI5 échecs30 secondes
Groq3 échecs60 secondes
AWS Bedrock3 échecs45 secondes
Azure OpenAI5 échecs30 secondes

Groq et Bedrock ont des seuils plus bas car ils ont des limitations de débit plus agressives. Le disjoncteur est en mode fail-open — si Redis est indisponible, les requêtes passent normalement.

Disponibilité par plan

FournisseurStarterProTeamEnterprise
Anthropic, OpenAI, GoogleOuiOuiOuiOui
Mistral, Groq, xAIOuiOuiOui
Compatible OpenAIOuiOuiOui
AWS Bedrock, Azure OpenAIOuiOui
Ollama, vLLM (local)Oui

Pour commencer

  1. Allez dans Paramètres du compte > Clés API
  2. Cliquez sur Ajouter une clé et sélectionnez votre fournisseur
  3. Entrez votre clé API — elle est chiffrée immédiatement avec AES-256-GCM
  4. La clé est validée contre l’endpoint du fournisseur
  5. Commencez à utiliser le fournisseur dans n’importe quelle recette ou étape de workflow

Les cinq nouveaux fournisseurs sont disponibles aujourd’hui sur les plans Pro et supérieurs. Bedrock et Azure OpenAI sont disponibles sur Team et Enterprise.

Ajoutez une clé de fournisseur et commencez à mixer les modèles.

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
Partager cet article

Vous avez aime cet article ?

Recevez des astuces workflows, des mises a jour produit et des guides d'automatisation dans votre boite de reception.

No spam. Unsubscribe anytime.