Quelque chose de subtil se passe dans l’industrie de l’IA. Les entreprises qui vous vendent des grands modèles de langage construisent des plateformes autour d’eux. Des marketplaces de plugins. Des frameworks d’agents. Des constructeurs de workflows. Des couches de mémoire. Des systèmes de récupération de connaissances.
En surface, cela semble pratique. Un seul fournisseur pour tout. Une seule facture. Une seule intégration.
En dessous, c’est la plus ancienne stratégie des logiciels d’entreprise : l’intégration verticale qui crée du verrouillage.
Le schéma de dérive vers la plateforme
Voici comment cela fonctionne. Vous commencez par choisir un fournisseur de LLM pour la qualité de son modèle. C’est juste — c’est la décision d’achat fondamentale. Mais ensuite le fournisseur lance un constructeur de workflows. Il est gratuit, étroitement intégré et fonctionne bien avec leurs modèles. Alors vous y construisez quelques workflows.
Puis ils livrent une marketplace de plugins. Vos workflows dépendent maintenant de plugins qui n’existent que dans cet écosystème. Puis vient un système de récupération de connaissances qui stocke vos documents dans un format propriétaire. Puis des frameworks d’agents avec des systèmes de mémoire liés à leur infrastructure.
Six mois plus tard, votre logique d’orchestration, vos connaissances métier, vos définitions de workflows et vos politiques de gouvernance sont toutes intégrées dans une plateforme que vous avez choisie pour la qualité du modèle — pas pour la capacité de la plateforme.
Vous avez choisi un modèle. Vous avez obtenu un fournisseur.
Pourquoi c’est important pour les équipes d’entreprise
Le risque n’est pas théorique. Les équipes d’entreprise font face à trois problèmes concrets quand leur plateforme IA est leur fournisseur de LLM :
1. Vous ne pouvez pas changer de modèle sans changer de plateforme. Quand un meilleur modèle sort d’un fournisseur concurrent — et cela arrive trimestriellement maintenant — vous faites face à un choix : ignorer l’amélioration ou reconstruire toute votre pile de workflows. La plupart des équipes choisissent d’ignorer. Leur qualité IA stagne tandis que leurs concurrents expérimentent librement.
2. Votre gouvernance est spécifique au fournisseur. Les portes d’approbation, pistes d’audit, détection de PII et contrôles de conformité que vous avez configurés sont liés à la plateforme de ce fournisseur. Passez à un autre modèle et vous perdez tout. Vous n’êtes pas seulement verrouillé dans un modèle — vous êtes verrouillé dans un cadre de gouvernance que vous ne pouvez pas transférer.
3. Vos actifs de connaissances sont piégés. Les documents que vous avez téléversés, les pipelines RAG que vous avez construits, les configurations de récupération que vous avez optimisées — ils vivent dans un système propriétaire. Migrer signifie tout ré-indexer, re-tester la qualité de récupération et espérer que la stratégie de découpage de la nouvelle plateforme ne dégrade pas vos résultats.
Le principe de séparation
La solution est architecturale, pas contractuelle. Votre couche d’orchestration et votre couche de modèle devraient être indépendantes.
Cela signifie que vos définitions de workflows, politiques de gouvernance, sources de connaissances et logique métier devraient vivre dans une couche qui traite les LLM comme des moteurs d’exécution interchangeables. Quand vous voulez passer de Claude à GPT-4 à Gemini, vous changez un paramètre de modèle — pas une plateforme.
JieGou a été construit autour de ce principe dès le premier jour. Voici à quoi cela ressemble en pratique :
Les recettes sont agnostiques au modèle. Une recette JieGou définit le prompt, les règles de gouvernance, les sources de connaissances et le format de sortie. Le modèle est un paramètre de configuration, pas une dépendance structurelle. La même recette qui tourne sur Claude aujourd’hui tourne sur GPT-4 demain et Gemini la semaine prochaine. Pas de réécriture. Pas de re-test de la logique métier.
La gouvernance est portable. La pile de gouvernance à 10 couches de JieGou — RBAC, portes d’approbation, détection de PII, seuils de confiance, pistes d’audit, contrôles de voix de marque, politiques de conformité, périmètre départemental, escalade de confiance et suivi de qualité — appartient à la plateforme, pas au modèle. Changez de modèle et chaque règle de gouvernance reste exactement là où vous l’avez placée.
Les sources de connaissances sont indépendantes du fournisseur. Vos documents, votre pipeline RAG, votre configuration de récupération — ils sont stockés dans la couche de connaissances de JieGou. Ils se connectent à n’importe quel modèle que vous choisissez. Vous ne ré-indexez pas quand vous changez de fournisseur.
BYOM signifie une vraie flexibilité. JieGou supporte 9 fournisseurs — Anthropic, OpenAI, Google et six options open source/auto-hébergées via des endpoints compatibles OpenAI. Chaque étape d’un workflow peut utiliser un modèle différent. Vous pouvez utiliser Claude pour le raisonnement, GPT-5-nano pour la classification et Llama 4 pour l’extraction à haut volume — dans le même workflow.
Ce que la portabilité permet
Quand votre couche d’orchestration est indépendante, vous pouvez faire des choses que les équipes verrouillées ne peuvent pas :
- Exécuter des bakeoffs pour comparer la qualité des modèles sur vos charges de travail réelles, pas des benchmarks synthétiques
- Optimiser les coûts en routant les tâches bon marché vers des modèles moins chers sans reconstruire les workflows
- Adopter de nouveaux modèles dès le premier jour — ajoutez une clé API, assignez-la à une recette et exécutez-la
- Négocier en position de force parce que votre fournisseur sait que vous pouvez partir sans perdre votre travail
- Respecter les exigences de conformité qui imposent des stratégies multi-fournisseur pour les infrastructures critiques
Le test
Posez-vous trois questions sur votre plateforme IA actuelle :
- Si votre fournisseur de LLM doublait ses prix demain, pourriez-vous passer à un concurrent cette semaine sans reconstruire vos workflows ?
- Si un concurrent sortait un modèle 20 % meilleur sur votre cas d’usage, pourriez-vous le tester en une heure ?
- Si un régulateur exigeait que vous démontriez l’indépendance vis-à-vis du fournisseur de modèles, pourriez-vous lui montrer votre architecture ?
Si vous avez répondu « non » à l’une de ces questions, votre plateforme est votre fournisseur — et le verrouillage a déjà commencé.
L’essentiel
La qualité des modèles converge. L’écart entre les trois ou quatre principaux fournisseurs se réduit à chaque release. Le facteur de différenciation pour l’IA d’entreprise n’est plus quel modèle vous utilisez — c’est avec quelle flexibilité vous pouvez les utiliser tous.
La meilleure plateforme IA fonctionne avec chaque modèle IA — pas celle qui vous verrouille dans un seul fournisseur.
JieGou sépare l’orchestration des modèles pour que vos recettes, votre gouvernance et vos connaissances restent portables, quel que soit le LLM qui mène le benchmark le trimestre prochain.