Construire des automatisations IA ne devrait pas nécessiter de comprendre les schémas JSON, l’ingénierie de prompts ou les DAG de workflow. Les utilisateurs savent ce qu’ils veulent automatiser — ils devraient pouvoir le décrire en langage simple.
Le système de création en langage naturel de JieGou vous permet de taper une description comme « résumer les tickets de support client et signaler les urgents » et d’obtenir une recette ou un workflow fonctionnel. Mais la partie intéressante n’est pas la génération — c’est ce qui se passe avant la génération.
Suggérer d’abord, générer uniquement si rien ne correspond
C’est la décision de conception clé. Quand vous tapez une description et cliquez sur Créer, le système n’appelle pas immédiatement un LLM pour générer une nouvelle recette à partir de zéro. Au lieu de cela, il vérifie d’abord la bibliothèque de 132 templates testés de JieGou.
Si une correspondance forte est trouvée (score > 0.6), un panneau de suggestion apparaît montrant le template correspondant avec un badge de pourcentage de correspondance. Vous pouvez adopter le template testé instantanément ou le rejeter et procéder à la génération.
La philosophie : les 132 templates testés de JieGou sont un avantage compétitif. Chaque template a été généré, testé avec des entrées synthétiques, évalué par LLM-as-judge et revu manuellement. La création en langage naturel devrait amplifier cet avantage, pas le contourner.
Cela signifie que la plupart des utilisateurs obtiennent un template éprouvé en secondes plutôt que d’attendre une recette fraîchement générée qui n’a pas été validée.
Moteur de suggestion de templates
Le système de correspondance utilise deux étapes. Pas d’embeddings vectoriels — pour 132 éléments, un scoring rapide par mots-clés plus un reclassement LLM conditionnel suffit.
Étape 1 : Scoring par mots-clés
Le moteur calcule un chevauchement de type Jaccard entre les tokens d’intention de l’utilisateur et les tokens de métadonnées du template :
- La tokenisation supprime les caractères non-alphanumériques, met tout en minuscules et retire 48 mots vides courants
- Couverture d’intention (70 % du poids) — quelle fraction des tokens d’intention de l’utilisateur apparaît dans les métadonnées du template
- Couverture du template (30 % du poids) — quelle fraction des tokens de métadonnées du template apparaît dans l’intention de l’utilisateur
- Les correspondances partielles de tokens (chevauchement de sous-chaînes) obtiennent un score de 0.5 au lieu de 1.0
Boost départemental : les templates du département actuellement actif de l’utilisateur obtiennent un boost de score de 20 %, plafonné à 1.0. Si vous travaillez dans le département Ventes et décrivez quelque chose lié aux ventes, les templates Ventes se classent plus haut.
Étape 2 : Reclassement LLM
Le reclassement LLM est conditionnel — il ne se déclenche que lorsque deux conditions sont remplies :
- Le meilleur score par mots-clés est inférieur à 0.8 (les correspondances par mots-clés à haute confiance n’ont pas besoin de vérification LLM)
- Au moins 2 templates candidats ont obtenu un score au-dessus du seuil minimum
Quand il se déclenche, les 10 meilleurs candidats sont envoyés à Claude Haiku pour un reclassement rapide avec sortie structurée. Le LLM voit l’intention de l’utilisateur et les métadonnées de chaque candidat, puis renvoie une liste reclassée avec des scores.
Si l’appel LLM échoue pour quelque raison que ce soit, le système se replie sur le classement par mots-clés uniquement. Dégradation gracieuse — le moteur de suggestion ne bloque jamais sur un échec LLM.
Seuil de correspondance forte : tout template obtenant un score supérieur à 0.6 après les deux étapes déclenche le panneau de suggestion.
Assistant de création de recettes
L’assistant de recettes parcourt 4 étapes, avec la correspondance de templates interceptant entre les étapes 1 et 2.
Étape 1 : Intention
Une zone de texte où vous décrivez ce que la recette devrait faire. Six puces d’exemple d’intention fournissent des points de départ (« Résumer un document », « Extraire des données clés des emails », etc.). Si vous avez déjà créé des recettes, l’assistant affiche des indices de patterns de l’historique du compte basés sur vos créations précédentes.
Après avoir soumis votre intention, le moteur de suggestion de templates s’exécute. Si une correspondance forte est trouvée, un panneau de suggestion vert apparaît avec le nom du template et un badge de pourcentage de correspondance. Vous pouvez l’adopter (passant directement à une recette pré-construite et testée) ou le rejeter et continuer vers la génération.
Étape 2 : Brouillon
Si aucun template ne correspondait — ou si vous avez rejeté la suggestion — le système envoie votre intention à un LLM. La réponse brouillon inclut :
- Un nom et une description de recette
- Des tags suggérés
- Une explication en langage simple de ce que fera la recette
- 2-3 questions de clarification pour affiner la recette avant la génération complète
La détection d’intention vague est intégrée à cette étape. Si le LLM détermine que l’intention est trop vague pour produire une recette utile (par ex., « faire quelque chose avec des données »), l’API renvoie HTTP 422 avec un message amical demandant d’être plus spécifique. Cela empêche la génération de faible qualité à la source.
Étape 3 : Proposition
Vous répondez aux questions de clarification de l’Étape 2. Les réponses utilisent des options style puces — des choix prédéfinis que vous pouvez taper plutôt que de rédiger. Cela maintient l’interaction rapide et contraint la sortie vers des chemins bien définis.
Étape 4 : Générer
Le système produit la spécification complète de la recette :
- inputSchema — champs typés attendus par la recette
- outputSchema — sortie structurée produite par la recette
- promptTemplate — le prompt complet avec des variables substituables
- sampleInput — données de test réalistes que vous pouvez exécuter immédiatement
Un aperçu en direct affiche la recette avant que vous ne la sauvegardiez. Vous pouvez revoir le prompt, le tester avec l’entrée d’exemple et itérer avant de valider.
Assistant de création de workflows
Les workflows suivent le même pattern en 4 étapes (intention, brouillon, proposition, générer) mais produisent une sortie plus riche.
Différences du brouillon
Un brouillon de workflow produit 2 à 10 étapes, chacune assignée à l’un des 8 types d’étapes :
| Type d’étape | Objectif |
|---|---|
recipe | Exécuter un template de prompt réutilisable |
llm | Appel LLM direct sans recette sauvegardée |
eval | Évaluer la qualité de la sortie avec LLM-as-judge |
router | Router vers différentes branches selon l’entrée |
aggregator | Combiner les sorties de plusieurs étapes |
condition | Brancher l’exécution selon une expression booléenne |
loop | Itérer sur une collection |
approval | Mettre en pause pour revue humaine avant de continuer |
Le LLM détermine le mode d’exécution — séquentiel ou DAG (graphe acyclique dirigé) — et fournit une raison pour le choix. Les pipelines simples obtiennent le mode séquentiel. Les workflows avec des branches indépendantes qui peuvent s’exécuter en parallèle obtiennent le mode DAG.
Indices de patterns multi-agents
Le LLM de rédaction a accès à 4 indices de patterns multi-agents qu’il peut appliquer quand c’est approprié :
- Critique-affineur — un agent génère, un autre critique, le premier révise
- Spécialiste-routeur — un agent routeur dispatche vers des agents spécialistes par domaine
- Débat-consensus — plusieurs agents argumentent des positions, un synthétiseur extrait le consensus
- Planifier-exécuter-vérifier — un planificateur décompose la tâche, un exécuteur lance chaque partie, un vérificateur contrôle les résultats
Ces patterns produisent des workflows de 4 à 8 étapes qui suivent des architectures multi-agents établies.
Bouton « Suggérer à partir des recettes »
Si vous avez déjà des recettes dans votre compte, le bouton Suggérer à partir des recettes génère un workflow qui chaîne vos recettes existantes ensemble. Le système examine votre bibliothèque de recettes et propose un workflow qui les connecte dans une séquence logique — pas besoin de décrire le workflow à partir de zéro.
Sauvegarde en deux phases
La sauvegarde de workflow utilise un processus en deux phases :
- Phase 1 — Créer les nouvelles recettes que le workflow référence. Chaque recette est sauvegardée dans Firestore et reçoit un véritable ID de document.
- Phase 2 — Créer le workflow, mappant les références de recettes temporaires vers les vrais ID de la Phase 1.
Cela assure l’intégrité référentielle. Le workflow ne pointe jamais vers des recettes qui n’existent pas.
Injection de contexte départemental
La rédaction de recettes et de workflows résout le contexte départemental comme un canal latéral non-bloquant. Quand vous travaillez dans un département, le système récupère :
- Le nom et la description du pack départemental
- Jusqu’à 15 slugs de recettes disponibles du pack de démarrage du département
- Les intégrations suggérées pertinentes pour le département
Ce contexte est injecté dans le prompt LLM, lui indiquant de préférer la réutilisation des recettes testées du pack comme étapes de workflow plutôt que d’en générer de nouvelles à partir de zéro. Un brouillon de workflow Ventes référencera les recettes existantes « Enrichissement de prospects » et « Analyse concurrentielle » du pack Ventes au lieu de créer des doublons.
Si la résolution de département échoue (erreur réseau, données manquantes), la génération continue sans. Aucune dépendance dure sur la disponibilité du contexte.
Décisions techniques clés
Pas d’embeddings vectoriels pour la correspondance de templates. Avec 132 templates, le scoring par mots-clés plus le reclassement LLM conditionnel est rapide, précis et ne nécessite aucune infrastructure. Pas de modèle d’embedding à héberger, pas de base de données vectorielle à maintenir, pas de dérive d’embedding à craindre. Si la bibliothèque de templates atteint 1 000+, cette décision sera reconsidérée.
Sortie LLM structurée via des schémas Zod. Chaque appel LLM dans le pipeline de création utilise un schéma Zod pour valider la réponse. Réponses de brouillon, questions de clarification, spécifications de recettes, définitions d’étapes de workflow — tout est typé et validé. Les sorties LLM malformées sont détectées immédiatement plutôt que de produire des bugs subtils en aval.
Détection d’intention vague. Plutôt que de générer une recette médiocre à partir d’une description vague, le système renvoie un 422 et demande une clarification. C’est une porte de qualité délibérée. Une recette qui fait « quelque chose avec des données » n’aide personne.
Reclassement LLM conditionnel. Quand le moteur par mots-clés produit une correspondance à haute confiance (score >= 0.8), l’étape de reclassement LLM est entièrement sautée. Cela maintient une faible latence de suggestion pour les correspondances évidentes tout en réservant l’intelligence LLM pour les cas ambigus.
Dégradation gracieuse à chaque couche. Le reclassement LLM échoue ? Repli sur le classement par mots-clés. Le contexte départemental échoue ? Génération sans. La correspondance de templates ne trouve rien ? Passage à la génération. Aucun point de défaillance unique ne bloque le flux de création.
Disponibilité
La création de recettes et de workflows en langage naturel est disponible sur tous les plans — Free, Pro et Enterprise. Explorez toutes les fonctionnalités ou commencez votre essai gratuit.