Skip to content
Ingeniería

Describa lo que quiere, obtenga una receta funcional: creación en lenguaje natural con coincidencia de plantillas

El sistema de creación NL de JieGou verifica 132 plantillas probadas antes de generar algo nuevo. Coincidencia en dos etapas, detección de intención vaga, salida LLM estructurada y un asistente de 4 pasos que produce recetas y flujos de trabajo listos para producción desde español sencillo.

JT
JieGou Team
· · 10 min de lectura

Construir automatizaciones de IA no debería requerir entender esquemas JSON, ingeniería de prompts o DAGs de flujos de trabajo. Los usuarios saben lo que quieren automatizar — deberían poder describirlo en lenguaje sencillo.

El sistema de creación en lenguaje natural de JieGou le permite escribir una descripción como “resumir tickets de soporte al cliente y marcar los urgentes” y obtener una receta o flujo de trabajo funcional. Pero la parte interesante no es la generación — es lo que sucede antes de la generación.

Sugerir primero, generar solo si nada coincide

Esta es la decisión de diseño clave. Cuando escribe una descripción y hace clic en Crear, el sistema no llama inmediatamente a un LLM para generar una nueva receta desde cero. En su lugar, primero verifica la biblioteca de 132 plantillas probadas de JieGou.

Si se encuentra una coincidencia fuerte (puntuación > 0.6), aparece un panel de sugerencia mostrando la plantilla coincidente con una insignia de porcentaje de coincidencia. Puede adoptar la plantilla probada instantáneamente o descartarla y proceder a la generación.

La filosofía: las 132 plantillas probadas de JieGou son una ventaja competitiva. Cada plantilla ha sido generada, probada con entradas sintéticas, evaluada por LLM-as-judge y revisada manualmente. La creación en lenguaje natural debería amplificar esta ventaja, no evitarla.

Esto significa que la mayoría de los usuarios obtienen una plantilla probada en combate en segundos en lugar de esperar por una receta recién generada que no ha sido validada.

Motor de sugerencia de plantillas

El sistema de coincidencia usa dos etapas. Sin embeddings vectoriales — para 132 elementos, la puntuación rápida por palabras clave más el re-ranking condicional por LLM es suficiente.

Etapa 1: Puntuación por palabras clave

El motor calcula una superposición tipo Jaccard entre los tokens de intención del usuario y los tokens de metadatos de la plantilla:

  • La tokenización elimina caracteres no alfanuméricos, convierte todo a minúsculas y elimina 48 palabras comunes de parada
  • Cobertura de intención (peso 70%) — qué fracción de los tokens de intención del usuario aparecen en los metadatos de la plantilla
  • Cobertura de plantilla (peso 30%) — qué fracción de los tokens de metadatos de la plantilla aparecen en la intención del usuario
  • Las coincidencias parciales de tokens (superposición de subcadenas) puntúan 0.5 en lugar de 1.0

Impulso departamental: las plantillas del departamento actualmente activo del usuario obtienen un impulso del 20% en la puntuación, con tope en 1.0. Si está trabajando en el departamento de Ventas y describe algo relacionado con ventas, las plantillas de Ventas se posicionan más alto.

Etapa 2: Re-ranking por LLM

El re-ranking por LLM es condicional — solo se activa cuando se cumplen dos condiciones:

  1. La puntuación más alta por palabras clave está por debajo de 0.8 (las coincidencias de alta confianza por palabras clave no necesitan verificación LLM)
  2. Al menos 2 plantillas candidatas puntuaron por encima del umbral mínimo

Cuando se activa, los 10 mejores candidatos se envían a Claude Haiku para re-ranking rápido con salida estructurada. El LLM ve la intención del usuario y los metadatos de cada candidato, luego devuelve una lista re-rankeada con puntuaciones.

Si la llamada al LLM falla por cualquier razón, el sistema recurre al ranking solo por palabras clave. Degradación grácil — el motor de sugerencias nunca se bloquea por una falla del LLM.

Umbral de coincidencia fuerte: cualquier plantilla que puntúe por encima de 0.6 después de ambas etapas activa el panel de sugerencia.

Asistente de creación de recetas

El asistente de recetas recorre 4 pasos, con la coincidencia de plantillas interceptando entre los pasos 1 y 2.

Paso 1: Intención

Un área de texto donde describe lo que la receta debe hacer. Seis chips de ejemplo de intención proporcionan puntos de partida (“Resumir un documento”, “Extraer datos clave de correos electrónicos”, etc.). Si ha creado recetas antes, el asistente muestra sugerencias de patrones del historial de la cuenta basadas en sus creaciones anteriores.

Después de enviar su intención, el motor de sugerencia de plantillas se ejecuta. Si se encuentra una coincidencia fuerte, aparece un panel de sugerencia verde con el nombre de la plantilla y la insignia de porcentaje de coincidencia. Puede adoptarla (saltando directamente a una receta pre-construida y probada) o descartarla y continuar a la generación.

Paso 2: Borrador

Si ninguna plantilla coincidió — o descartó la sugerencia — el sistema envía su intención a un LLM. La respuesta del borrador incluye:

  • Un nombre y descripción de la receta
  • Etiquetas sugeridas
  • Una explicación en lenguaje sencillo de lo que hará la receta
  • 2-3 preguntas clarificadoras para refinar la receta antes de la generación completa

La detección de intención vaga está incorporada en este paso. Si el LLM determina que la intención es demasiado vaga para producir una receta útil (ej., “hacer algo con datos”), la API devuelve HTTP 422 con un mensaje amigable pidiendo que sea más específico. Esto previene la generación de baja calidad en el origen.

Paso 3: Propuesta

Usted responde las preguntas clarificadoras del Paso 2. Las respuestas usan opciones estilo chip — opciones predefinidas que puede tocar en lugar de escribir. Esto mantiene la interacción rápida y restringe la salida a rutas bien definidas.

Paso 4: Generar

El sistema produce la especificación completa de la receta:

  • inputSchema — campos tipados que la receta espera
  • outputSchema — salida estructurada que la receta produce
  • promptTemplate — el prompt completo con marcadores de posición de variables
  • sampleInput — datos de prueba realistas que puede ejecutar inmediatamente

Una previsualización en vivo renderiza la receta antes de guardarla. Puede revisar el prompt, probarlo con la entrada de ejemplo e iterar antes de confirmar.

Asistente de creación de flujos de trabajo

Los flujos de trabajo siguen el mismo patrón de 4 pasos (intención, borrador, propuesta, generar) pero producen una salida más rica.

Diferencias del borrador

Un borrador de flujo de trabajo produce 2-10 pasos, cada uno asignado a uno de 8 tipos de paso:

Tipo de pasoPropósito
recipeEjecutar una plantilla de prompt reutilizable
llmLlamada LLM directa sin una receta guardada
evalEvaluar la calidad de salida con LLM-as-judge
routerEnrutar a diferentes ramas basándose en la entrada
aggregatorCombinar salidas de múltiples pasos
conditionRamificar la ejecución basándose en una expresión booleana
loopIterar sobre una colección
approvalPausar para revisión humana antes de continuar

El LLM determina el modo de ejecución — secuencial o DAG (grafo acíclico dirigido) — y proporciona una razón para la elección. Los pipelines simples obtienen modo secuencial. Los flujos de trabajo con ramas independientes que pueden ejecutarse en paralelo obtienen modo DAG.

Sugerencias de patrones multi-agente

El LLM de redacción tiene acceso a 4 sugerencias de patrones multi-agente que puede aplicar cuando sea apropiado:

  • Crítico-refinador — un agente genera, otro critica, el primero revisa
  • Especialista-enrutador — un agente enrutador despacha a agentes especialistas de dominio específico
  • Debate-consenso — múltiples agentes argumentan posiciones, un sintetizador extrae consenso
  • Planificar-ejecutar-verificar — un planificador descompone la tarea, un ejecutor ejecuta cada parte, un verificador comprueba los resultados

Estos patrones producen flujos de trabajo con 4-8 pasos que siguen arquitecturas multi-agente establecidas.

Botón “Sugerir desde recetas”

Si ya tiene recetas en su cuenta, el botón Sugerir desde recetas genera un flujo de trabajo que encadena sus recetas existentes. El sistema examina su biblioteca de recetas y propone un flujo de trabajo que las conecta en una secuencia lógica — sin necesidad de describir el flujo de trabajo desde cero.

Guardado en dos fases

El guardado de flujos de trabajo usa un proceso de dos fases:

  1. Fase 1 — Crear cualquier receta nueva que el flujo de trabajo referencie. Cada receta se guarda en Firestore y se le asigna un ID de documento real.
  2. Fase 2 — Crear el flujo de trabajo, mapeando referencias de recetas placeholder a los IDs reales de la Fase 1.

Esto asegura integridad referencial. El flujo de trabajo nunca apunta a recetas que no existen.

Inyección de contexto departamental

Tanto la redacción de recetas como de flujos de trabajo resuelven el contexto departamental como un canal lateral no bloqueante. Cuando está trabajando dentro de un departamento, el sistema obtiene:

  • El nombre y descripción del pack departamental
  • Hasta 15 slugs de recetas disponibles del pack de inicio del departamento
  • Integraciones sugeridas relevantes para el departamento

Este contexto se inyecta en el prompt del LLM, instruyéndolo a preferir reutilizar recetas probadas del pack como pasos del flujo de trabajo en lugar de generar nuevas desde cero. Un borrador de flujo de trabajo de Ventas referenciará las recetas existentes “Enriquecimiento de leads” y “Análisis de competencia” del pack de Ventas en lugar de crear duplicados.

Si la resolución de departamento falla (error de red, datos faltantes), la generación procede sin él. Sin dependencia dura de la disponibilidad del contexto.

Decisiones técnicas clave

Sin embeddings vectoriales para coincidencia de plantillas. Con 132 plantillas, la puntuación por palabras clave más el re-ranking condicional por LLM es rápido, preciso y no requiere infraestructura. Sin modelo de embedding que alojar, sin base de datos vectorial que mantener, sin deriva de embeddings de qué preocuparse. Si la biblioteca de plantillas crece a más de 1,000, esta decisión se revisita.

Salida LLM estructurada vía esquemas Zod. Cada llamada LLM en el pipeline de creación usa un esquema Zod para validar la respuesta. Respuestas de borrador, preguntas clarificadoras, especificaciones de recetas, definiciones de pasos de flujo de trabajo — todo tipado y validado. La salida LLM malformada se detecta inmediatamente en lugar de producir bugs sutiles aguas abajo.

Detección de intención vaga. En lugar de generar una receta mediocre a partir de una descripción vaga, el sistema devuelve un 422 y pide clarificación. Esta es una puerta de calidad deliberada. Una receta que hace “algo con datos” no ayuda a nadie.

Re-ranking condicional por LLM. Cuando el motor de palabras clave produce una coincidencia de alta confianza (puntuación >= 0.8), el paso de re-ranking por LLM se omite por completo. Esto mantiene baja la latencia de sugerencia para coincidencias obvias mientras reserva la inteligencia del LLM para casos ambiguos.

Degradación grácil en cada capa. ¿El re-ranking por LLM falla? Se recurre al ranking por palabras clave. ¿El contexto departamental falla? Se genera sin él. ¿La coincidencia de plantillas no encuentra nada? Se procede a la generación. Ningún punto único de falla bloquea el flujo de creación.

Disponibilidad

La creación de recetas y flujos de trabajo en lenguaje natural está disponible en todos los planes — Free, Pro y Enterprise. Explore todas las funcionalidades o comience su prueba gratuita.

natural-language recipe-creation workflow-creation template-matching llm
Compartir este artículo

¿Le gustó este artículo?

Reciba consejos sobre flujos de trabajo, actualizaciones de producto y guías de automatización en su bandeja de entrada.

No spam. Unsubscribe anytime.