Construir automatizaciones de IA no debería requerir entender esquemas JSON, ingeniería de prompts o DAGs de flujos de trabajo. Los usuarios saben lo que quieren automatizar — deberían poder describirlo en lenguaje sencillo.
El sistema de creación en lenguaje natural de JieGou le permite escribir una descripción como “resumir tickets de soporte al cliente y marcar los urgentes” y obtener una receta o flujo de trabajo funcional. Pero la parte interesante no es la generación — es lo que sucede antes de la generación.
Sugerir primero, generar solo si nada coincide
Esta es la decisión de diseño clave. Cuando escribe una descripción y hace clic en Crear, el sistema no llama inmediatamente a un LLM para generar una nueva receta desde cero. En su lugar, primero verifica la biblioteca de 132 plantillas probadas de JieGou.
Si se encuentra una coincidencia fuerte (puntuación > 0.6), aparece un panel de sugerencia mostrando la plantilla coincidente con una insignia de porcentaje de coincidencia. Puede adoptar la plantilla probada instantáneamente o descartarla y proceder a la generación.
La filosofía: las 132 plantillas probadas de JieGou son una ventaja competitiva. Cada plantilla ha sido generada, probada con entradas sintéticas, evaluada por LLM-as-judge y revisada manualmente. La creación en lenguaje natural debería amplificar esta ventaja, no evitarla.
Esto significa que la mayoría de los usuarios obtienen una plantilla probada en combate en segundos en lugar de esperar por una receta recién generada que no ha sido validada.
Motor de sugerencia de plantillas
El sistema de coincidencia usa dos etapas. Sin embeddings vectoriales — para 132 elementos, la puntuación rápida por palabras clave más el re-ranking condicional por LLM es suficiente.
Etapa 1: Puntuación por palabras clave
El motor calcula una superposición tipo Jaccard entre los tokens de intención del usuario y los tokens de metadatos de la plantilla:
- La tokenización elimina caracteres no alfanuméricos, convierte todo a minúsculas y elimina 48 palabras comunes de parada
- Cobertura de intención (peso 70%) — qué fracción de los tokens de intención del usuario aparecen en los metadatos de la plantilla
- Cobertura de plantilla (peso 30%) — qué fracción de los tokens de metadatos de la plantilla aparecen en la intención del usuario
- Las coincidencias parciales de tokens (superposición de subcadenas) puntúan 0.5 en lugar de 1.0
Impulso departamental: las plantillas del departamento actualmente activo del usuario obtienen un impulso del 20% en la puntuación, con tope en 1.0. Si está trabajando en el departamento de Ventas y describe algo relacionado con ventas, las plantillas de Ventas se posicionan más alto.
Etapa 2: Re-ranking por LLM
El re-ranking por LLM es condicional — solo se activa cuando se cumplen dos condiciones:
- La puntuación más alta por palabras clave está por debajo de 0.8 (las coincidencias de alta confianza por palabras clave no necesitan verificación LLM)
- Al menos 2 plantillas candidatas puntuaron por encima del umbral mínimo
Cuando se activa, los 10 mejores candidatos se envían a Claude Haiku para re-ranking rápido con salida estructurada. El LLM ve la intención del usuario y los metadatos de cada candidato, luego devuelve una lista re-rankeada con puntuaciones.
Si la llamada al LLM falla por cualquier razón, el sistema recurre al ranking solo por palabras clave. Degradación grácil — el motor de sugerencias nunca se bloquea por una falla del LLM.
Umbral de coincidencia fuerte: cualquier plantilla que puntúe por encima de 0.6 después de ambas etapas activa el panel de sugerencia.
Asistente de creación de recetas
El asistente de recetas recorre 4 pasos, con la coincidencia de plantillas interceptando entre los pasos 1 y 2.
Paso 1: Intención
Un área de texto donde describe lo que la receta debe hacer. Seis chips de ejemplo de intención proporcionan puntos de partida (“Resumir un documento”, “Extraer datos clave de correos electrónicos”, etc.). Si ha creado recetas antes, el asistente muestra sugerencias de patrones del historial de la cuenta basadas en sus creaciones anteriores.
Después de enviar su intención, el motor de sugerencia de plantillas se ejecuta. Si se encuentra una coincidencia fuerte, aparece un panel de sugerencia verde con el nombre de la plantilla y la insignia de porcentaje de coincidencia. Puede adoptarla (saltando directamente a una receta pre-construida y probada) o descartarla y continuar a la generación.
Paso 2: Borrador
Si ninguna plantilla coincidió — o descartó la sugerencia — el sistema envía su intención a un LLM. La respuesta del borrador incluye:
- Un nombre y descripción de la receta
- Etiquetas sugeridas
- Una explicación en lenguaje sencillo de lo que hará la receta
- 2-3 preguntas clarificadoras para refinar la receta antes de la generación completa
La detección de intención vaga está incorporada en este paso. Si el LLM determina que la intención es demasiado vaga para producir una receta útil (ej., “hacer algo con datos”), la API devuelve HTTP 422 con un mensaje amigable pidiendo que sea más específico. Esto previene la generación de baja calidad en el origen.
Paso 3: Propuesta
Usted responde las preguntas clarificadoras del Paso 2. Las respuestas usan opciones estilo chip — opciones predefinidas que puede tocar en lugar de escribir. Esto mantiene la interacción rápida y restringe la salida a rutas bien definidas.
Paso 4: Generar
El sistema produce la especificación completa de la receta:
- inputSchema — campos tipados que la receta espera
- outputSchema — salida estructurada que la receta produce
- promptTemplate — el prompt completo con marcadores de posición de variables
- sampleInput — datos de prueba realistas que puede ejecutar inmediatamente
Una previsualización en vivo renderiza la receta antes de guardarla. Puede revisar el prompt, probarlo con la entrada de ejemplo e iterar antes de confirmar.
Asistente de creación de flujos de trabajo
Los flujos de trabajo siguen el mismo patrón de 4 pasos (intención, borrador, propuesta, generar) pero producen una salida más rica.
Diferencias del borrador
Un borrador de flujo de trabajo produce 2-10 pasos, cada uno asignado a uno de 8 tipos de paso:
| Tipo de paso | Propósito |
|---|---|
recipe | Ejecutar una plantilla de prompt reutilizable |
llm | Llamada LLM directa sin una receta guardada |
eval | Evaluar la calidad de salida con LLM-as-judge |
router | Enrutar a diferentes ramas basándose en la entrada |
aggregator | Combinar salidas de múltiples pasos |
condition | Ramificar la ejecución basándose en una expresión booleana |
loop | Iterar sobre una colección |
approval | Pausar para revisión humana antes de continuar |
El LLM determina el modo de ejecución — secuencial o DAG (grafo acíclico dirigido) — y proporciona una razón para la elección. Los pipelines simples obtienen modo secuencial. Los flujos de trabajo con ramas independientes que pueden ejecutarse en paralelo obtienen modo DAG.
Sugerencias de patrones multi-agente
El LLM de redacción tiene acceso a 4 sugerencias de patrones multi-agente que puede aplicar cuando sea apropiado:
- Crítico-refinador — un agente genera, otro critica, el primero revisa
- Especialista-enrutador — un agente enrutador despacha a agentes especialistas de dominio específico
- Debate-consenso — múltiples agentes argumentan posiciones, un sintetizador extrae consenso
- Planificar-ejecutar-verificar — un planificador descompone la tarea, un ejecutor ejecuta cada parte, un verificador comprueba los resultados
Estos patrones producen flujos de trabajo con 4-8 pasos que siguen arquitecturas multi-agente establecidas.
Botón “Sugerir desde recetas”
Si ya tiene recetas en su cuenta, el botón Sugerir desde recetas genera un flujo de trabajo que encadena sus recetas existentes. El sistema examina su biblioteca de recetas y propone un flujo de trabajo que las conecta en una secuencia lógica — sin necesidad de describir el flujo de trabajo desde cero.
Guardado en dos fases
El guardado de flujos de trabajo usa un proceso de dos fases:
- Fase 1 — Crear cualquier receta nueva que el flujo de trabajo referencie. Cada receta se guarda en Firestore y se le asigna un ID de documento real.
- Fase 2 — Crear el flujo de trabajo, mapeando referencias de recetas placeholder a los IDs reales de la Fase 1.
Esto asegura integridad referencial. El flujo de trabajo nunca apunta a recetas que no existen.
Inyección de contexto departamental
Tanto la redacción de recetas como de flujos de trabajo resuelven el contexto departamental como un canal lateral no bloqueante. Cuando está trabajando dentro de un departamento, el sistema obtiene:
- El nombre y descripción del pack departamental
- Hasta 15 slugs de recetas disponibles del pack de inicio del departamento
- Integraciones sugeridas relevantes para el departamento
Este contexto se inyecta en el prompt del LLM, instruyéndolo a preferir reutilizar recetas probadas del pack como pasos del flujo de trabajo en lugar de generar nuevas desde cero. Un borrador de flujo de trabajo de Ventas referenciará las recetas existentes “Enriquecimiento de leads” y “Análisis de competencia” del pack de Ventas en lugar de crear duplicados.
Si la resolución de departamento falla (error de red, datos faltantes), la generación procede sin él. Sin dependencia dura de la disponibilidad del contexto.
Decisiones técnicas clave
Sin embeddings vectoriales para coincidencia de plantillas. Con 132 plantillas, la puntuación por palabras clave más el re-ranking condicional por LLM es rápido, preciso y no requiere infraestructura. Sin modelo de embedding que alojar, sin base de datos vectorial que mantener, sin deriva de embeddings de qué preocuparse. Si la biblioteca de plantillas crece a más de 1,000, esta decisión se revisita.
Salida LLM estructurada vía esquemas Zod. Cada llamada LLM en el pipeline de creación usa un esquema Zod para validar la respuesta. Respuestas de borrador, preguntas clarificadoras, especificaciones de recetas, definiciones de pasos de flujo de trabajo — todo tipado y validado. La salida LLM malformada se detecta inmediatamente en lugar de producir bugs sutiles aguas abajo.
Detección de intención vaga. En lugar de generar una receta mediocre a partir de una descripción vaga, el sistema devuelve un 422 y pide clarificación. Esta es una puerta de calidad deliberada. Una receta que hace “algo con datos” no ayuda a nadie.
Re-ranking condicional por LLM. Cuando el motor de palabras clave produce una coincidencia de alta confianza (puntuación >= 0.8), el paso de re-ranking por LLM se omite por completo. Esto mantiene baja la latencia de sugerencia para coincidencias obvias mientras reserva la inteligencia del LLM para casos ambiguos.
Degradación grácil en cada capa. ¿El re-ranking por LLM falla? Se recurre al ranking por palabras clave. ¿El contexto departamental falla? Se genera sin él. ¿La coincidencia de plantillas no encuentra nada? Se procede a la generación. Ningún punto único de falla bloquea el flujo de creación.
Disponibilidad
La creación de recetas y flujos de trabajo en lenguaje natural está disponible en todos los planes — Free, Pro y Enterprise. Explore todas las funcionalidades o comience su prueba gratuita.