Skip to content
Producto

Bases de conocimiento: dele a sus recetas de IA contexto real de la empresa

Cómo las bases de conocimiento de JieGou usan RAG para inyectar documentos específicos de la empresa en las ejecuciones de IA — estrategias de fragmentación, búsqueda por embeddings, relevancia impulsada por retroalimentación y captura automática de conocimiento.

JT
JieGou Team
· · 7 min de lectura

Las automatizaciones de IA sin contexto de la empresa producen salidas genéricas. Su receta puede escribir un excelente análisis competitivo — pero no conoce los nombres de sus productos. Puede redactar una respuesta a incidentes — pero no tiene idea de lo que dice su runbook. Puede resumir retroalimentación de clientes — pero no puede referenciar su taxonomía interna.

Las bases de conocimiento solucionan esto. Cargue sus documentos, y JieGou inyecta contenido relevante en cada ejecución de receta y flujo de trabajo automáticamente vía Retrieval-Augmented Generation (RAG).

Cómo se procesan los documentos

Cargue archivos en cualquiera de estos formatos: PDF, DOCX, CSV, XLSX, TXT, Markdown, HTML. O importe directamente desde una URL. El límite de tamaño por carga es de 10 MB, con un límite de contenido extraído de 1 MB después del parsing.

Una vez cargados, los documentos pasan por un pipeline de procesamiento de múltiples etapas:

1. Fragmentación. Los documentos se dividen usando una estrategia de dos niveles. Primero, el sistema escanea encabezados markdown # y ## y divide en esos límites — esto preserva la estructura lógica de documentos bien organizados. Para documentos no estructurados sin encabezados, recurre a división basada en párrafos. El tamaño objetivo del fragmento es aproximadamente 40,000 caracteres (~10K tokens), con un mínimo de 4,000 caracteres para evitar fragmentos que carecen de contexto útil.

2. Resumen. Cada fragmento obtiene un resumen generado por LLM de 200-400 palabras vía Claude. Estos resúmenes sirven dos propósitos: proporcionan contexto de respaldo cuando la búsqueda por embeddings no devuelve resultados, y dan al sistema de recuperación una representación comprimida del contenido de cada fragmento.

3. Embedding. Cada fragmento se convierte en embedding usando OpenAI text-embedding-3-small (1536 dimensiones). Los embeddings se almacenan en Firestore junto con el contenido del fragmento y los metadatos — no se requiere base de datos vectorial externa.

Cómo funciona la recuperación en tiempo de ejecución

Cuando una receta o paso de flujo de trabajo se ejecuta, el sistema construye una ventana de contexto desde sus bases de conocimiento:

  1. Un embedding de consulta se genera a partir del prompt del usuario o la entrada del paso
  2. Una búsqueda de similitud de coseno se ejecuta contra todos los embeddings de fragmentos en las bases de conocimiento relevantes
  3. Los fragmentos por debajo de un umbral mínimo de similitud de 0.3 se descartan
  4. La selección top-k elige las mejores coincidencias dentro de un presupuesto de tokens — por defecto son 5 fragmentos, máximo 8,000 tokens
  5. Los fragmentos seleccionados se inyectan en el prompt del LLM como bloques XML <reference_documents>
  6. Si ningún embedding cumple el umbral, el sistema recurre a contexto basado en resúmenes

Los embeddings se almacenan en Firestore y la similitud de coseno se calcula en el código de la aplicación. No hay dependencia de base de datos vectorial externa. Esto es práctico porque los presupuestos de tokens limitan el número de documentos por consulta — nunca está buscando millones de vectores, solo los documentos en las bases de conocimiento de su cuenta.

Resolución de contexto de tres niveles

No toda ejecución necesita el mismo contexto. JieGou resuelve documentos de bases de conocimiento desde tres fuentes, fusionadas y deduplicadas automáticamente:

NivelCómo funcionaCuándo usar
IDs de documento explícitosIDs de documentos específicos pasados en tiempo de ejecuciónCuando sabe exactamente qué documentos son relevantes
Adjuntados a receta/flujoBases de conocimiento vinculadas vía el campo knowledgeBaseIds en una receta o flujo de trabajoCuando ciertos documentos deben acompañar siempre una receta específica
Auto-contextoBases de conocimiento marcadas isAutoContext: true, con alcance por departamentoCuando los documentos deben estar disponibles para toda ejecución en un departamento

El auto-contexto es el nivel más potente. Marque su wiki de empresa, documentación de producto o directrices de marca como auto-contexto, y cada receta en ese departamento obtiene fragmentos relevantes sin ninguna configuración manual.

Relevancia impulsada por retroalimentación

Las bases de conocimiento se vuelven más inteligentes con el tiempo. Cuando los usuarios dan retroalimentación positiva o negativa sobre la calidad de una ejecución, el sistema ajusta las puntuaciones de relevancia de los fragmentos para futuras recuperaciones.

La puntuación usa suavizado de Laplace: score = (positivos + 1) / (positivos + negativos + 2). Esto inicia cada fragmento en un neutral 0.5 y lo ajusta basándose en evidencia, evitando puntuaciones extremas de muestras pequeñas.

El factor de impulso resultante va de 0.5x a 1.5x, almacenado en Redis con un TTL de 7 días. Los fragmentos que aparecen consistentemente en ejecuciones de alta calidad reciben impulso. Los fragmentos que aparecen en ejecuciones de baja calidad se demoran. Con el tiempo, el contenido más útil aparece con más frecuencia sin ninguna curación manual.

Captura de conocimiento: aprender de buenas salidas

Aquí es donde las bases de conocimiento se convierten en un volante de inercia. Cuando una ejecución de receta recibe retroalimentación positiva o puntúa bien en el Quality Guard de JieGou, el sistema captura automáticamente conocimiento estructurado de esa salida.

Un LLM extrae:

  • Título — un nombre descriptivo para el conocimiento capturado
  • Hechos clave — las afirmaciones, decisiones o hallazgos importantes
  • Entidades — personas, productos, empresas y otros nombres propios mencionados
  • Etiquetas de tema — categorías para coincidencia en la recuperación

El conocimiento extraído se almacena en una base dedicada de “Conocimiento auto-capturado” con isAutoContext: true. Las ejecuciones futuras en el mismo departamento pueden recuperar este conocimiento automáticamente.

El resultado: su sistema de IA literalmente aprende de sus propias buenas salidas. Un análisis competitivo bien elaborado hoy se convierte en contexto recuperable para el informe estratégico de mañana.

Frescura de documentos

Los documentos obtenidos de URLs pueden configurarse con un ajuste refreshIntervalDays para re-obtención automática. Cuando el sistema re-obtiene un documento, calcula un hash de contenido SHA-256 y lo compara con el hash almacenado. Si el contenido no ha cambiado, el procesamiento se detiene.

Si el contenido ha cambiado, solo los fragmentos afectados se reprocesan — se generan nuevos embeddings y resúmenes de forma incremental en lugar de reprocesar todo el documento. Esto mantiene sus bases de conocimiento actualizadas sin desperdiciar cómputo en contenido sin cambios.

Paso de flujo de trabajo Write-to-KB

Los flujos de trabajo pueden escribir salidas directamente en bases de conocimiento usando el tipo de paso dedicado Write-to-KB. Esto permite flujos de trabajo que acumulan conocimiento con el tiempo.

Un flujo de trabajo de triaje de soporte al cliente podría resolver un ticket y luego escribir el resumen de resolución en una base de conocimiento. La próxima vez que llegue un ticket similar, la resolución está disponible como contexto RAG. Un flujo de trabajo de investigación de mercado semanal podría agregar sus hallazgos a una base de conocimiento de inteligencia competitiva que se enriquece con cada ejecución.

Alcance y control de acceso

Las bases de conocimiento tienen alcance por cuenta con filtrado departamental opcional. Las bases de conocimiento de auto-contexto respetan los límites departamentales — los documentos internos del departamento de ingeniería no se filtran en las ejecuciones de recetas de marketing.

Este alcance se aplica en la capa de recuperación. Cuando se ejecuta la resolución de contexto de tres niveles, las bases de conocimiento de auto-contexto se filtran por el departamento del usuario que ejecuta antes de que ocurra cualquier búsqueda por embeddings.

Disponibilidad

Las bases de conocimiento con RAG están disponibles en planes Pro y superiores. El conocimiento auto-capturado y el paso de flujo de trabajo Write-to-KB se incluyen sin costo adicional. Conozca más sobre todas las funcionalidades o inicie su prueba gratuita.

knowledge-bases rag retrieval-augmented-generation context embeddings
Compartir este artículo

¿Le gustó este artículo?

Reciba consejos sobre flujos de trabajo, actualizaciones de producto y guías de automatización en su bandeja de entrada.

No spam. Unsubscribe anytime.