Si alguna vez le hiciste una pregunta ligeramente inusual a un bot de soporte y recibiste una respuesta completamente irrelevante, ya conoces el problema del matching de FAQ basado en palabras clave. El cliente pregunta “¿cuál es la política de trabajo remoto durante mi período de prueba?” y el bot responde con una política de asistencia genérica porque coincidió con la palabra “política”. El matiz — período de prueba, trabajo remoto específicamente — se pierde.
Hoy lanzamos dos mejoras para los agentes de chat de JieGou: modo FAQ embebido para respuestas más completas, y aislamiento de hilos para conversaciones más limpias entre chats grupales y mensajes directos.
El problema del matching por palabras clave
Los agentes de chat de JieGou siempre han soportado la automatización de FAQ a través del modo Reglas — defines palabras clave y patrones, y el agente responde con la respuesta correspondiente. Esto funciona bien para preguntas directas: “¿cuál es su horario de atención?” coincide con la palabra clave “horario” y devuelve la respuesta correcta cada vez.
Pero las preguntas reales de clientes y empleados rara vez son tan simples. Las personas hacen preguntas compuestas, usan diferentes formulaciones y hacen referencia a contexto que no aparece en tu lista de palabras clave. El modo Reglas maneja los casos comunes, pero la larga cola de preguntas a menudo termina escalada a un humano — incluso cuando la respuesta existe en algún lugar de tu documento FAQ.
Tres modos FAQ, un agente
Los agentes de chat ahora soportan tres modos FAQ. Elige el que se ajuste a tu caso de uso.
Reglas (predeterminado). El matching original por palabras clave y patrones. Rápido, predecible y de bajo costo. Ideal para agentes que manejan un pequeño conjunto de preguntas bien definidas donde el matching exacto es suficiente.
Embebido. El documento FAQ completo se inyecta en la ventana de contexto del LLM para cada mensaje entrante. El modelo lee tu documento completo y genera respuestas basadas en una comprensión integral — no en coincidencia de palabras clave. Esto significa que puede manejar preguntas reformuladas, preguntas compuestas y preguntas que requieren sintetizar información de múltiples secciones de tu FAQ.
Híbrido. El agente intenta Reglas primero. Si ningún patrón coincide, recurre al modo Embebido y envía el documento completo al LLM. Esto te da la velocidad y bajo costo del matching por palabras clave para preguntas comunes, con la comprensión del contexto de documento completo para todo lo demás.
Internamente, los modos Embebido e Híbrido usan loadFAQDocuments() para obtener y cachear tu contenido FAQ con un caché Redis de 5 minutos. El documento se carga una vez y se reutiliza entre solicitudes, por lo que no pagas por obtenciones redundantes.
Un ejemplo concreto: el bot de onboarding de RRHH
Considera un equipo de RRHH que despliega un agente de chat en Slack para responder preguntas de nuevos empleados. La fuente FAQ del agente es el manual completo del empleado — 40 páginas cubriendo beneficios, políticas, configuración de TI y logística de oficina.
Con el modo Reglas, el equipo necesitaría extraer manualmente cada posible pregunta y mapearla a un patrón de palabras clave. “Trabajo remoto” → sección 4.3. “Vacaciones” → sección 7.1. Cualquier pregunta que no coincida con un patrón predefinido se escala.
Con el modo Embebido, un nuevo empleado puede preguntar: “Estoy en mi primer mes — ¿puedo trabajar desde casa los viernes y necesito enviar una solicitud con anticipación?” El LLM lee el manual completo, encuentra la política de período de prueba en la sección 2.4 y el proceso de solicitud de trabajo remoto en la sección 4.3, y sintetiza una única respuesta coherente. Sin necesidad de mapeo de palabras clave.
El enfoque Híbrido también funciona bien aquí: preguntas comunes como “¿dónde recojo mi laptop?” coinciden instantáneamente vía reglas, mientras que las preguntas inusuales reciben el tratamiento de documento completo.
Aislamiento de hilos: los chats grupales y los DM se mantienen separados
La segunda mejora es sobre la confiabilidad de las conversaciones. Cuando un agente de chat opera tanto en chats grupales como en DMs en el mismo canal — lo cual es común en LINE, Slack, Discord y MS Teams — los hilos de conversación ahora están completamente aislados.
Anteriormente, los mensajes de un chat grupal y un DM con el mismo usuario podían compartir contexto de hilo, lo que ocasionalmente causaba que el agente hiciera referencia a discusiones de chat grupal en una respuesta de DM privada, o viceversa. Esto era confuso en el mejor de los casos y un problema de privacidad en el peor.
El aislamiento de hilos funciona incorporando el ID del grupo o sala en el alcance de la conversación. Un mensaje en el chat grupal “Equipo de Marketing” y un DM del mismo usuario ahora se rastrean como hilos de conversación completamente separados. El agente mantiene contexto independiente para cada uno, sin contaminación cruzada.
Esto aplica en los 12 canales de mensajería que JieGou soporta: LINE, Instagram, Facebook Messenger, WhatsApp, YouTube, Slack, Discord, Microsoft Teams, SMS, correo electrónico, chat web y Telegram. Si el canal soporta tanto mensajería grupal como directa, el aislamiento de hilos se aplica automáticamente.
Para empezar
Ambas funcionalidades están disponibles ahora para todas las cuentas de JieGou. Para cambiar el modo FAQ de tu agente de chat, ve a la página de configuración del agente y selecciona Reglas, Embebido o Híbrido en la sección FAQ. El aislamiento de hilos está habilitado por defecto — no requiere configuración.
Si ejecutas agentes intensivos en FAQ en canales de soporte, RRHH o mesa de ayuda interna, prueba el modo Embebido o Híbrido. La diferencia en la calidad de las respuestas para preguntas con matices es significativa.