JieGou soporta modelos de Anthropic (Claude), OpenAI (GPT, serie o) y Google (Gemini). Puede elegir un modelo diferente para cada recipe y cada paso de workflow. Pero con tantas opciones, ¿cómo decide qué modelo usar dónde?
Esta guía recorre un marco práctico para la selección de modelos.
Comience con el tipo de tarea
Diferentes modelos tienen diferentes fortalezas. Basándonos en miles de ejecuciones de recipes en nuestra base de usuarios, aquí hay patrones generales:
Escritura de formato largo y matices — Claude (Sonnet y Opus) tiende a producir escritura más natural y con matices. Si su recipe genera contenido orientado al cliente, copy de marketing o análisis detallado, Claude es un buen punto de partida.
Extracción estructurada y clasificación — Los modelos GPT frecuentemente son fuertes extrayendo datos estructurados de texto no estructurado. Procesamiento de facturas, categorización de tickets y tareas de transformación de datos frecuentemente funcionan bien con GPT.
Tareas sensibles a la velocidad — Para tareas donde la latencia importa más que el techo de calidad (respuestas de chat, sugerencias en tiempo real), modelos más pequeños como Claude Haiku, GPT-5-mini o Gemini Flash dan respuestas más rápidas a menor costo.
Tareas con razonamiento intenso — Para tareas que requieren lógica de múltiples pasos, planificación o razonamiento matemático, los modelos de la serie o (o3, o4-mini) y Gemini Pro valen la pena probar.
Estas son directrices, no reglas. El modelo correcto para su recipe específica depende de su prompt, sus datos y su estándar de calidad.
Use bakeoffs para validar
En lugar de adivinar, use el sistema de bakeoff de JieGou para probar empíricamente. Aquí hay un flujo práctico:
Ronda 1: Filtrado rápido (3 modelos, 10 inputs)
Cree un bakeoff de recipe comparando sus 3 mejores candidatos de modelo en 10 inputs representativos. Use un solo juez LLM. Esto toma minutos y le da una señal direccional.
Busque ganadores claros y perdedores claros. Si un modelo puntúa significativamente más bajo, elimínelo. Si dos están cerca, ambos avanzan a la ronda 2.
Ronda 2: Evaluación estadística (2 modelos, 50 inputs)
Tome los 2 mejores candidatos y ejecute un bakeoff más riguroso con 50 inputs y evaluación multi-juez. Verifique los intervalos de confianza — si no se solapan, tiene un ganador. Si se solapan, los modelos son funcionalmente equivalentes para esta tarea, y debería decidir basándose en costo o velocidad.
Ronda 3: Prueba A/B en producción (opcional)
Si la evaluación offline no es concluyente o si necesita validación en producción, configure una prueba A/B en vivo. Enrute tráfico entre las dos variantes durante 48-72 horas y deje que el mecanismo de detención automática determine el ganador basándose en el rendimiento del mundo real.
Considere las compensaciones costo vs. calidad
Los precios de los modelos varían significativamente. Un modelo de frontera podría puntuar 5% más alto en calidad pero costar 10x más por token. Para muchas tareas, esa compensación no vale la pena.
Los bakeoffs de JieGou muestran la comparación de costos junto con las puntuaciones de calidad, para que pueda tomar decisiones informadas. Hallazgos comunes:
- Para el 80% de las tareas internas (resúmenes, borradores, categorización), los modelos de nivel medio producen calidad equivalente a los modelos de frontera a una fracción del costo
- Para contenido orientado al cliente y análisis de alto impacto, la diferencia de calidad de los modelos de frontera vale el costo
- Para tareas de alto volumen y baja complejidad (clasificación, extracción), el modelo más pequeño suficiente ahorra más dinero
Mezcle modelos dentro de workflows
Una de las fortalezas de JieGou es la selección de modelo por paso en workflows. Un patrón común:
- Paso de extracción — Use un modelo rápido y barato (Haiku, GPT-5-mini) para extraer datos estructurados del input
- Paso de análisis — Use un modelo enfocado en razonamiento (o3, Gemini Pro) para analizar los datos extraídos
- Paso de escritura — Use un modelo fuerte de escritura (Claude Sonnet, GPT-5) para producir el output final
Cada paso usa el modelo mejor adaptado a su tipo de tarea, optimizando tanto calidad como costo en todo el workflow.
Reevalúe periódicamente
Las capacidades de los modelos cambian con nuevas versiones. Un modelo que era el segundo mejor hace seis meses podría ser la mejor opción hoy. Establezca un recordatorio para volver a ejecutar sus bakeoffs trimestralmente, especialmente después de actualizaciones importantes de modelos.
JieGou hace esto fácil — sus configuraciones de bakeoff se guardan, así que volver a ejecutar con modelos actualizados toma un solo clic.
Comience ahora
El soporte de modelos multi-proveedor está disponible en todos los planes. Los bakeoffs para comparación de modelos están disponibles en Pro. Explore todos los modelos soportados o inicie su primer bakeoff.