Cuando lanzamos JieGou, soportábamos tres proveedores de LLM en la nube: Anthropic, OpenAI y Google. Luego agregamos endpoints compatibles con OpenAI para modelos auto-alojados y de terceros. Hoy, estamos agregando cinco proveedores de primera clase más — llevando el total a nueve.
Los nuevos proveedores
Mistral AI
Los modelos de Mistral son fuertes en tareas multilingues, generación de código y salida estructurada. JieGou ahora soporta Mistral Large, Medium y Small como proveedores de primera clase con soporte completo de BYOK, circuit breaker y validación de claves.
- Mejor para: Contenido multilingue, requisitos de residencia de datos en Europa, generación de código rentable
- Modelos: Mistral Large (último), Mistral Medium, Mistral Small
Groq
El hardware LPU personalizado de Groq ofrece velocidades de inferencia 10-20x más rápidas que los proveedores GPU tradicionales. Cuando la latencia importa más que el tamaño del modelo, Groq es la elección clara.
- Mejor para: Aplicaciones en tiempo real, procesamiento por lotes de alto volumen, flujos de trabajo sensibles a la latencia
- Modelos: Todos los modelos alojados en Groq vía su API compatible con OpenAI
xAI (Grok)
Los modelos Grok de xAI traen capacidades únicas en razonamiento y síntesis de información en tiempo real. Disponible como proveedor de primera clase con la misma profundidad de integración que Anthropic y OpenAI.
- Mejor para: Tareas intensivas en razonamiento, análisis en tiempo real, generación creativa
- Modelos: Modelos Grok vía la API de xAI
AWS Bedrock
Para organizaciones que ya ejecutan en AWS, Bedrock proporciona acceso a múltiples modelos fundacionales a través de un solo endpoint de AWS. JieGou maneja la firma de solicitudes SigV4 — usted solo proporciona sus credenciales de AWS.
- Mejor para: Organizaciones nativas de AWS, industrias reguladas que requieren límites de datos VPC de AWS, equipos que usan control de acceso basado en IAM
- Modelos: Todos los modelos de la API Converse de Bedrock (Claude, Titan, Llama, Mistral vía AWS)
Azure OpenAI
Los clientes empresariales de Azure ahora pueden enrutar JieGou a través de sus despliegues de Azure OpenAI. Esto mantiene todo el tráfico LLM dentro de su tenant de Azure y usa su autenticación y controles de red existentes de Azure AD.
- Mejor para: Empresas con prioridad Azure, organizaciones con requisitos de cumplimiento de Azure, equipos que usan Azure Private Link
- Modelos: Todos los modelos de despliegue de Azure OpenAI (GPT-5, o3, fine-tuned personalizados)
Cada proveedor es un ciudadano de primera clase
Los nueve proveedores comparten la misma profundidad de integración:
| Capacidad | Los 9 proveedores |
|---|---|
| Encriptación BYOK | AES-256-GCM con claves por cuenta |
| Circuit breaker por proveedor | Se abre automáticamente ante fallas repetidas, se reinicia después del enfriamiento |
| Validación de clave | Verificación pre-vuelo contra el endpoint de listado de modelos del proveedor |
| Selección por paso | Elija un proveedor y modelo diferente para cada paso del flujo de trabajo |
| Rastreo de tokens | Panel de uso unificado en todos los proveedores |
| Estimación de costos | Estimaciones de costo pre-ejecución usando precios específicos del proveedor |
| Streaming | Streaming en tiempo real para todos los modelos soportados |
| Llamada de herramientas | Las herramientas MCP y personalizadas funcionan con todos los proveedores |
Selección de modelo por paso
El verdadero poder del soporte multi-proveedor es mezclar modelos dentro de un solo flujo de trabajo:
- Paso 1 (Investigación): Use Groq para recopilación rápida de datos inicial
- Paso 2 (Análisis): Use Claude Opus para razonamiento profundo
- Paso 3 (Traducción): Use Mistral para salida multilingue
- Paso 4 (Generación de código): Use GPT-5 para salida de código estructurado
- Paso 5 (Revisión): Use Grok para verificaciones de calidad rápidas
Cada paso puede usar un proveedor diferente sin ninguna configuración adicional. Los mapeos de entrada, esquemas de salida y llamadas de herramientas funcionan de manera idéntica en todos los proveedores.
Circuit breakers específicos por proveedor
Diferentes proveedores tienen diferentes perfiles de confiabilidad. Hemos ajustado los umbrales del circuit breaker por proveedor:
| Proveedor | Umbral de fallas | Tiempo de reinicio |
|---|---|---|
| Anthropic, OpenAI, Google, Mistral, xAI | 5 fallas | 30 segundos |
| Groq | 3 fallas | 60 segundos |
| AWS Bedrock | 3 fallas | 45 segundos |
| Azure OpenAI | 5 fallas | 30 segundos |
Groq y Bedrock tienen umbrales más bajos porque tienen limitación de velocidad más agresiva. El circuit breaker es fail-open — si Redis no está disponible, las solicitudes proceden normalmente.
Disponibilidad por plan
| Proveedor | Starter | Pro | Team | Enterprise |
|---|---|---|---|---|
| Anthropic, OpenAI, Google | Sí | Sí | Sí | Sí |
| Mistral, Groq, xAI | — | Sí | Sí | Sí |
| Compatible con OpenAI | — | Sí | Sí | Sí |
| AWS Bedrock, Azure OpenAI | — | — | Sí | Sí |
| Ollama, vLLM (local) | — | — | — | Sí |
Comenzar
- Vaya a Configuración de cuenta > Claves API
- Haga clic en Agregar clave y seleccione su proveedor
- Ingrese su clave API — se encripta inmediatamente con AES-256-GCM
- La clave se valida contra el endpoint del proveedor
- Comience a usar el proveedor en cualquier receta o paso de flujo de trabajo
Los cinco nuevos proveedores están disponibles hoy en planes Pro y superiores. Bedrock y Azure OpenAI están disponibles en Team y Enterprise.
Agregue una clave de proveedor y comience a mezclar modelos.