Skip to content
Producto

9 proveedores de LLM, una plataforma: Mistral, Groq, xAI, Bedrock y Azure se unen a JieGou

JieGou ahora soporta 9 proveedores de LLM de forma nativa — desde la inferencia ultra-rápida de Groq hasta AWS Bedrock y Azure OpenAI de grado empresarial. Elija el modelo correcto para cada paso.

JT
JieGou Team
· · 5 min de lectura

Cuando lanzamos JieGou, soportábamos tres proveedores de LLM en la nube: Anthropic, OpenAI y Google. Luego agregamos endpoints compatibles con OpenAI para modelos auto-alojados y de terceros. Hoy, estamos agregando cinco proveedores de primera clase más — llevando el total a nueve.

Los nuevos proveedores

Mistral AI

Los modelos de Mistral son fuertes en tareas multilingues, generación de código y salida estructurada. JieGou ahora soporta Mistral Large, Medium y Small como proveedores de primera clase con soporte completo de BYOK, circuit breaker y validación de claves.

  • Mejor para: Contenido multilingue, requisitos de residencia de datos en Europa, generación de código rentable
  • Modelos: Mistral Large (último), Mistral Medium, Mistral Small

Groq

El hardware LPU personalizado de Groq ofrece velocidades de inferencia 10-20x más rápidas que los proveedores GPU tradicionales. Cuando la latencia importa más que el tamaño del modelo, Groq es la elección clara.

  • Mejor para: Aplicaciones en tiempo real, procesamiento por lotes de alto volumen, flujos de trabajo sensibles a la latencia
  • Modelos: Todos los modelos alojados en Groq vía su API compatible con OpenAI

xAI (Grok)

Los modelos Grok de xAI traen capacidades únicas en razonamiento y síntesis de información en tiempo real. Disponible como proveedor de primera clase con la misma profundidad de integración que Anthropic y OpenAI.

  • Mejor para: Tareas intensivas en razonamiento, análisis en tiempo real, generación creativa
  • Modelos: Modelos Grok vía la API de xAI

AWS Bedrock

Para organizaciones que ya ejecutan en AWS, Bedrock proporciona acceso a múltiples modelos fundacionales a través de un solo endpoint de AWS. JieGou maneja la firma de solicitudes SigV4 — usted solo proporciona sus credenciales de AWS.

  • Mejor para: Organizaciones nativas de AWS, industrias reguladas que requieren límites de datos VPC de AWS, equipos que usan control de acceso basado en IAM
  • Modelos: Todos los modelos de la API Converse de Bedrock (Claude, Titan, Llama, Mistral vía AWS)

Azure OpenAI

Los clientes empresariales de Azure ahora pueden enrutar JieGou a través de sus despliegues de Azure OpenAI. Esto mantiene todo el tráfico LLM dentro de su tenant de Azure y usa su autenticación y controles de red existentes de Azure AD.

  • Mejor para: Empresas con prioridad Azure, organizaciones con requisitos de cumplimiento de Azure, equipos que usan Azure Private Link
  • Modelos: Todos los modelos de despliegue de Azure OpenAI (GPT-5, o3, fine-tuned personalizados)

Cada proveedor es un ciudadano de primera clase

Los nueve proveedores comparten la misma profundidad de integración:

CapacidadLos 9 proveedores
Encriptación BYOKAES-256-GCM con claves por cuenta
Circuit breaker por proveedorSe abre automáticamente ante fallas repetidas, se reinicia después del enfriamiento
Validación de claveVerificación pre-vuelo contra el endpoint de listado de modelos del proveedor
Selección por pasoElija un proveedor y modelo diferente para cada paso del flujo de trabajo
Rastreo de tokensPanel de uso unificado en todos los proveedores
Estimación de costosEstimaciones de costo pre-ejecución usando precios específicos del proveedor
StreamingStreaming en tiempo real para todos los modelos soportados
Llamada de herramientasLas herramientas MCP y personalizadas funcionan con todos los proveedores

Selección de modelo por paso

El verdadero poder del soporte multi-proveedor es mezclar modelos dentro de un solo flujo de trabajo:

  1. Paso 1 (Investigación): Use Groq para recopilación rápida de datos inicial
  2. Paso 2 (Análisis): Use Claude Opus para razonamiento profundo
  3. Paso 3 (Traducción): Use Mistral para salida multilingue
  4. Paso 4 (Generación de código): Use GPT-5 para salida de código estructurado
  5. Paso 5 (Revisión): Use Grok para verificaciones de calidad rápidas

Cada paso puede usar un proveedor diferente sin ninguna configuración adicional. Los mapeos de entrada, esquemas de salida y llamadas de herramientas funcionan de manera idéntica en todos los proveedores.

Circuit breakers específicos por proveedor

Diferentes proveedores tienen diferentes perfiles de confiabilidad. Hemos ajustado los umbrales del circuit breaker por proveedor:

ProveedorUmbral de fallasTiempo de reinicio
Anthropic, OpenAI, Google, Mistral, xAI5 fallas30 segundos
Groq3 fallas60 segundos
AWS Bedrock3 fallas45 segundos
Azure OpenAI5 fallas30 segundos

Groq y Bedrock tienen umbrales más bajos porque tienen limitación de velocidad más agresiva. El circuit breaker es fail-open — si Redis no está disponible, las solicitudes proceden normalmente.

Disponibilidad por plan

ProveedorStarterProTeamEnterprise
Anthropic, OpenAI, Google
Mistral, Groq, xAI
Compatible con OpenAI
AWS Bedrock, Azure OpenAI
Ollama, vLLM (local)

Comenzar

  1. Vaya a Configuración de cuenta > Claves API
  2. Haga clic en Agregar clave y seleccione su proveedor
  3. Ingrese su clave API — se encripta inmediatamente con AES-256-GCM
  4. La clave se valida contra el endpoint del proveedor
  5. Comience a usar el proveedor en cualquier receta o paso de flujo de trabajo

Los cinco nuevos proveedores están disponibles hoy en planes Pro y superiores. Bedrock y Azure OpenAI están disponibles en Team y Enterprise.

Agregue una clave de proveedor y comience a mezclar modelos.

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
Compartir este artículo

¿Le gustó este artículo?

Reciba consejos sobre flujos de trabajo, actualizaciones de producto y guías de automatización en su bandeja de entrada.

No spam. Unsubscribe anytime.