Skip to content
Produkt

9 LLM-Anbieter, eine Plattform: Mistral, Groq, xAI, Bedrock und Azure kommen zu JieGou

JieGou unterstützt jetzt 9 LLM-Anbieter von Haus aus -- von ultraschneller Groq-Inferenz bis zu Enterprise-grade AWS Bedrock und Azure OpenAI. Wählen Sie das richtige Modell für jeden Schritt.

JT
JieGou Team
· · 4 Min. Lesezeit

Als wir JieGou gestartet haben, unterstützten wir drei Cloud-LLM-Anbieter: Anthropic, OpenAI und Google. Dann fügten wir OpenAI-kompatible Endpunkte für selbst gehostete und Drittanbieter-Modelle hinzu. Heute fügen wir fünf weitere erstklassige Anbieter hinzu — womit die Gesamtzahl auf neun steigt.

Die neuen Anbieter

Mistral AI

Mistrals Modelle sind stark bei mehrsprachigen Aufgaben, Code-Generierung und strukturierter Ausgabe. JieGou unterstützt jetzt Mistral Large, Medium und Small als erstklassige Anbieter mit vollem BYOK-, Circuit-Breaker- und Schlüsselvalidierungs-Support.

  • Am besten für: Mehrsprachigen Content, europäische Datenspeicherort-Anforderungen, kosteneffektive Code-Generierung
  • Modelle: Mistral Large (aktuell), Mistral Medium, Mistral Small

Groq

Groqs benutzerdefinierte LPU-Hardware liefert Inferenzgeschwindigkeiten, die 10-20x schneller sind als traditionelle GPU-Anbieter. Wenn Latenz wichtiger ist als Modellgröße, ist Groq die klare Wahl.

  • Am besten für: Echtzeit-Anwendungen, Hochvolumen-Batch-Verarbeitung, latenzkritische Workflows
  • Modelle: Alle Groq-gehosteten Modelle über ihre OpenAI-kompatible API

xAI (Grok)

xAIs Grok-Modelle bringen einzigartige Fähigkeiten in Reasoning und Echtzeit-Informationssynthese. Verfügbar als erstklassiger Anbieter mit derselben Integrationstiefe wie Anthropic und OpenAI.

  • Am besten für: Reasoning-intensive Aufgaben, Echtzeit-Analyse, kreative Generierung
  • Modelle: Grok-Modelle über xAIs API

AWS Bedrock

Für Organisationen, die bereits auf AWS laufen, bietet Bedrock Zugang zu mehreren Foundation-Modellen über einen einzelnen AWS-Endpunkt. JieGou übernimmt die SigV4-Request-Signierung — Sie stellen nur Ihre AWS-Anmeldedaten bereit.

  • Am besten für: AWS-native Organisationen, regulierte Branchen mit AWS-VPC-Datengrenzen-Anforderungen, Teams mit IAM-basierter Zugriffskontrolle
  • Modelle: Alle Bedrock Converse API-Modelle (Claude, Titan, Llama, Mistral über AWS)

Azure OpenAI

Enterprise-Azure-Kunden können JieGou jetzt über ihre Azure-OpenAI-Bereitstellungen routen. Das hält den gesamten LLM-Traffic innerhalb Ihres Azure-Tenants und nutzt Ihre bestehende Azure-AD-Authentifizierung und Netzwerkkontrollen.

  • Am besten für: Azure-first-Unternehmen, Organisationen mit Azure-Compliance-Anforderungen, Teams mit Azure Private Link
  • Modelle: Alle Azure-OpenAI-Bereitstellungsmodelle (GPT-5, o3, benutzerdefinierte feinabgestimmte)

Jeder Anbieter ist erstklassig

Alle neun Anbieter teilen dieselbe Integrationstiefe:

FähigkeitAlle 9 Anbieter
BYOK-VerschlüsselungAES-256-GCM mit Pro-Konto-Schlüsseln
Pro-Anbieter-Circuit-BreakerÖffnet automatisch bei wiederholten Fehlern, setzt nach Abkühlung zurück
SchlüsselvalidierungVorab-Prüfung gegen den Model-Listing-Endpunkt des Anbieters
Pro-Schritt-AuswahlWählen Sie einen anderen Anbieter und ein anderes Modell für jeden Workflow-Schritt
Token-TrackingEinheitliches Nutzungs-Dashboard über alle Anbieter
KostenschätzungVorab-Ausführungs-Kostenschätzungen mit anbieterspezifischer Preisgestaltung
StreamingEchtzeit-Streaming für alle unterstützten Modelle
Tool-CallingMCP und benutzerdefinierte Tools funktionieren mit allen Anbietern

Pro-Schritt-Modellauswahl

Die wahre Stärke von Multi-Provider-Support ist das Mischen von Modellen innerhalb eines einzelnen Workflows:

  1. Schritt 1 (Recherche): Groq für schnelles initiales Datensammeln verwenden
  2. Schritt 2 (Analyse): Claude Opus für tiefes Reasoning verwenden
  3. Schritt 3 (Übersetzung): Mistral für mehrsprachige Ausgabe verwenden
  4. Schritt 4 (Code-Generierung): GPT-5 für strukturierte Code-Ausgabe verwenden
  5. Schritt 5 (Review): Grok für schnelle Qualitätsprüfungen verwenden

Jeder Schritt kann einen anderen Anbieter ohne zusätzliche Konfiguration verwenden. Input-Mappings, Ausgabeschemata und Tool-Calling funktionieren über Anbieter hinweg identisch.

Anbieterspezifische Circuit-Breaker

Verschiedene Anbieter haben unterschiedliche Zuverlässigkeitsprofile. Wir haben Circuit-Breaker-Schwellenwerte pro Anbieter abgestimmt:

AnbieterFehlerschwelleReset-Zeit
Anthropic, OpenAI, Google, Mistral, xAI5 Fehler30 Sekunden
Groq3 Fehler60 Sekunden
AWS Bedrock3 Fehler45 Sekunden
Azure OpenAI5 Fehler30 Sekunden

Groq und Bedrock haben niedrigere Schwellen, weil sie aggressiveres Rate-Limiting haben. Der Circuit-Breaker ist fail-open — wenn Redis nicht verfügbar ist, laufen Anfragen normal weiter.

Plan-Verfügbarkeit

AnbieterStarterProTeamEnterprise
Anthropic, OpenAI, GoogleJaJaJaJa
Mistral, Groq, xAIJaJaJa
OpenAI-kompatibelJaJaJa
AWS Bedrock, Azure OpenAIJaJa
Ollama, vLLM (lokal)Ja

Erste Schritte

  1. Gehen Sie zu Kontoeinstellungen > API-Schlüssel
  2. Klicken Sie auf Schlüssel hinzufügen und wählen Sie Ihren Anbieter
  3. Geben Sie Ihren API-Schlüssel ein — er wird sofort mit AES-256-GCM verschlüsselt
  4. Der Schlüssel wird gegen den Endpunkt des Anbieters validiert
  5. Beginnen Sie den Anbieter in jedem Recipe oder Workflow-Schritt zu verwenden

Alle fünf neuen Anbieter sind ab heute in Pro-Plänen und höher verfügbar. Bedrock und Azure OpenAI sind in Team und Enterprise verfügbar.

Einen Anbieter-Schlüssel hinzufügen und mit dem Mischen von Modellen beginnen.

llm-providers mistral groq xai bedrock azure-openai multi-provider byok
Diesen Artikel teilen

Hat Ihnen dieser Artikel gefallen?

Erhalten Sie Workflow-Tipps, Produktupdates und Automatisierungsleitfäden direkt in Ihren Posteingang.

No spam. Unsubscribe anytime.