Als wir JieGou gestartet haben, unterstützten wir drei Cloud-LLM-Anbieter: Anthropic, OpenAI und Google. Dann fügten wir OpenAI-kompatible Endpunkte für selbst gehostete und Drittanbieter-Modelle hinzu. Heute fügen wir fünf weitere erstklassige Anbieter hinzu — womit die Gesamtzahl auf neun steigt.
Die neuen Anbieter
Mistral AI
Mistrals Modelle sind stark bei mehrsprachigen Aufgaben, Code-Generierung und strukturierter Ausgabe. JieGou unterstützt jetzt Mistral Large, Medium und Small als erstklassige Anbieter mit vollem BYOK-, Circuit-Breaker- und Schlüsselvalidierungs-Support.
- Am besten für: Mehrsprachigen Content, europäische Datenspeicherort-Anforderungen, kosteneffektive Code-Generierung
- Modelle: Mistral Large (aktuell), Mistral Medium, Mistral Small
Groq
Groqs benutzerdefinierte LPU-Hardware liefert Inferenzgeschwindigkeiten, die 10-20x schneller sind als traditionelle GPU-Anbieter. Wenn Latenz wichtiger ist als Modellgröße, ist Groq die klare Wahl.
- Am besten für: Echtzeit-Anwendungen, Hochvolumen-Batch-Verarbeitung, latenzkritische Workflows
- Modelle: Alle Groq-gehosteten Modelle über ihre OpenAI-kompatible API
xAI (Grok)
xAIs Grok-Modelle bringen einzigartige Fähigkeiten in Reasoning und Echtzeit-Informationssynthese. Verfügbar als erstklassiger Anbieter mit derselben Integrationstiefe wie Anthropic und OpenAI.
- Am besten für: Reasoning-intensive Aufgaben, Echtzeit-Analyse, kreative Generierung
- Modelle: Grok-Modelle über xAIs API
AWS Bedrock
Für Organisationen, die bereits auf AWS laufen, bietet Bedrock Zugang zu mehreren Foundation-Modellen über einen einzelnen AWS-Endpunkt. JieGou übernimmt die SigV4-Request-Signierung — Sie stellen nur Ihre AWS-Anmeldedaten bereit.
- Am besten für: AWS-native Organisationen, regulierte Branchen mit AWS-VPC-Datengrenzen-Anforderungen, Teams mit IAM-basierter Zugriffskontrolle
- Modelle: Alle Bedrock Converse API-Modelle (Claude, Titan, Llama, Mistral über AWS)
Azure OpenAI
Enterprise-Azure-Kunden können JieGou jetzt über ihre Azure-OpenAI-Bereitstellungen routen. Das hält den gesamten LLM-Traffic innerhalb Ihres Azure-Tenants und nutzt Ihre bestehende Azure-AD-Authentifizierung und Netzwerkkontrollen.
- Am besten für: Azure-first-Unternehmen, Organisationen mit Azure-Compliance-Anforderungen, Teams mit Azure Private Link
- Modelle: Alle Azure-OpenAI-Bereitstellungsmodelle (GPT-5, o3, benutzerdefinierte feinabgestimmte)
Jeder Anbieter ist erstklassig
Alle neun Anbieter teilen dieselbe Integrationstiefe:
| Fähigkeit | Alle 9 Anbieter |
|---|---|
| BYOK-Verschlüsselung | AES-256-GCM mit Pro-Konto-Schlüsseln |
| Pro-Anbieter-Circuit-Breaker | Öffnet automatisch bei wiederholten Fehlern, setzt nach Abkühlung zurück |
| Schlüsselvalidierung | Vorab-Prüfung gegen den Model-Listing-Endpunkt des Anbieters |
| Pro-Schritt-Auswahl | Wählen Sie einen anderen Anbieter und ein anderes Modell für jeden Workflow-Schritt |
| Token-Tracking | Einheitliches Nutzungs-Dashboard über alle Anbieter |
| Kostenschätzung | Vorab-Ausführungs-Kostenschätzungen mit anbieterspezifischer Preisgestaltung |
| Streaming | Echtzeit-Streaming für alle unterstützten Modelle |
| Tool-Calling | MCP und benutzerdefinierte Tools funktionieren mit allen Anbietern |
Pro-Schritt-Modellauswahl
Die wahre Stärke von Multi-Provider-Support ist das Mischen von Modellen innerhalb eines einzelnen Workflows:
- Schritt 1 (Recherche): Groq für schnelles initiales Datensammeln verwenden
- Schritt 2 (Analyse): Claude Opus für tiefes Reasoning verwenden
- Schritt 3 (Übersetzung): Mistral für mehrsprachige Ausgabe verwenden
- Schritt 4 (Code-Generierung): GPT-5 für strukturierte Code-Ausgabe verwenden
- Schritt 5 (Review): Grok für schnelle Qualitätsprüfungen verwenden
Jeder Schritt kann einen anderen Anbieter ohne zusätzliche Konfiguration verwenden. Input-Mappings, Ausgabeschemata und Tool-Calling funktionieren über Anbieter hinweg identisch.
Anbieterspezifische Circuit-Breaker
Verschiedene Anbieter haben unterschiedliche Zuverlässigkeitsprofile. Wir haben Circuit-Breaker-Schwellenwerte pro Anbieter abgestimmt:
| Anbieter | Fehlerschwelle | Reset-Zeit |
|---|---|---|
| Anthropic, OpenAI, Google, Mistral, xAI | 5 Fehler | 30 Sekunden |
| Groq | 3 Fehler | 60 Sekunden |
| AWS Bedrock | 3 Fehler | 45 Sekunden |
| Azure OpenAI | 5 Fehler | 30 Sekunden |
Groq und Bedrock haben niedrigere Schwellen, weil sie aggressiveres Rate-Limiting haben. Der Circuit-Breaker ist fail-open — wenn Redis nicht verfügbar ist, laufen Anfragen normal weiter.
Plan-Verfügbarkeit
| Anbieter | Starter | Pro | Team | Enterprise |
|---|---|---|---|---|
| Anthropic, OpenAI, Google | Ja | Ja | Ja | Ja |
| Mistral, Groq, xAI | — | Ja | Ja | Ja |
| OpenAI-kompatibel | — | Ja | Ja | Ja |
| AWS Bedrock, Azure OpenAI | — | — | Ja | Ja |
| Ollama, vLLM (lokal) | — | — | — | Ja |
Erste Schritte
- Gehen Sie zu Kontoeinstellungen > API-Schlüssel
- Klicken Sie auf Schlüssel hinzufügen und wählen Sie Ihren Anbieter
- Geben Sie Ihren API-Schlüssel ein — er wird sofort mit AES-256-GCM verschlüsselt
- Der Schlüssel wird gegen den Endpunkt des Anbieters validiert
- Beginnen Sie den Anbieter in jedem Recipe oder Workflow-Schritt zu verwenden
Alle fünf neuen Anbieter sind ab heute in Pro-Plänen und höher verfügbar. Bedrock und Azure OpenAI sind in Team und Enterprise verfügbar.
Einen Anbieter-Schlüssel hinzufügen und mit dem Mischen von Modellen beginnen.