Manche Organisationen können keine Daten an OpenAI senden. Oder an Anthropic. Oder an Google. Nicht weil die Modelle nicht gut genug sind — sondern weil die Daten das Gebäude nicht verlassen dürfen.
Gesundheitssysteme, die Patientenakten verarbeiten. Finanzinstitute, die Transaktionsdaten behandeln. Rüstungsunternehmen, die mit klassifizierten Informationen arbeiten. Behörden, die an Datensouveränitätsanforderungen gebunden sind. Für diese Organisationen kam das Versprechen der AI-Automatisierung immer mit einem Sternchen: solange Sie bereit sind, Ihre Daten an eine Cloud-API zu senden.
JieGou entfernt dieses Sternchen.
Was sich geändert hat
Zwei Dinge sind zusammengekommen, die Self-Hosted AI-Automatisierung praktikabel machen:
Open-Source-Modelle haben aufgeholt. Llama 4 Maverick, DeepSeek V3, Qwen 3 235B und Mistral 3 Large liefern Qualität, die GPT-4o bei vielen Aufgaben erreicht oder übertrifft. Tool Calling, strukturierte Ausgabe, lange Kontextfenster — die Fähigkeiten, die Enterprise-Workflows brauchen, sind alle vorhanden.
Inferenz-Server sind gereift. vLLM, Ollama, SGLang und LocalAI bieten produktionsreife OpenAI-kompatible APIs. Sie richten Ihre Anwendung auf http://localhost:8000/v1 statt https://api.openai.com/v1, und alles funktioniert.
JieGou unterstützt jetzt jeden OpenAI-kompatiblen Endpunkt als erstklassigen Anbieter. Dasselbe Recipe-System, dieselbe Workflow-Engine, dieselben Bakeoff-Vergleiche, dieselben Approval Gates — nur auf Ihrer Hardware mit Ihren Modellen.
Wie es funktioniert
Der OpenAI-kompatible Anbieter
JieGou behandelt benutzerdefinierte Endpunkte genauso wie Anthropic, OpenAI und Google. Wenn Sie einen benutzerdefinierten Endpunkt unter Einstellungen > API-Schlüssel konfigurieren, geben Sie an:
- Endpunkt-URL — Wo Ihr Inferenz-Server läuft (z.B.
http://ollama:11434/v1) - Modellname — Welches Modell verwendet werden soll (z.B.
llama3.3) - API-Schlüssel — Optional. Die meisten lokalen Endpunkte erfordern keinen.
Ab diesem Punkt funktioniert jedes JieGou-Feature mit Ihrem Modell: Recipes, Workflows, Bakeoffs, Batch-Runs, Multi-Turn-Chat, strukturierte Ausgabeextraktion — alles.
Zertifizierte vs. Community-Modelle
Nicht alle Open-Source-Modelle handhaben jedes JieGou-Feature gleich gut. Tool Calling, strukturierte JSON-Ausgabe und Long-Context-Verarbeitung erfordern spezifische Modellfähigkeiten. Wir testen und zertifizieren Modelle, die den vollständigen JieGou-Feature-Satz zuverlässig beherrschen:
| Modell | Größe | Schlüsselfähigkeiten |
|---|---|---|
| Llama 4 Maverick | 400B+ MoE | Tool Calling, strukturierte Ausgabe, Vision, 1M Kontext |
| DeepSeek V3.2 | 671B MoE | Reasoning, Code-Generierung, strukturierte Ausgabe |
| Qwen 3 235B | 235B MoE | Mehrsprachig, Tool Calling, strukturierte Ausgabe |
| Mistral 3 Large | 123B | Vision, Tool Calling, 128K Kontext |
Zertifizierte Modelle erhalten ein grünes Badge im Modell-Selektor. Community-Modelle (alles andere) erhalten ein graues Badge mit einem Hinweis: “Nicht zertifiziert — Qualität kann variieren.” Wir empfehlen Benutzern, einen Bakeoff durchzuführen, der Community-Modelle mit zertifizierten vergleicht, bevor sie in Produktion gehen.
Auto-Discovery
Wenn JieGou startet, prüft es bekannte lokale Endpunkte:
http://ollama:11434— Docker-Netzwerk (Co-Located Ollama-Container)http://localhost:11434— Ollama-Standardporthttp://localhost:8000— vLLM-Standardport
Wenn ein laufender Inferenz-Server gefunden wird, zeigt das Admin-Dashboard ein Banner: “Lokaler LLM-Endpunkt erkannt” mit einem Ein-Klick-”Konfigurieren”-Button, der die Endpunkt-Einstellungen vorausfüllt.
Modell-Download-Manager
Für Ollama-Endpunkte enthält JieGou einen integrierten Modell-Manager. Durchsuchen Sie die zertifizierte Modellliste, klicken Sie auf “Herunterladen” und beobachten Sie den Download-Fortschritt in Echtzeit. Kein Terminal erforderlich.
Deployment-Optionen
Option 1: Docker Compose Starter Kit (einfachste)
Für Evaluierung oder kleine Teams. Alles in einem docker compose up:
git clone https://github.com/JieGouAI/orion.git
cd orion/console/self-hosted-starter
cp .env.example .env
docker compose up -d
./models/pull-models.sh llama3.3
Fünf Minuten bis zu einer funktionierenden AI-Automatisierungsplattform. JieGou erkennt die Co-Located Ollama-Instanz automatisch. Öffnen Sie http://localhost:3000 und fangen Sie an.
Für GPU-Beschleunigung:
docker compose -f docker-compose.yml -f docker-compose.gpu.yml up -d
Option 2: Hybrid-VPC-Deployment (Enterprise)
Für Organisationen, die JieGous verwaltete Steuerungsebene (UI, Scheduling, Monitoring) wollen, aber die Ausführung On-Premises stattfinden muss. VPC-Execution-Agents laufen innerhalb Ihres Netzwerks, empfangen Schritt-Ausführungsanfragen und verarbeiten sie mit Ihren lokalen LLM-Endpunkten. Die Steuerungsebene sieht nie Rohdaten.
Option 3: Vollständiges Kubernetes-Deployment
Für große Organisationen, die eigene K8s-Cluster betreiben. JieGou liefert ein Helm-Chart (console/chart/), das neben Ihren bestehenden vLLM- oder Ollama-Services deployt wird. Konfigurieren Sie den benutzerdefinierten Endpunkt so, dass er auf den internen DNS-Namen Ihres Inferenz-Services zeigt.
Plattformvergleich
Wie schneidet JieGous Self-Hosted-Story im Vergleich zu Alternativen ab?
n8n unterstützt Self-Hosting und hat eine Ollama-Integration, aber es ist ein Allzweck-Workflow-Tool — nicht speziell für AI-Automatisierung gebaut. Kein zertifiziertes Modellregister, kein Bakeoff-System zum Vergleich der Modellqualität, keine abteilungsorientierte Workflow-Organisation, keine Approval Gates.
Zapier und Microsoft Copilot Studio sind ausschließlich Cloud-basiert. Es gibt keine Self-Hosted-Option, Punkt.
LangChain/LangGraph bietet die Bausteine, aber nicht die Plattform. Sie müssen trotzdem UI, Benutzerverwaltung, Scheduling, Genehmigungsworkflows, Qualitätsmonitoring und alles andere selbst bauen. Das ist das Produkt, nicht ein Library-Aufruf.
JieGou ist die einzige Plattform, die Self-Hosted AI-Automatisierung mit den Enterprise-Features kombiniert, die regulierte Branchen brauchen: RBAC, Genehmigungsworkflows, Audit-Logging, Compliance-Presets und Qualitäts-Bakeoffs — alles auf Ihrer Infrastruktur.
Was kommt als Nächstes
Wir investieren stark in die Self-Hosted-Experience:
- Modell-Performance-Benchmarks — Automatisiertes Qualitätsscoring für jedes zertifizierte Modell gegen JieGous Recipe-Test-Suite
- Inferenzkosten-Rechner — Vergleichen Sie Self-Hosted GPU-Kosten vs. Cloud-API-Preise für Ihre spezifische Arbeitslast
- Multi-GPU-Orchestrierung — Routen Sie verschiedene Recipes zu verschiedenen Modellen basierend auf Fähigkeitsanforderungen
- Offline-Modellkatalog — Vorgepackte Modellbundles für vollständig Air-Gapped-Umgebungen ohne Internetzugang
Erste Schritte
Das Self-Hosted Starter Kit ist ab sofort verfügbar. Klonen Sie das Repository, starten Sie Docker Compose, laden Sie ein Modell herunter und beginnen Sie mit der Automatisierung.
Wenn Sie Hybrid-VPC-Deployment oder Compliance-Kontrollen für regulierte Branchen benötigen, kontaktieren Sie unser Vertriebsteam zum Enterprise-Plan.