Dieser Leitfaden führt Sie durch jeden Schritt der Migration Ihrer n8n-Workflows zu JieGou. Ob Sie 5 oder 500 Workflows haben, der Prozess ist derselbe — und das meiste davon ist automatisiert.
Zeitschätzung: 1-2 Stunden für eine typische Bereitstellung mit 20-50 Workflows.
Voraussetzungen
Bevor Sie beginnen:
- n8n-Zugang — Sie benötigen Admin-Zugang zum Exportieren von Workflows (Self-Hosted oder Cloud)
- JieGou-Konto — Kostenlos anmelden oder das Docker-Compose-Starter-Kit für Air-Gapped-Umgebungen bereitstellen
- Integrations-Anmeldedaten — API-Schlüssel oder OAuth-Tokens für alle Dienste, mit denen Ihre n8n-Workflows verbunden sind (Slack, Gmail, GitHub usw.)
Schritt 1: Ihre n8n-Workflows exportieren
Option A: Alle Workflows exportieren (empfohlen)
- Öffnen Sie Ihre n8n-Instanz
- Gehen Sie zu Einstellungen → Alle Workflows exportieren
- Laden Sie die JSON-Datei herunter — sie enthält jeden Workflow in Ihrer Instanz
Die exportierte Datei sieht so aus:
[
{
"name": "Lead Enrichment Pipeline",
"nodes": [
{ "name": "Webhook", "type": "n8n-nodes-base.webhook", ... },
{ "name": "HTTP Request", "type": "n8n-nodes-base.httpRequest", ... },
{ "name": "Set", "type": "n8n-nodes-base.set", ... }
],
"connections": { ... }
},
...
]
Option B: Einzelne Workflows exportieren
- Öffnen Sie den Workflow, den Sie migrieren möchten
- Klicken Sie auf das … Menü → Herunterladen
- Speichern Sie die JSON-Datei
Sie können Workflows einzeln oder gebündelt importieren.
Was exportiert wird
| Enthalten | Nicht enthalten |
|---|---|
| Workflow-Name & Struktur | Anmeldedaten-Werte (API-Schlüssel, Tokens) |
| Node-Typen & Konfiguration | Ausführungshistorie |
| Verbindungen zwischen Nodes | Umgebungsvariablen |
| Tags & Annotationen | Benutzerdefinierte Node-Pakete |
| Statische Parameter |
Wichtig: n8n exportiert aus Sicherheitsgründen nie Anmeldedaten-Werte. Sie konfigurieren neue Anmeldedaten in JieGou als MCP-Server-Verbindungen.
Schritt 2: Bei JieGou anmelden
Cloud (am schnellsten)
- Gehen Sie zu console.jiegou.ai
- Melden Sie sich mit Google, GitHub oder E-Mail an
- Wählen Sie Ihre Abteilung (das Import-Tool funktioniert von jeder Abteilung)
- Sie landen auf dem Dashboard — navigieren Sie zu Integrations → Migrationen
Self-Hosted (Docker Compose)
Für regulierte Umgebungen, in denen Daten vor Ort bleiben müssen:
# Starter-Kit klonen
git clone https://github.com/JieGouAI/self-hosted.git
cd self-hosted
# Konfigurieren
cp .env.example .env
# .env mit Ihren Firebase-Anmeldedaten und LLM-API-Schlüsseln bearbeiten
# Starten
docker compose up -d
Die Konsole ist unter http://localhost:3000 verfügbar.
Hybrid-VPC-Deployment (Enterprise)
Für Teams, die Cloud-Komfort mit On-Premises-Datenverarbeitung brauchen:
- Kontaktieren Sie sales@jiegou.ai für VPC-Agent-Setup
- Die Steuerungsebene (Konsole, Planung, Monitoring) läuft in JieGous Cloud
- Workflow-Ausführung erfolgt innerhalb Ihres VPC — Daten verlassen nie Ihr Netzwerk
- Siehe unseren Hybrid-Deployment-Blogbeitrag für Architekturdetails
Schritt 3: Den Import-Assistenten verwenden
- Navigieren Sie zu
/migrations/n8nin Ihrer JieGou-Konsole - Sie sehen den n8n Import-Assistenten — ein dreistufiger Prozess
Hochladen
- Einfügen Sie Ihr n8n-Workflow-JSON direkt in den Textbereich, oder
- Hochladen Sie die
.json-Datei über die Dateiauswahl
Klicken Sie auf Konvertierung vorschauen, um den Workflow zu analysieren.
Was während der Analyse passiert
Das Import-Tool:
- Parst das n8n-Workflow-JSON (validiert Struktur, extrahiert Nodes und Verbindungen)
- Ordnet jeden n8n-Node-Typ dem nächsten JieGou-Schritt-Typ zu
- Erkennt Trigger-Nodes (Webhooks, Zeitpläne, manuelle Trigger) und konvertiert sie in Workflow-Eingaben
- Identifiziert Integrations-Nodes und schlägt passende MCP-Server vor
- Erstellt den Verbindungsgraphen (unter Beibehaltung der Ausführungsreihenfolge und Verzweigungslogik)
- Generiert einen Konvertierungsbericht mit Warnungen für alles, was manuelle Aufmerksamkeit erfordert
Schritt 4: Zuordnungen prüfen und anpassen
Nach der Analyse sehen Sie einen detaillierten Konvertierungsbericht.
Zusammenfassungskarten
Am oberen Rand des Berichts stehen vier Metriken:
- Gesamte Nodes — Wie viele n8n-Nodes im Workflow waren
- Zugeordnet — Nodes, die sauber in JieGou-Schritt-Typen konvertiert wurden
- Übersprungen — Nodes, die keine Konvertierung benötigen (z.B. NoOp, StickyNote)
- Warnungen — Elemente, die Ihre Aufmerksamkeit erfordern
Node-Zuordnungstabelle
Jeder n8n-Node wird mit seinem Konvertierungsstatus angezeigt:
| Status | Bedeutung | Aktion erforderlich |
|---|---|---|
| Zugeordnet | Sauber in einen JieGou-Schritt konvertiert | Keine — prüfen Sie, ob der Schritt richtig aussieht |
| Teilweise | Konvertiert, aber einige Parameter müssen manuell geprüft werden | Prüfen Sie die Schritt-Konfiguration |
| Manuell | Keine automatische Konvertierung verfügbar | Erstellen Sie den äquivalenten Schritt manuell |
| Übersprungen | Node-Typ braucht keine Konvertierung | Keine |
Wie n8n-Nodes zu JieGou-Schritten zugeordnet werden
| n8n Node | JieGou Schritt | Anmerkungen |
|---|---|---|
Set / Code / Function | LLM-Schritt | AI führt die Transformation statt Code durch |
IF / Switch / Filter | Bedingungs-Schritt | Direkte Zuordnung — dieselbe Verzweigungslogik |
SplitInBatches | Schleifen-Schritt | Direkte Zuordnung — iteriert über Array-Eingabe |
Merge / Aggregate | Aggregator-Schritt | Kombiniert Ausgaben aus parallelen Zweigen |
HTTP Request | LLM-Schritt + MCP-Tool | Verwendet den HTTP-MCP-Server für API-Aufrufe |
Slack / Gmail / GitHub | LLM-Schritt + MCP-Server | Verwendet die passende MCP-Server-Integration |
Webhook (Trigger) | Workflow-Eingabe | Wird zum Input-Schema des Workflows |
Schedule Trigger | Zeitplan | Separat in JieGou-Zeitplänen konfigurieren |
OpenAI / LangChain Agent | LLM-Schritt | Multi-Provider BYOK — bringen Sie Ihren eigenen Schlüssel |
Postgres / MySQL | LLM-Schritt + MCP-Server | Verwendet den Datenbank-MCP-Server |
Google Sheets | LLM-Schritt + MCP-Server | Verwendet den Google-Sheets-MCP-Server |
Warnungen verstehen
Warnungen fallen in drei Kategorien:
- Fehler — Etwas kann nicht automatisch konvertiert werden. Beispiel: “Benutzerdefinierter Function-Node verwendet npm-Pakete, die in JieGou nicht verfügbar sind”
- Warnung — Konvertierung war erfolgreich, muss aber verifiziert werden. Beispiel: “Slack-Node erkannt — konfigurieren Sie den Slack-MCP-Server für diese Integration”
- Info — Hilfreicher Kontext. Beispiel: “Webhook-Trigger in Workflow-Input-Schema konvertiert”
Häufige Warnungen und wie sie behoben werden:
| Warnung | Lösung |
|---|---|
| ”Konfigurieren Sie [X] MCP-Server” | Gehen Sie zu Bibliothek → Integrationen, installieren Sie den MCP-Server und verbinden Sie Ihre Anmeldedaten |
| ”Komplexer Ausdruck muss möglicherweise angepasst werden” | Prüfen Sie den Prompt/die Konfiguration des Schritts — n8n-Ausdrücke wie {{$json.field}} werden in Input-Zuordnungen konvertiert |
| ”Benutzerdefinierter Code-Node” | Prüfen Sie den generierten LLM-Prompt — er beschreibt, was der Code tat, und das LLM führt dieselbe Aufgabe aus |
| ”Nicht unterstützter Node-Typ” | Erstellen Sie den Äquivalent manuell oder prüfen Sie, ob ein MCP-Server die Funktionalität bietet |
Schritt 5: Ihre MCP-Server konfigurieren
MCP (Model Context Protocol)-Server ersetzen n8ns eingebaute Integrations-Nodes. Jeder MCP-Server stellt Tools bereit, die LLM-Schritte nutzen können.
MCP-Server installieren
- Gehen Sie zu Bibliothek → Integrationen
- Suchen Sie nach der benötigten Integration (z.B. “Slack”, “GitHub”, “PostgreSQL”)
- Klicken Sie auf Installieren, um sie zu Ihrem Konto hinzuzufügen
- Verbinden Sie sich mit Ihrem API-Schlüssel oder OAuth-Anmeldedaten
n8n-Anmeldedaten MCP-Servern zuordnen
| n8n-Anmeldedaten | JieGou MCP-Server | Verbindungsmethode |
|---|---|---|
| Slack OAuth | Slack MCP-Server | OAuth 2.0 (über Klavis) |
| Gmail API | Gmail MCP-Server | OAuth 2.0 (über Klavis) |
| GitHub Token | GitHub MCP-Server | Personal Access Token |
| Postgres-Verbindung | PostgreSQL MCP-Server | Connection String |
| HTTP Header Auth | HTTP MCP-Server | API Key / Bearer Token |
| OpenAI API Key | Konto-BYOK-Einstellungen | API Key im Key Vault |
| AWS-Anmeldedaten | AWS MCP-Server | Access Key + Secret |
| Google Sheets OAuth | Google Sheets MCP-Server | Service Account oder OAuth |
Tool-Zugriff verifizieren
Nach Installation der MCP-Server:
- Öffnen Sie den importierten Workflow
- Prüfen Sie jeden LLM-Schritt, der MCP-Tools verwendet
- Verifizieren Sie, dass der richtige MCP-Server ausgewählt ist
- Testen Sie die Verbindung mit einer schnellen manuellen Ausführung
Schritt 6: Mit einem Bakeoff testen
Bevor Sie live gehen, führen Sie sowohl Ihren n8n-Workflow als auch den JieGou-Workflow nebeneinander aus, um die Ausgabequalität zu vergleichen.
Einen Bakeoff erstellen
- Gehen Sie zu Bakeoffs → Neuer Bakeoff
- Wählen Sie den Modus Workflow vs. Workflow
- Fügen Sie Ihren JieGou-Workflow als Arm A hinzu
- Für Arm B haben Sie zwei Optionen:
- Führen Sie Ihren n8n-Workflow separat aus und fügen Sie die Ausgabe ein
- Erstellen Sie eine zweite JieGou-Workflow-Variante mit anderen LLM-Einstellungen
Testeingaben generieren
- Klicken Sie auf Eingaben generieren — JieGou erstellt synthetische Testdaten, die zu Ihrem Workflow-Input-Schema passen
- Oder liefern Sie echte Eingaben aus Ihrer n8n-Ausführungshistorie
- Wir empfehlen 5-10 diverse Eingaben für einen aussagekräftigen Vergleich
Ergebnisse prüfen
Der Bakeoff führt beide Arme auf jeder Eingabe aus und liefert:
- LLM-as-Judge-Evaluation — Ein AI-Evaluator bewertet jede Ausgabe nach Genauigkeit, Vollständigkeit und Relevanz
- Statistische Konfidenz — Standardabweichung und 95%-Konfidenzintervalle
- Seite-an-Seite-Vergleich — Ausgaben nebeneinander für manuelles Review ansehen
Worauf Sie achten sollten
- Ausgabeformat — Produziert der JieGou-Workflow Ausgaben im selben Format, das Ihre nachgelagerten Systeme erwarten?
- Datenvollständigkeit — Sind alle Felder befüllt? Fehlen Informationen?
- Grenzfälle — Wie gehen beide mit leeren Eingaben, großen Payloads oder ungewöhnlichen Daten um?
- Fehlerbehandlung — Was passiert, wenn ein API-Aufruf fehlschlägt?
Schritt 7: Live gehen
Sobald Sie von der Konvertierung überzeugt sind:
Schrittweise umschalten
- Beginnen Sie mit risikoarmen Workflows — interne Benachrichtigungen, Berichtsgenerierung, Datensynchronisation
- 48 Stunden überwachen — prüfen Sie Ausführungsprotokolle in JieGous Run-Historie
- Kritische Workflows umstellen — kundenorientierte Integrationen, Zahlungsverarbeitung, Datenpipelines
- n8n stilllegen — sobald alle Workflows verifiziert sind, fahren Sie Ihre n8n-Instanz herunter
Zeitpläne einrichten
Wenn Ihre n8n-Workflows Schedule-Trigger verwendeten:
- Gehen Sie zu Automatisieren → Zeitpläne
- Erstellen Sie einen neuen Zeitplan für jeden Workflow
- Konfigurieren Sie den Cron-Ausdruck (JieGou unterstützt dieselbe Cron-Syntax wie n8n)
- Setzen Sie die Zeitzone und Eingabeparameter
Webhook-Trigger einrichten
Wenn Ihre n8n-Workflows Webhook-Trigger verwendeten:
- Gehen Sie zu Automatisieren → Trigger
- Erstellen Sie einen neuen Webhook-Trigger
- Kopieren Sie die neue Webhook-URL
- Aktualisieren Sie die Webhook-URL in Ihren Upstream-Systemen (z.B. Stripe, GitHub, Slack)
Monitoring aktivieren
- Ausführungswarnungen — Richten Sie Benachrichtigungen für fehlgeschlagene Läufe ein
- Audit-Protokollierung — Alle Workflow-Ausführungen werden automatisch mit 30 Aktionstypen protokolliert
- SOC 2-Nachweise — Exportieren Sie Compliance-Nachweise aus dem Compliance-Dashboard
Fehlerbehebung
”Ungültiges JSON”-Fehler beim Hochladen
- Verifizieren Sie, dass die Datei gültiges JSON ist (versuchen Sie es auf jsonlint.com)
- Wenn Sie mehrere Workflows exportiert haben, ist die Datei ein JSON-Array — das Import-Tool behandelt sowohl einzelne Workflows als auch Arrays
- Prüfen Sie auf BOM-Zeichen oder Kodierungsprobleme (als UTF-8 speichern)
Node als “Manuell erforderlich” markiert
Das bedeutet, das Import-Tool konnte diesen Node-Typ nicht automatisch konvertieren. Häufige Fälle:
- Benutzerdefinierte Function-Nodes mit komplexen npm-Abhängigkeiten → Schreiben Sie die Logik als LLM-Prompt um oder verwenden Sie den HTTP-MCP-Server, um eine externe API aufzurufen
- FTP / SFTP-Nodes → Verwenden Sie den Dateisystem-MCP-Server oder einen HTTP-basierten Dateiübertragungsdienst
- XML-Nodes → LLM-Schritte behandeln XML-Parsing nativ — beschreiben Sie die Transformation im Prompt
Workflow-Ausführung schlägt nach Import fehl
- Prüfen Sie die Run-Detailseite auf den spezifischen Fehler
- Häufige Ursachen:
- MCP-Server nicht konfiguriert (installieren über Bibliothek → Integrationen)
- Input-Schema-Diskrepanz (prüfen Sie die Eingabe-Konfiguration des Workflows)
- Fehlender BYOK-Schlüssel für den LLM-Anbieter (hinzufügen unter Kontoeinstellungen → API-Schlüssel)
Leistungsunterschiede
JieGou-Workflows sind AI-nativ — statt Code in einer VM auszuführen, verwenden sie LLM-Schritte für Transformationen. Das bedeutet:
- Latenz kann höher sein für einfache Datentransformationen (LLM-Aufrufe vs. In-Memory-Code)
- Qualität kann höher sein für unstrukturierte Datenverarbeitung (LLM-Verständnis vs. Regex/Code)
- Wartung ist geringer — kein Code zum Debuggen, wenn sich APIs ändern
Wenn Latenz kritisch ist, verwenden Sie den Bedingungs-Schritt, um LLM-Aufrufe für deterministische Operationen zu überspringen und LLM-Schritte für Aufgaben zu reservieren, die von AI profitieren.
Migrations-Checkliste
Verwenden Sie diese Checkliste zur Verfolgung Ihres Migrationsfortschritts:
- Alle n8n-Workflows als JSON exportieren
- JieGou-Konto erstellen (Cloud, Self-Hosted oder Hybrid)
- Workflows in den Import-Assistenten hochladen
- Konvertierungsberichte für jeden Workflow prüfen
- Erforderliche MCP-Server aus Bibliothek → Integrationen installieren
- MCP-Server-Anmeldedaten konfigurieren
- Bakeoffs für kritische Workflows durchführen
- Zeitpläne für Cron-getriggerte Workflows einrichten
- Webhook-URLs in Upstream-Systemen aktualisieren
- Ausführung 48 Stunden überwachen
- n8n-Instanz stilllegen
- SOC 2-Nachweise für Audit-Trail exportieren
Brauchen Sie Hilfe?
- Import-Tool: console.jiegou.ai/migrations/n8n
- MCP-Integrationen: console.jiegou.ai/integrations
- Community: community.jiegou.ai
- Enterprise-Support: sales@jiegou.ai
- Sicherheitsdetails: Warum wir Hybrid-Deployment gebaut haben