AI-Automatisierungen zu erstellen sollte nicht erfordern, JSON-Schemata, Prompt-Engineering oder Workflow-DAGs zu verstehen. Benutzer wissen, was sie automatisieren wollen — sie sollten es in einfacher Sprache beschreiben können.
JieGous Erstellungssystem in natürlicher Sprache lässt Sie eine Beschreibung wie “Kundensupport-Tickets zusammenfassen und dringende markieren” eintippen und ein funktionierendes Recipe oder einen Workflow erhalten. Aber der interessante Teil ist nicht die Generierung — es ist, was vor der Generierung passiert.
Zuerst vorschlagen, nur generieren wenn nichts passt
Das ist die Schlüssel-Designentscheidung. Wenn Sie eine Beschreibung eingeben und auf Erstellen klicken, ruft das System nicht sofort ein LLM auf, um ein neues Recipe von Grund auf zu generieren. Stattdessen prüft es zuerst JieGous Bibliothek von 132 getesteten Templates.
Wenn ein starker Treffer gefunden wird (Score > 0.6), erscheint ein Vorschlagspanel, das das passende Template mit einem Übereinstimmungsprozent-Badge zeigt. Sie können das getestete Template sofort übernehmen oder es verwerfen und zur Generierung übergehen.
Die Philosophie: JieGous 132 getestete Templates sind ein Wettbewerbsvorteil. Jedes Template wurde generiert, mit synthetischen Eingaben getestet, von LLM-as-Judge evaluiert und manuell geprüft. Erstellung in natürlicher Sprache sollte diesen Vorteil verstärken, nicht umgehen.
Das bedeutet, die meisten Benutzer erhalten ein kampferprobtes Template in Sekunden, statt auf ein frisch generiertes Recipe zu warten, das nicht validiert wurde.
Template-Vorschlags-Engine
Das Matching-System verwendet zwei Stufen. Keine Vektor-Embeddings — für 132 Elemente reicht schnelles Keyword-Scoring plus bedingtes LLM-Reranking aus.
Stufe 1: Keyword-Scoring
Die Engine berechnet eine Jaccard-ähnliche Überlappung zwischen Benutzerabsichts-Tokens und Template-Metadaten-Tokens:
- Tokenisierung entfernt nicht-alphanumerische Zeichen, wandelt alles in Kleinbuchstaben und entfernt 48 häufige Stoppwörter
- Absichtsabdeckung (70% Gewichtung) — welcher Anteil der Benutzerabsichts-Tokens erscheint in den Template-Metadaten
- Template-Abdeckung (30% Gewichtung) — welcher Anteil der Template-Metadaten-Tokens erscheint in der Benutzerabsicht
- Teilweise Token-Übereinstimmungen (Substring-Overlap) erzielen 0.5 statt 1.0
Abteilungs-Boost: Templates aus der aktuell aktiven Abteilung des Benutzers erhalten einen 20%-Score-Boost, begrenzt auf 1.0. Wenn Sie in der Sales-Abteilung arbeiten und etwas Sales-Bezogenes beschreiben, werden Sales-Templates höher eingestuft.
Stufe 2: LLM-Reranking
LLM-Reranking ist bedingt — es wird nur ausgelöst, wenn zwei Bedingungen erfüllt sind:
- Der höchste Keyword-Score liegt unter 0.8 (hochkonfidente Keyword-Treffer brauchen keine LLM-Verifizierung)
- Mindestens 2 Kandidaten-Templates haben den Mindestschwellenwert überschritten
Wenn es ausgelöst wird, werden die Top-10-Kandidaten an Claude Haiku für schnelles Reranking mit strukturierter Ausgabe gesendet. Das LLM sieht die Benutzerabsicht und die Metadaten jedes Kandidaten und gibt eine neu sortierte Liste mit Scores zurück.
Wenn der LLM-Aufruf aus irgendeinem Grund fehlschlägt, fällt das System auf Keyword-only-Ranking zurück. Graceful Degradation — die Vorschlags-Engine blockiert nie bei einem LLM-Ausfall.
Starker-Treffer-Schwellenwert: Jedes Template, das nach beiden Stufen über 0.6 liegt, löst das Vorschlagspanel aus.
Recipe-Erstellungs-Assistent
Der Recipe-Assistent führt durch 4 Schritte, wobei Template-Matching zwischen Schritt 1 und 2 abfängt.
Schritt 1: Absicht
Ein Textfeld, in dem Sie beschreiben, was das Recipe tun soll. Sechs Beispiel-Absichts-Chips bieten Startpunkte (“Ein Dokument zusammenfassen”, “Schlüsseldaten aus E-Mails extrahieren” usw.). Wenn Sie schon Recipes erstellt haben, zeigt der Assistent Konto-Historie-Muster-Hinweise basierend auf Ihren früheren Erstellungen.
Nachdem Sie Ihre Absicht eingereicht haben, läuft die Template-Vorschlags-Engine. Wenn ein starker Treffer gefunden wird, erscheint ein grünes Vorschlagspanel mit dem Template-Namen und Übereinstimmungsprozent-Badge. Sie können es übernehmen (direkt zu einem vorgefertigten, getesteten Recipe springen) oder verwerfen und zur Generierung übergehen.
Schritt 2: Entwurf
Wenn kein Template gepasst hat — oder Sie den Vorschlag verworfen haben — sendet das System Ihre Absicht an ein LLM. Die Entwurfsantwort enthält:
- Einen Recipe-Namen und eine Beschreibung
- Vorgeschlagene Tags
- Eine Erklärung in einfacher Sprache, was das Recipe tun wird
- 2-3 Klärungsfragen zur Verfeinerung des Recipes vor der vollständigen Generierung
Vage-Absichts-Erkennung ist in diesen Schritt eingebaut. Wenn das LLM feststellt, dass die Absicht zu vage ist, um ein nützliches Recipe zu produzieren (z.B. “etwas mit Daten machen”), gibt die API HTTP 422 mit einer freundlichen Nachricht zurück, die um mehr Spezifität bittet. Das verhindert minderwertige Generierung an der Quelle.
Schritt 3: Vorschlag
Sie beantworten die Klärungsfragen aus Schritt 2. Antworten verwenden Chip-Stil-Optionen — vordefinierte Auswahlmöglichkeiten, die Sie antippen statt tippen können. Das hält die Interaktion schnell und beschränkt die Ausgabe auf wohldefinierten Pfade.
Schritt 4: Generieren
Das System produziert die vollständige Recipe-Spezifikation:
- inputSchema — typisierte Felder, die das Recipe erwartet
- outputSchema — strukturierte Ausgabe, die das Recipe produziert
- promptTemplate — der vollständige Prompt mit Variablenplatzhaltern
- sampleInput — realistische Testdaten, die Sie sofort ausführen können
Eine Live-Vorschau rendert das Recipe, bevor Sie es speichern. Sie können den Prompt prüfen, ihn mit der Beispieleingabe testen und iterieren, bevor Sie committen.
Workflow-Erstellungs-Assistent
Workflows folgen demselben 4-Schritte-Muster (Absicht, Entwurf, Vorschlag, Generieren), produzieren aber reichhaltigere Ausgabe.
Entwurfs-Unterschiede
Ein Workflow-Entwurf produziert 2-10 Schritte, jeder einem von 8 Schritttypen zugewiesen:
| Schritttyp | Zweck |
|---|---|
recipe | Ein wiederverwendbares Prompt-Template ausführen |
llm | Direkter LLM-Aufruf ohne gespeichertes Recipe |
eval | Ausgabequalität mit LLM-as-Judge evaluieren |
router | Basierend auf Eingabe zu verschiedenen Zweigen routen |
aggregator | Ausgaben aus mehreren Schritten kombinieren |
condition | Ausführung basierend auf einem booleschen Ausdruck verzweigen |
loop | Über eine Sammlung iterieren |
approval | Für menschliches Review pausieren, bevor es weitergeht |
Das LLM bestimmt den Ausführungsmodus — sequentiell oder DAG (gerichteter azyklischer Graph) — und gibt einen Grund für die Wahl an. Einfache Pipelines bekommen sequentiellen Modus. Workflows mit unabhängigen Zweigen, die parallel laufen können, bekommen DAG-Modus.
Multi-Agenten-Muster-Hinweise
Das entwerfende LLM hat Zugriff auf 4 Multi-Agenten-Muster-Hinweise, die es bei Bedarf anwenden kann:
- Critic-Refiner — ein Agent generiert, ein anderer kritisiert, der erste überarbeitet
- Specialist-Router — ein Router-Agent dispatcht an domänenspezifische Spezialisten-Agenten
- Debate-Konsens — mehrere Agenten argumentieren Positionen, ein Synthesizer extrahiert Konsens
- Plan-Execute-Verify — ein Planer zerlegt die Aufgabe, ein Executor führt jeden Teil aus, ein Verifier prüft Ergebnisse
Diese Muster produzieren Workflows mit 4-8 Schritten, die etablierten Multi-Agenten-Architekturen folgen.
”Aus Recipes vorschlagen”-Button
Wenn Sie bereits Recipes in Ihrem Konto haben, generiert der Aus Recipes vorschlagen-Button einen Workflow, der Ihre bestehenden Recipes verkettet. Das System untersucht Ihre Recipe-Bibliothek und schlägt einen Workflow vor, der sie in logischer Reihenfolge verbindet — ohne den Workflow von Grund auf beschreiben zu müssen.
Zweiphasen-Speicherung
Workflow-Speicherung verwendet einen zweiphasigen Prozess:
- Phase 1 — Neue Recipes erstellen, die der Workflow referenziert. Jedes Recipe wird in Firestore gespeichert und erhält eine echte Dokument-ID.
- Phase 2 — Den Workflow erstellen, wobei Platzhalter-Recipe-Referenzen den echten IDs aus Phase 1 zugeordnet werden.
Das stellt referentielle Integrität sicher. Der Workflow zeigt nie auf Recipes, die nicht existieren.
Abteilungskontext-Injektion
Sowohl Recipe- als auch Workflow-Entwurf lösen Abteilungskontext als nicht-blockierenden Seitenkanal auf. Wenn Sie innerhalb einer Abteilung arbeiten, ruft das System ab:
- Den Namen und die Beschreibung des Abteilungspakets
- Bis zu 15 verfügbare Recipe-Slugs aus dem Starterpaket der Abteilung
- Vorgeschlagene Integrationen, die für die Abteilung relevant sind
Dieser Kontext wird in den LLM-Prompt injiziert und weist ihn an, getestete Pack-Recipes als Workflow-Schritte wiederzuverwenden, statt neue von Grund auf zu generieren. Ein Sales-Workflow-Entwurf wird die bestehenden “Lead Enrichment”- und “Competitor Analysis”-Recipes aus dem Sales-Pack referenzieren, statt Duplikate zu erstellen.
Wenn die Abteilungsauflösung fehlschlägt (Netzwerkfehler, fehlende Daten), fährt die Generierung ohne sie fort. Keine harte Abhängigkeit von der Kontextverfügbarkeit.
Wesentliche technische Entscheidungen
Keine Vektor-Embeddings für Template-Matching. Mit 132 Templates ist Keyword-Scoring plus bedingtes LLM-Reranking schnell, genau und erfordert null Infrastruktur. Kein Embedding-Modell zum Hosten, keine Vektor-Datenbank zu pflegen, kein Embedding-Drift zum Sorgen. Wenn die Template-Bibliothek auf 1.000+ wächst, wird diese Entscheidung neu bewertet.
Strukturierte LLM-Ausgabe über Zod-Schemata. Jeder LLM-Aufruf in der Erstellungspipeline verwendet ein Zod-Schema zur Validierung der Antwort. Entwurfsantworten, Klärungsfragen, Recipe-Spezifikationen, Workflow-Schritt-Definitionen — alle typisiert und validiert. Fehlerhafte LLM-Ausgabe wird sofort abgefangen, statt subtile Bugs nachgelagert zu produzieren.
Vage-Absichts-Erkennung. Statt ein mittelmäßiges Recipe aus einer vagen Beschreibung zu generieren, gibt das System einen 422 zurück und bittet um Klärung. Das ist ein bewusstes Qualitätsgate. Ein Recipe, das “etwas mit Daten” macht, hilft niemandem.
Bedingtes LLM-Reranking. Wenn die Keyword-Engine einen hochkonfidenten Treffer produziert (Score >= 0.8), wird der LLM-Reranking-Schritt vollständig übersprungen. Das hält die Vorschlagslatenz für offensichtliche Treffer niedrig, während LLM-Intelligenz für mehrdeutige Fälle reserviert wird.
Graceful Degradation auf jeder Ebene. LLM-Reranking schlägt fehl? Fallback auf Keyword-Ranking. Abteilungskontext schlägt fehl? Ohne ihn generieren. Template-Matching findet nichts? Zur Generierung übergehen. Kein einzelner Ausfallpunkt blockiert den Erstellungsfluss.
Verfügbarkeit
Recipe- und Workflow-Erstellung in natürlicher Sprache ist in allen Plänen verfügbar — Free, Pro und Enterprise. Alle Features erkunden oder Ihre kostenlose Testversion starten.