JieGou unterstützt Modelle von Anthropic (Claude), OpenAI (GPT, o-Serie) und Google (Gemini). Sie können für jedes Recipe und jeden Workflow-Schritt ein anderes Modell wählen. Aber wie entscheiden Sie bei so vielen Optionen, welches Modell wo eingesetzt werden soll?
Dieser Leitfaden führt durch ein praktisches Framework zur Modellauswahl.
Beginnen Sie mit dem Aufgabentyp
Verschiedene Modelle haben verschiedene Stärken. Basierend auf Tausenden von Recipe-Ausführungen in unserer Nutzerbasis sind hier allgemeine Muster:
Langformtexte und Nuancen — Claude (Sonnet und Opus) tendiert dazu, natürlichere, nuanciertere Texte zu produzieren. Wenn Ihr Recipe kundenorientierten Content, Marketing-Texte oder detaillierte Analysen generiert, ist Claude ein starker Ausgangspunkt.
Strukturierte Extraktion und Klassifikation — GPT-Modelle sind oft stark bei der Extraktion strukturierter Daten aus unstrukturiertem Text. Rechnungsparsing, Ticket-Kategorisierung und Datentransformationsaufgaben funktionieren häufig gut mit GPT.
Geschwindigkeitssensitive Aufgaben — Für Aufgaben, bei denen Latenz wichtiger ist als die Qualitätsobergrenze (Chat-Antworten, Echtzeit-Vorschläge), liefern kleinere Modelle wie Claude Haiku, GPT-5-mini oder Gemini Flash schnellere Antworten zu niedrigeren Kosten.
Reasoning-intensive Aufgaben — Für Aufgaben, die mehrstufige Logik, Planung oder mathematisches Reasoning erfordern, sind die o-Serie-Modelle (o3, o4-mini) und Gemini Pro einen Test wert.
Das sind Richtlinien, keine Regeln. Das richtige Modell für Ihr spezifisches Recipe hängt von Ihrem Prompt, Ihren Daten und Ihrem Qualitätsanspruch ab.
Validieren Sie mit Bakeoffs
Statt zu raten, nutzen Sie JieGous Bakeoff-System, um empirisch zu testen. Hier ist ein praktischer Ablauf:
Runde 1: Schnellscreen (3 Modelle, 10 Eingaben)
Erstellen Sie einen Recipe-Bakeoff, der Ihre Top-3-Modellkandidaten an 10 repräsentativen Eingaben vergleicht. Verwenden Sie einen einzelnen LLM-Judge. Das dauert Minuten und gibt Ihnen ein Richtungssignal.
Suchen Sie nach klaren Gewinnern und klaren Verlierern. Wenn ein Modell deutlich schlechter abschneidet, eliminieren Sie es. Wenn zwei nah beieinander liegen, kommen beide in Runde 2.
Runde 2: Statistische Evaluation (2 Modelle, 50 Eingaben)
Nehmen Sie die Top-2-Kandidaten und führen Sie einen rigoroseren Bakeoff mit 50 Eingaben und Multi-Judge-Evaluation durch. Prüfen Sie die Konfidenzintervalle — wenn sie sich nicht überlappen, haben Sie einen Gewinner. Wenn doch, sind die Modelle für diese Aufgabe funktional gleichwertig, und Sie sollten basierend auf Kosten oder Geschwindigkeit entscheiden.
Runde 3: Produktions-A/B-Test (optional)
Wenn die Offline-Evaluation nicht eindeutig ist oder Sie eine Produktionsvalidierung benötigen, richten Sie einen Live-A/B-Test ein. Leiten Sie den Traffic für 48-72 Stunden zwischen den beiden Varianten und lassen Sie den Auto-Stop-Mechanismus basierend auf der realen Leistung den Gewinner bestimmen.
Kosten-Qualitäts-Abwägungen berücksichtigen
Modellpreise variieren erheblich. Ein Frontier-Modell könnte 5% höher bei der Qualität abschneiden, aber 10x mehr pro Token kosten. Für viele Aufgaben lohnt sich dieser Kompromiss nicht.
JieGou-Bakeoffs zeigen den Kostenvergleich neben den Qualitätsbewertungen, damit Sie fundierte Entscheidungen treffen können. Häufige Erkenntnisse:
- Für 80% der internen Aufgaben (Zusammenfassungen, Entwürfe, Kategorisierung) produzieren Mittelklasse-Modelle gleichwertige Qualität wie Frontier-Modelle zu einem Bruchteil der Kosten
- Für kundenorientierten Content und Hochrisiko-Analysen ist der Qualitätsunterschied von Frontier-Modellen die Kosten wert
- Für hochvolumige, niedrigkomplexe Aufgaben (Klassifikation, Extraktion) spart das kleinste ausreichende Modell am meisten Geld
Modelle innerhalb von Workflows mischen
Eine der Stärken von JieGou ist die Pro-Schritt-Modellauswahl in Workflows. Ein gängiges Muster:
- Extraktionsschritt — Verwenden Sie ein schnelles, günstiges Modell (Haiku, GPT-5-mini), um strukturierte Daten aus der Eingabe zu extrahieren
- Analyseschritt — Verwenden Sie ein reasoning-fokussiertes Modell (o3, Gemini Pro), um die extrahierten Daten zu analysieren
- Schreibschritt — Verwenden Sie ein starkes Schreibmodell (Claude Sonnet, GPT-5), um die endgültige Ausgabe zu produzieren
Jeder Schritt verwendet das für seinen Aufgabentyp am besten geeignete Modell und optimiert sowohl für Qualität als auch Kosten über den gesamten Workflow.
Regelmäßig neu evaluieren
Modellfähigkeiten ändern sich mit neuen Releases. Ein Modell, das vor sechs Monaten zweitbestes war, könnte heute die beste Option sein. Setzen Sie eine Erinnerung, um Ihre Bakeoffs vierteljährlich erneut durchzuführen, besonders nach großen Modell-Updates.
JieGou macht das einfach — Ihre Bakeoff-Konfigurationen werden gespeichert, sodass die erneute Ausführung mit aktualisierten Modellen einen einzigen Klick erfordert.
Erste Schritte
Multi-Provider-Modellunterstützung ist in allen Tarifen verfügbar. Bakeoffs zum Modellvergleich sind im Pro-Tarif verfügbar. Alle unterstützten Modelle erkunden oder Ihren ersten Bakeoff starten.