Das Ende der Pro-Seat-Preisgestaltung
Die SaaS-Branche hat zwei Jahrzehnte lang pro Platz abgerechnet. Das war sinnvoll, als Software namentlich bekannten Mitarbeitern diente, die vorhersehbare Arbeit erledigten. Aber AI-Agenten brechen dieses Modell völlig.
Ein AI-Agent hat keinen Platz. Er erledigt Arbeit, die vielleicht drei Support-Mitarbeiter erfordert hätte, oder er erstellt Dokumente, für die ein Rechtsanwaltsgehilfe Stunden gebraucht hätte. Pro Platz abzurechnen macht keinen Sinn, wenn der “Mitarbeiter” Software ist, die horizontal skaliert.
Die Zahlen sprechen für sich: 61% der SaaS-Unternehmen verwenden bereits eine Form der nutzungsbasierten Preisgestaltung. Der globale SaaS-Markt liegt bei 315 Milliarden Dollar. Und 73% der Enterprise-CFOs verlangen Echtzeit-AI-Verbrauchstracking.
Pro-Seat stirbt. Die Frage ist: Was kommt danach?
Die Token-Abrechnungsfalle
Der erste Instinkt war tokenbasierte Preisgestaltung. Sie nutzen Token, Sie zahlen für Token. Einfach.
Nur haben Token keine Beziehung zum Geschäftswert. Eine 1.000-Token-Antwort, die ein Kundenanliegen löst und ein Abwanderungsereignis verhindert, ist weit mehr wert als eine 10.000-Token-Antwort, die ohne zu helfen abschweift. Nach Token abzurechnen ist, als würde man eine Anwaltskanzlei nach der Anzahl der Wörter in ihren Schriftsätzen abrechnen statt nach den Ergebnissen, die sie liefern.
Token-Abrechnung schafft auch perverse Anreize. Sie bestraft Gründlichkeit und belohnt Kürze, selbst wenn der Kunde eine detaillierte Antwort braucht. Sie macht Kosten für CFOs unvorhersehbar, weil der Token-Verbrauch je nach Anwendungsfall stark variiert.
Wie ergebnisbasierte Preisgestaltung aussieht
Ergebnisbasierte Preisgestaltung richtet Kosten nach Wert aus: Sie zahlen für Lösungen, nicht für Rechenleistung.
Eine “Lösung” bedeutet, dass eine Kundenanfrage, ein interner Request oder eine Workflow-Aufgabe ohne menschliche Eskalation abgeschlossen wurde. Der Kunde hat seine Antwort bekommen. Der Mitarbeiter hat sein Dokument erhalten. Der Prozess ging voran.
Für AI-Agenten im Speziellen bedeutet das:
- Chat-Agent-Lösung: Ein Kunde stellt eine Frage und erhält eine genaue Antwort — ob durch eine passende Regel (kostenlos), RAG-Retrieval (günstig) oder LLM-Generierung (moderat). Das Unternehmen zahlt pro gelöster Anfrage, nicht pro verbrauchtem Token.
- Workflow-Lösung: Ein mehrstufiger Workflow läuft bis zum Abschluss und produziert die erwartete Ausgabe. Das Unternehmen zahlt pro erfolgreicher Ausführung.
- Eskalationsbehandlung: Wenn ein Agent eine Anfrage nicht lösen kann und an einen Menschen eskaliert, ist das keine abrechenbare Lösung. Das Unternehmen zahlt nur für gelieferten Wert.
Wie Kaskaden-Analysen dies ermöglichen
JieGous Chat Agents verwenden eine 4-stufige Lösungskaskade:
- Regelabgleich — Musterbasierte Antworten ohne LLM-Kosten
- RAG-Retrieval — Wissensdatenbank-Antworten mit minimalen Embedding-Kosten
- LLM-Fallback — Vollständige Modellinferenz, wenn Regeln und RAG nicht antworten können
- Eskalation — Menschliche Übergabe bei zu niedriger Konfidenz
Diese Kaskade ist nicht nur ein Effizienz-Feature. Sie ist die Dateninfrastruktur für ergebnisbasierte Preisgestaltung. Da wir genau verfolgen, welche Stufe jede Anfrage gelöst hat, können wir:
- Lösungen pro Monat nach Quellstufe zählen
- Die gemischten Kosten pro Lösung berechnen (die meisten Lösungen kosten Cent über Regeln/RAG, einige kosten mehr über LLM)
- Kunden ihren Lösungsraten-Trend über die Zeit zeigen
- Preisstufen basierend auf Lösungen statt auf Token anbieten
Ein Unternehmen, das 80% der Anfragen über Regeln und RAG löst, hat ein sehr anderes Kostenprofil als eines, das 80% an das LLM sendet. Ergebnisbasierte Preisgestaltung wird beiden gerecht.
Das Hybridmodell
Rein ergebnisbasierte Preisgestaltung hat Risiken. Was wenn ein Kunde gegnerische Anfragen sendet, um Lösungszahlen aufzublähen? Was wenn Lösungsdefinitionen manipuliert werden?
Der praktische Ansatz ist hybrid: eine Abonnementbasis, die Plattformzugang, Governance und Infrastruktur abdeckt, plus eine ergebnisbasierte Komponente, die mit dem tatsächlich gelieferten Wert skaliert.
Das ist die Richtung, in die die Branche geht. Salesforce führte das Agentic Enterprise License Agreement (AELA) als Flatrate-Modell ein. Chargebees “Selling Intelligence”-Playbook empfiehlt Hybridmodelle. Bessemers AI-Pricing-Guide hebt ergebnisbasierte Stufen als nächste Grenze hervor.
JieGous aktuelle Preisgestaltung ist bereits hybrid: Abonnementbasis (0-149$/Monat Self-Serve-Stufen) + transparente, planbasierte Token-Marge (2,70x Pro/Team, verhandelbar für Enterprise). Die natürliche Evolution ist das Hinzufügen einer lösungsbasierten Komponente neben der Token-Marge — damit Kunden das Abrechnungsmodell wählen können, das am besten zu ihrem Anwendungsfall passt.
Was das für Sie bedeutet
Wir kündigen heute keine ergebnisbasierte Preisgestaltung an. Wir kündigen an, dass wir die Infrastruktur bauen, um sie möglich zu machen:
- Lösungsmetriken: Tracking von Gesamtlösungen, Lösungsrate und monatlichen Trends in Chat-Agent-Analysen
- Stufen-Level-Kostenzuordnung: Genau wissen, was jede Lösung nach Quelle kostet (Regel, RAG, LLM)
- Monatliche Trendberichte: Zeigen, wie sich Lösungsraten über die Zeit ändern, wenn Regeln und Wissensdatenbanken verbessert werden
Wenn die Dateninfrastruktur solide ist, folgt das Preismodell natürlich. Wir glauben, dass Kunden die Wahl haben sollten: pro Token zahlen, wenn das für Ihren Anwendungsfall vorhersehbar ist, oder pro Lösung zahlen, wenn Sie möchten, dass die Preisgestaltung an Geschäftsergebnisse gebunden ist.
Die Kaskade dient nicht nur der Kosteneinsparung. Es geht darum, ein Preismodell zu bauen, bei dem alle — der Anbieter und der Kunde — gewinnen, wenn Anfragen effizient gelöst werden.