Skip to content
Technik

Jede AI-Plattform lässt Agenten Code ausführen. Nur eine lässt Admins ihn genehmigen.

Code-Ausführung für AI-Agenten wird zur Commodity. Der Differenzierungsfaktor ist nicht, ob Ihre Agenten Code ausführen können. Sondern wer entscheidet, welchen Code sie ausführen.

JT
JieGou Team
· · 4 Min. Lesezeit

AI-Agenten können jetzt Code ausführen. Anthropic liefert eine Sandbox-Runtime. OpenAI Codex bietet isolierte Worktrees. E2B und Modal stellen dedizierte Sandbox-Infrastruktur bereit. Code-Ausführung für AI-Agenten ist überall.

Aber hier ist die Frage, die niemand stellt: Wer genehmigt den Code, den Ihre AI-Agenten ausführen?

Die Risikofläche

Wenn ein AI-Agent Code ausführt, kann er:

  • Auf Daten zugreifen, auf die er keinen Zugriff haben sollte
  • Ressourcen verbrauchen, die über das Angemessene hinausgehen (CPU, Speicher, Netzwerk)
  • Nebeneffekte erzeugen, die Produktionssysteme beeinflussen
  • Informationen exfiltrieren durch Netzwerkaufrufe oder Ausgabekanäle
  • Compliance-Anforderungen verletzen, indem regulierte Daten auf nicht genehmigte Weise verarbeitet werden

In der Sandbox eines Entwicklers sind diese Risiken handhabbar. In einer Enterprise-Produktionsumgebung mit regulierten Daten, Kunden-PII und Compliance-Verpflichtungen? Sie sind K.O.-Kriterien.

Wie Wettbewerber Code-Ausführung handhaben

Anthropics Sandbox-Runtime

Anthropic bietet eine Sandbox-Runtime in der Beta — Dateisystem- und Netzwerkisolation ohne Container-Overhead. Sie ist für Entwickler-Workflows konzipiert: Code ausführen, Ergebnisse sehen, iterieren. Es gibt keine Admin-Genehmigungsgates. Der Entwickler, der die Sandbox nutzt, entscheidet, welcher Code läuft.

OpenAI Codex

OpenAI Codex bietet parallele Agenten mit isolierten Worktrees und überprüfbaren Diffs. Es ist ein Entwicklertool für Code-Generierung und -Review. Die Isolation erfolgt auf Worktree-Ebene — jeder Agent bekommt sein eigenes Arbeitsverzeichnis. Es gibt keine Enterprise-Admin-Genehmigungsworkflows.

E2B, Modal und Sandbox-Anbieter

E2B, Modal und ähnliche Dienste bieten generische Sandbox-Ausführungsumgebungen. Sie sind Infrastruktur, keine Governance. Sie isolieren die Code-Ausführung vom Host-System, aber sie bieten keinen Mechanismus zur Genehmigung, welcher Code überhaupt ausgeführt wird.

Die Governance-Lücke

Alle diese Lösungen beantworten die Frage: “Wie führen wir Code sicher aus?” Keine von ihnen beantwortet die schwierigere Frage: “Wer entscheidet, welcher Code ausgeführt werden soll?”

Im Enterprise-Kontext lautet die Antwort nicht “der AI-Agent entscheidet” oder “der Entwickler entscheidet.” Es ist “der Admin entscheidet.” Die Person, die für Compliance, Sicherheit und operatives Risiko verantwortlich ist, muss:

  1. Überprüfen, welche Code-Templates für AI-Agenten verfügbar sind
  2. Genehmigen, neue Code-Templates bevor Agenten sie nutzen können
  3. Auditieren, jede Code-Ausführung mit vollständiger Ein-/Ausgabeprotokollierung
  4. Begrenzen, Ressourcenverbrauch (CPU-Zeit, Speicher, Ausgabegröße)
  5. Widerrufen, die Genehmigung, wenn ein Code-Template Probleme verursacht

JieGous Ansatz: Geregelte Code-Ausführung

JieGous Code-Schritt behandelt Code-Ausführung als geregelten Workflow-Schritt, nicht als Entwickler-Sandbox. So funktioniert es:

Admin-Code-Genehmigung

Bevor ein AI-Agent ein Code-Template ausführen kann, muss ein Admin es genehmigen. Das Code-Template wird überprüft, getestet und dann der genehmigten Palette hinzugefügt. Agenten können nur aus genehmigten Templates auswählen — sie können keinen beliebigen Code schreiben und ausführen.

V8-Sandbox mit Ressourcenlimits

Code läuft in einem V8-Isolat mit konfigurierbaren Limits:

  • CPU-Zeit: Maximale Ausführungszeit (Standard: 5 Sekunden)
  • Speicher: Maximale Heap-Größe (Standard: 128 MB)
  • Ausgabegröße: Maximale Ausgabe-Payload

Wenn ein Code-Template ein Limit überschreitet, wird die Ausführung sofort beendet.

Audit-Protokollierung

Jede Code-Ausführung wird protokolliert mit:

  • Wer das Code-Template genehmigt hat
  • Welche Eingaben bereitgestellt wurden
  • Welche Ausgabe erzeugt wurde
  • Wie lange die Ausführung gedauert hat
  • Wie viel Speicher verbraucht wurde

Dies schafft einen vollständigen Audit-Trail für die Compliance-Überprüfung.

Governance-Integration

Der Code-Schritt passt in JieGous 10-Schichten-Governance-Stack. Er respektiert:

  • Abgestufte Autonomie: Im “überwachten” Modus erfordern Code-Schritte eine Genehmigung pro Ausführung
  • RBAC: Nur Nutzer mit entsprechenden Berechtigungen können Code-Templates erstellen oder genehmigen
  • Abteilungseingrenzung: Code-Templates können auf bestimmte Abteilungen eingegrenzt werden

Für wen das wichtig ist

Wenn Sie ein CISO oder Compliance-Beauftragter sind, der gebeten wird, AI-Agent-Code-Ausführung in Ihrer Organisation zu genehmigen, stellen Sie Ihrem Plattformanbieter diese Fragen:

  1. Kann ich Code-Templates überprüfen und genehmigen, bevor Agenten sie nutzen?
  2. Werden Code-Ausführungen mit vollständigen Ein-/Ausgabe-Audit-Trails protokolliert?
  3. Kann ich Ressourcenlimits für die Code-Ausführung setzen?
  4. Kann ich die Genehmigung für ein Code-Template widerrufen?
  5. Integriert sich die Code-Ausführung in mein bestehendes Governance-Framework?

Wenn die Antwort auf eine dieser Fragen “Nein” lautet, haben Sie keine geregelte Code-Ausführung. Sie haben eine Entwickler-Sandbox, die jemand in die Produktion bringen will.

Das Fazit

Die Frage ist nicht, ob Ihre AI-Agenten Code ausführen können. Jede Plattform bietet das jetzt. Die Frage ist, wer entscheidet, welchen Code sie ausführen — und ob Sie die Governance-Kontrollen haben, um diese Entscheidung verantwortungsvoll zu treffen.

Erfahren Sie mehr über JieGous Governance-Stack oder machen Sie das Governance-Assessment, um zu sehen, wie Ihre aktuelle Aufstellung im Vergleich abschneidet.

code-execution governance security enterprise
Diesen Artikel teilen

Hat Ihnen dieser Artikel gefallen?

Erhalten Sie Workflow-Tipps, Produktupdates und Automatisierungsleitfäden direkt in Ihren Posteingang.

No spam. Unsubscribe anytime.