AI-Agenten können jetzt Code ausführen. Anthropic liefert eine Sandbox-Runtime. OpenAI Codex bietet isolierte Worktrees. E2B und Modal stellen dedizierte Sandbox-Infrastruktur bereit. Code-Ausführung für AI-Agenten ist überall.
Aber hier ist die Frage, die niemand stellt: Wer genehmigt den Code, den Ihre AI-Agenten ausführen?
Die Risikofläche
Wenn ein AI-Agent Code ausführt, kann er:
- Auf Daten zugreifen, auf die er keinen Zugriff haben sollte
- Ressourcen verbrauchen, die über das Angemessene hinausgehen (CPU, Speicher, Netzwerk)
- Nebeneffekte erzeugen, die Produktionssysteme beeinflussen
- Informationen exfiltrieren durch Netzwerkaufrufe oder Ausgabekanäle
- Compliance-Anforderungen verletzen, indem regulierte Daten auf nicht genehmigte Weise verarbeitet werden
In der Sandbox eines Entwicklers sind diese Risiken handhabbar. In einer Enterprise-Produktionsumgebung mit regulierten Daten, Kunden-PII und Compliance-Verpflichtungen? Sie sind K.O.-Kriterien.
Wie Wettbewerber Code-Ausführung handhaben
Anthropics Sandbox-Runtime
Anthropic bietet eine Sandbox-Runtime in der Beta — Dateisystem- und Netzwerkisolation ohne Container-Overhead. Sie ist für Entwickler-Workflows konzipiert: Code ausführen, Ergebnisse sehen, iterieren. Es gibt keine Admin-Genehmigungsgates. Der Entwickler, der die Sandbox nutzt, entscheidet, welcher Code läuft.
OpenAI Codex
OpenAI Codex bietet parallele Agenten mit isolierten Worktrees und überprüfbaren Diffs. Es ist ein Entwicklertool für Code-Generierung und -Review. Die Isolation erfolgt auf Worktree-Ebene — jeder Agent bekommt sein eigenes Arbeitsverzeichnis. Es gibt keine Enterprise-Admin-Genehmigungsworkflows.
E2B, Modal und Sandbox-Anbieter
E2B, Modal und ähnliche Dienste bieten generische Sandbox-Ausführungsumgebungen. Sie sind Infrastruktur, keine Governance. Sie isolieren die Code-Ausführung vom Host-System, aber sie bieten keinen Mechanismus zur Genehmigung, welcher Code überhaupt ausgeführt wird.
Die Governance-Lücke
Alle diese Lösungen beantworten die Frage: “Wie führen wir Code sicher aus?” Keine von ihnen beantwortet die schwierigere Frage: “Wer entscheidet, welcher Code ausgeführt werden soll?”
Im Enterprise-Kontext lautet die Antwort nicht “der AI-Agent entscheidet” oder “der Entwickler entscheidet.” Es ist “der Admin entscheidet.” Die Person, die für Compliance, Sicherheit und operatives Risiko verantwortlich ist, muss:
- Überprüfen, welche Code-Templates für AI-Agenten verfügbar sind
- Genehmigen, neue Code-Templates bevor Agenten sie nutzen können
- Auditieren, jede Code-Ausführung mit vollständiger Ein-/Ausgabeprotokollierung
- Begrenzen, Ressourcenverbrauch (CPU-Zeit, Speicher, Ausgabegröße)
- Widerrufen, die Genehmigung, wenn ein Code-Template Probleme verursacht
JieGous Ansatz: Geregelte Code-Ausführung
JieGous Code-Schritt behandelt Code-Ausführung als geregelten Workflow-Schritt, nicht als Entwickler-Sandbox. So funktioniert es:
Admin-Code-Genehmigung
Bevor ein AI-Agent ein Code-Template ausführen kann, muss ein Admin es genehmigen. Das Code-Template wird überprüft, getestet und dann der genehmigten Palette hinzugefügt. Agenten können nur aus genehmigten Templates auswählen — sie können keinen beliebigen Code schreiben und ausführen.
V8-Sandbox mit Ressourcenlimits
Code läuft in einem V8-Isolat mit konfigurierbaren Limits:
- CPU-Zeit: Maximale Ausführungszeit (Standard: 5 Sekunden)
- Speicher: Maximale Heap-Größe (Standard: 128 MB)
- Ausgabegröße: Maximale Ausgabe-Payload
Wenn ein Code-Template ein Limit überschreitet, wird die Ausführung sofort beendet.
Audit-Protokollierung
Jede Code-Ausführung wird protokolliert mit:
- Wer das Code-Template genehmigt hat
- Welche Eingaben bereitgestellt wurden
- Welche Ausgabe erzeugt wurde
- Wie lange die Ausführung gedauert hat
- Wie viel Speicher verbraucht wurde
Dies schafft einen vollständigen Audit-Trail für die Compliance-Überprüfung.
Governance-Integration
Der Code-Schritt passt in JieGous 10-Schichten-Governance-Stack. Er respektiert:
- Abgestufte Autonomie: Im “überwachten” Modus erfordern Code-Schritte eine Genehmigung pro Ausführung
- RBAC: Nur Nutzer mit entsprechenden Berechtigungen können Code-Templates erstellen oder genehmigen
- Abteilungseingrenzung: Code-Templates können auf bestimmte Abteilungen eingegrenzt werden
Für wen das wichtig ist
Wenn Sie ein CISO oder Compliance-Beauftragter sind, der gebeten wird, AI-Agent-Code-Ausführung in Ihrer Organisation zu genehmigen, stellen Sie Ihrem Plattformanbieter diese Fragen:
- Kann ich Code-Templates überprüfen und genehmigen, bevor Agenten sie nutzen?
- Werden Code-Ausführungen mit vollständigen Ein-/Ausgabe-Audit-Trails protokolliert?
- Kann ich Ressourcenlimits für die Code-Ausführung setzen?
- Kann ich die Genehmigung für ein Code-Template widerrufen?
- Integriert sich die Code-Ausführung in mein bestehendes Governance-Framework?
Wenn die Antwort auf eine dieser Fragen “Nein” lautet, haben Sie keine geregelte Code-Ausführung. Sie haben eine Entwickler-Sandbox, die jemand in die Produktion bringen will.
Das Fazit
Die Frage ist nicht, ob Ihre AI-Agenten Code ausführen können. Jede Plattform bietet das jetzt. Die Frage ist, wer entscheidet, welchen Code sie ausführen — und ob Sie die Governance-Kontrollen haben, um diese Entscheidung verantwortungsvoll zu treffen.
Erfahren Sie mehr über JieGous Governance-Stack oder machen Sie das Governance-Assessment, um zu sehen, wie Ihre aktuelle Aufstellung im Vergleich abschneidet.