AI-Coding-Agenten wie Claude Code von Anthropic oder Codex von OpenAI können heute eigenständig Code schreiben, Tests ausführen, Dependencies installieren und Builds anstossen. Damit das funktioniert, brauchen sie eine vollwertige Entwicklungsumgebung mit Compiler, Package Manager, Docker und Git. Das bedeutet aber auch: viel Zugriff.
Das Konzept, das dieses Problem löst, ist nicht neu: Sandboxing. Wir ordnen es im Kontext von AI-Agenten ein und stellen unsere Open-Source-Lösung vor.
Die eigentliche Frage ist nicht, ob man AI-Agenten Zugriff gibt. Sondern wie man ihnen genug Freiheit lässt, ohne ein Risiko einzugehen.
Was Sandboxing im AI-Kontext bedeutet
Sandboxing kennt man aus der Security-Welt. Im Kontext von AI-Agenten geht es aber nicht primär um Schutz vor Schadsoftware, sondern um eine grundlegendere Frage: Wie gibt man einem Agenten genug Freiheit, um produktiv zu arbeiten, ohne das Host-System zu gefährden?
Die Antwort ist eine isolierte Umgebung, in der der Agent fast alles tun kann. Pakete installieren, Services starten, Dateien ändern, Container bauen. Was er nicht kann: dem Host-System in die Quere kommen. Es geht darum, Autonomie zu ermöglichen.
Warum das wichtig ist
Ohne Sandbox steht man vor einem Dilemma. Entweder man lässt den Agenten auf dem eigenen System arbeiten und akzeptiert das Risiko. Oder man schränkt ihn so stark ein, dass er seinen Job nicht richtig machen kann. Beides ist unbefriedigend.
Mit einer Sandbox löst sich das auf. Der Agent kann unbeaufsichtigt arbeiten: bauen, testen, deployen, ohne dass jemand jeden Schritt überwachen muss. Wenn etwas schiefgeht, bleibt der Schaden in der Sandbox. Der Blast Radius ist begrenzt.
Das eröffnet auch neue Möglichkeiten. Mehrere Agenten können parallel an verschiedenen Features arbeiten, jeder in seiner eigenen isolierten Umgebung. Und weil jede Sandbox frisch aufgesetzt wird, bekommt jeder Agent-Run die gleiche Ausgangslage. Keine Altlasten, keine Seiteneffekte, keine “Works on my machine”-Probleme.
- Unbeaufsichtigt arbeiten:
Ohne Unterbruch bauen, testen & deployen - ohne Risiko für den Host - Auswirkung eingrenzen:
Was in der Sandbox schiefgeht, bleibt dort — weder Host-System noch sensitive Daten sind betroffen. - Parallelität:
Mehrere Agents gleichzeitig auf verschiedenen Features - jeder in seiner eigenen Sandbox - Reproduzierbar:
Gleiche Umgebung für jeden Agent-Run - keine «works on my machine»-Probleme
Asylum: Unsere Open-Source-Lösung
Wir haben uns bestehende Lösungen angeschaut und keine gefunden, die unsere Anforderungen abdeckt. Also haben wir Asylum gebaut: ein schlankes Tool, das Docker-Container als vollwertige Entwicklungsumgebungen für AI-Agenten orchestriert.
Was uns wichtig war: Der Einstieg soll einfach sein. Asylum ist ein einzelnes Binary, das auf Linux und macOS läuft. Es bringt eine komplette Entwicklungsumgebung mit, inklusive Compiler, Runtimes, Package Manager und Docker-in-Docker. Man muss nichts manuell einrichten.
Gleichzeitig soll es im Alltag nicht bremsen. Caches bleiben zwischen Sessions erhalten, damit nicht bei jedem Start alles neu heruntergeladen wird. Die Konfiguration lässt sich pro Projekt anpassen. Und wer mit mehreren AI-Tools arbeitet, kann verschiedene Agenten in separaten Sandboxes laufen lassen.
Asylum ist Open Source. Der gesamte Code liegt auf GitHub.
Wie das im Alltag aussieht
Ein Entwickler startet Asylum, und der Agent hat seine eigene Welt. Das Projekt wird in die Sandbox gemountet, der Agent arbeitet los. Er kann Dependencies installieren, Tests laufen lassen, Container starten. Alles innerhalb der Sandbox.
Wenn der Agent fertig ist, übernimmt der Entwickler das Ergebnis. Wenn etwas nicht passt, wird die Sandbox verworfen und man startet neu. Das ist schnell, sauber und vorhersagbar.
Im Team funktioniert das besonders gut. Jeder Entwickler hat die gleiche Sandbox-Konfiguration, und jeder Agent-Run startet unter identischen Bedingungen. Das macht die Ergebnisse vergleichbar und reduziert Fehlerquellen, die nichts mit dem eigentlichen Code zu tun haben.
Autonomie ermöglichen, Risiko begrenzen
AI-Agenten werden leistungsfähiger. Sie übernehmen mehr Schritte im Entwicklungsprozess, arbeiten selbstständiger, brauchen weniger Anleitung. Damit das in der Praxis funktioniert, braucht es eine Umgebung, die diese Autonomie unterstützt, ohne Kontrolle aufzugeben.
Sandboxing ist dafür die Grundlage. Asylum ist unsere Antwort darauf, und als Open-Source-Projekt steht es jedem offen. Wer Sandboxing für AI-Agenten einsetzen will oder eigene Erfahrungen damit gemacht hat: wir tauschen uns gerne darüber aus.
