Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten
TL;DR
Hunderte individuelle AI-Setups, aber kein geteilter Common Sense. Was fehlt: ein Playbook für agentische Zusammenarbeit in kleinen Teams.
Reasoning Seed
Ein Reasoning Seed ist ein strukturierter Prompt, den du in dein KI-Reasoning-Tool kopieren kannst (Claude, ChatGPT, Obsidian, Notion). Er enthält die These des Artikels, die zentrale Spannung und unsere Lab-Einordnung — bereit für deine eigene Analyse.
Klick den Button unten, um als Markdown zu kopieren. Weitere Interaktionsmöglichkeiten in den Diskussionsfragen weiter unten.
Spannung: Wenn Agenten eigene Entscheidungen treffen und eigenen Kontext mitbringen — wer verantwortet dann das Ergebnis: der Mensch, der orchestriert, oder das Team, das dem Agenten vertraut hat?
Einordnung: Standpunkt aus der Lab-Praxis: Unsere Zusammenarbeit mit AI-Agenten hat agile Prinzipien nicht ersetzt, aber ihre Auslegung grundlegend verändert.
These
Wir haben das agile Manifest. Wir haben Scrum, Kanban, Shape Up. Wir haben hunderte AI-Evangelisten mit individuellen Setups, Prompting-Guides und Tool-Empfehlungen. Was wir nicht haben: einen geteilten Rahmen für die Zusammenarbeit von Menschen und AI-Agenten im Team.
Nicht für Einzelpersonen. Für Teams von 2–5 Leuten, die mit Claude Code, Cursor oder vergleichbaren Agenten arbeiten — und merken, dass die alten Rituale nicht mehr passen.
Die meisten denken, AI-Agenten seien schnellere Tools. Aber Agenten haben eigenen Kontext, eigene Session-History, eigene Entscheidungen. Wer so arbeitet, braucht keine besseren Prompts — sondern neue Formen der Zusammenarbeit.
Was sich verändert hat
Kleine Teams adoptieren agentische Workflows schneller als Organisationen. Zwei Leute mit strukturiertem Kontext und guten Agenten liefern, was früher ein Fünfer-Team brauchte. Das ist keine Effizienzsteigerung — das ist ein anderes Arbeitsmodell.
Aber die Lücke zwischen “ich nutze ChatGPT” und “wir orchestrieren Agenten im Team” wird täglich größer. Und niemand dokumentiert die Collaboration Patterns, die gerade in der Praxis entstehen. Jedes Team erfindet sie neu. Jede Woche.
Der Paradigmenwechsel: Partner, nicht Tool
Der wichtigste Shift ist kein technischer, sondern ein mentaler: von “ich prompte ein Tool” zu “ich arbeite mit einem Partner”.
Das klingt nach Übertreibung — bis man es tut. Ein Agent, der den Kontext eines Projekts kennt, der Specs liest, der auf vorherigen Sessions aufbaut, verhält sich anders als ein Suchfeld. Er trifft Entscheidungen. Er schlägt Strukturen vor. Er widerspricht, wenn die Spec nicht aufgeht.
Was das für Teams bedeutet: Verantwortung verteilt sich anders. Review wird wichtiger als Briefing. Trust-Modelle ersetzen Kontrollschleifen — nicht weil Kontrolle unnötig wäre, sondern weil sie anders funktioniert, wenn der Gegenüber kein Mitarbeiter ist, aber auch kein passives Werkzeug.
Drei Felder, die neue Antworten brauchen
Wie zerlegen wir Arbeit? Agenten können parallele Workstreams übernehmen — aber nur, wenn Issues eine Granularität haben, die autonomes Arbeiten erlaubt. Ein “menschenlesbares” Issue reicht nicht. Es braucht maschinenlesbaren Kontext: klare Akzeptanzkriterien, technischen Scope, benannte Abhängigkeiten. Das verändert, wie wir Epics schneiden und Specs schreiben.
Wie managen wir Abhängigkeiten? In klassischen Teams sind Abhängigkeiten zwischen Menschen. In agentischen Teams kommen neue Typen dazu: Agent wartet auf Human Review, Agent baut auf Agent-Output auf, zwei Agenten arbeiten am selben Codebereich. Der Mensch wird zum Reviewer-Engpass — nicht weil er zu langsam ist, sondern weil die Orchestrierung fehlt.
Wie übergeben wir Kontext? Die härteste Frage. Agentische Arbeit ist session-basiert. Wissen, das im Chat-Verlauf steckt, ist verloren, sobald die Session endet. Strukturierter Kontext — Markdown, Specs, Issue-Bodies, versionierte Konfiguration — wird zum eigentlichen Kommunikationsmedium. Nicht Slack, nicht Meetings. Dateien.
Kein Playbook. Prinzipien.
Die Versuchung ist groß, ein “Agile 2.0 Playbook” zu schreiben — mit Rollen, Zeremonien und Templates. Aber das wäre der falsche Ansatz. Was funktioniert, sind Prinzipien und Patterns — wie das agile Manifest selbst: kurz, opinionated, anpassbar.
Was sich davon abgrenzt: Prompt-Engineering-Guides lösen ein individuelles Problem. AI-Governance-Frameworks adressieren Organisationen. Was fehlt, ist die Ebene dazwischen — Collaboration Patterns für kleine Teams, die mit Agenten bauen. Nicht reguliert, nicht individuell, sondern geteilt.
Einordnung
Die Perspektive ist die eines Practitioners, der agile Methoden in verschiedenen Teamkonstellationen angewendet hat und seit Monaten täglich mit AI-Agenten im Produktivbetrieb arbeitet. Das ermöglicht Musterbeobachtung aus erster Hand, begrenzt aber die Verallgemeinerbarkeit — die Erfahrungsbasis ist ein kleiner Kreis von Early Adopters mit hoher technischer Affinität. Jemand aus der Organisationsentwicklung oder der Arbeitssoziologie würde weniger nach Collaboration Patterns fragen und stärker nach Machtverschiebungen, Rollenverlusten und den sozialen Kosten einer Arbeitsform, die implizites Wissen durch strukturierte Dateien ersetzt.
Kritische Einordnung
Was hält stand
- Die Beobachtung, dass individuelle AI-Setups nicht auf Teams skalieren, deckt sich mit der Praxis: Tool-Kompetenz ist persönlich, Zusammenarbeit ist strukturell
- Strukturierter Kontext als Kommunikationsmedium ist kein Wunschdenken — Teams, die mit CLAUDE.md, Specs und Issue-Bodies arbeiten, berichten konsistent von besseren Agent-Ergebnissen
- Die Analogie zum agilen Manifest trägt: Auch dort waren es Prinzipien, keine Prozesse, die den Shift ermöglicht haben
- Die Lücke zwischen Prompt-Engineering-Guides (individuell) und AI-Governance (organisational) ist real und unbesetzt
Was man einordnen muss
- Frühe Praxis, wenig Empirie: Die beschriebenen Patterns stammen aus der eigenen Arbeit und einem kleinen Kreis von Early Adopters — keine breite Validierung
- Selektion: Wer heute mit AI-Agenten im Team arbeitet, ist kein repräsentativer Querschnitt. Die Patterns könnten für diese Zielgruppe funktionieren und für andere nicht
- Agile-Analogie hat Grenzen: Das agile Manifest adressierte eine Industrie mit geteiltem Problemverständnis. Bei agentischer Zusammenarbeit fehlt dieses geteilte Verständnis noch — ein Manifest ohne Community bleibt ein Blogpost
- Tool-Abhängigkeit: Die Erfahrungsbasis ist stark an Claude Code und Anthropic-Produkte gebunden. Ob die Patterns tool-agnostisch übertragbar sind, ist offen
Diskussionsfragen
01 Team-Readiness: Ab welchem Punkt lohnt es sich, agentische Zusammenarbeit zu formalisieren — und wann ist es zu früh? Gibt es einen Mindestgrad an individueller Agent-Kompetenz, bevor Team-Patterns greifen?
02 Kontext als Medium: Wenn strukturierte Dateien das Kommunikationsmedium ersetzen — was passiert mit dem impliziten Wissen, das bisher in Gesprächen und Meetings entsteht? Verlieren wir etwas Wesentliches?
03 Orchestrierung: Wer orchestriert in einem agentischen Team? Entsteht eine neue Rolle — der “Agent Coordinator” — oder verteilt sich das auf alle? Und wie verhindert man, dass der Mensch zum Bottleneck wird?
04 Skalierung: Die These adressiert Teams von 2–5 Leuten. Was passiert bei 10, bei 20? Braucht es dann doch Rollen und Zeremonien — oder skalieren Prinzipien besser als Prozesse?
05 Kultur vs. Struktur: Ist das eigentliche Hindernis für agentische Zusammenarbeit ein strukturelles (fehlende Patterns) oder ein kulturelles (fehlendes Vertrauen in AI als Partner)?
Quellen
- Agile Manifesto (2001)
- Cat Wu — Product Management on the AI Exponential (Anthropic, 2026)
- Anthropic — Claude Code Best Practices
- Eigene Praxis: Knowledge OS, Claude Code, Fractional Studio Setup
Glossar
Agentische Zusammenarbeit Arbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.
Collaboration Patterns Wiederholbare Muster für die Zusammenarbeit in Teams — hier spezifisch für die Interaktion zwischen Menschen und AI-Agenten. Adressieren die Ebene zwischen individuellen Prompts und organisationaler Governance.
Strukturierter Kontext Maschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) — als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.
Session-basierte Arbeit Arbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.
Trust-Modelle Entscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.
Kuratiert von David Latz · Panoptia März 2026