Kritische Theorie als Diagnosewerkzeug für KI-Systeme
TL;DR
KI-Ethik produziert immer mehr Leitlinien — und verändert trotzdem wenig. Die Kritische Theorie der Frankfurter Schule bietet ein Analysewerkzeug, das erklärt, warum. Vier Denkbewegungen, die fehlen.
Reasoning Seed
Ein Reasoning Seed ist ein strukturierter Prompt, den du in dein KI-Reasoning-Tool kopieren kannst (Claude, ChatGPT, Obsidian, Notion). Er enthält die These des Artikels, die zentrale Spannung und unsere Lab-Einordnung — bereit für deine eigene Analyse.
Klick den Button unten, um als Markdown zu kopieren. Weitere Interaktionsmöglichkeiten in den Diskussionsfragen weiter unten.
Spannung: Wenn KI-Ethik strukturell einer kritischen Theorie gleicht, aber deren Methoden nicht nutzt — produziert sie dann Lösungen oder nur den Anschein von Lösungen?
Einordnung: Kritische Theorie als Analysewerkzeug für Produktentwicklung und KI-Einsatz — relevant für die Frage, wie ethische Positionen operationalisiert werden können, ohne in Prinzipienlisten stecken zu bleiben.
Key Insights
1 — Das Versprechen und die Lücke
KI-Ethik als Forschungsfeld ist in kurzer Zeit erstaunlich weit gekommen: Prinzipien wurden formuliert, Regulierungsrahmen entstanden, Checklisten wurden entwickelt. Was dem Feld dabei schwerer fällt, ist die Frage nach dem Warum — warum scheitern gut formulierte Prinzipien in der Praxis, warum reproduzieren gut gemeinte Systeme Machtstrukturen, die sie eigentlich aufheben sollten.
Die Philosophin Rosalie Waelen hat 2022 in „Why AI Ethics Is a Critical Theory” (Philosophy & Technology) einen aufschlussreichen Befund formuliert: KI-Ethik ähnelt in Struktur und Anspruch einer kritischen Theorie — sie will nicht nur beschreiben, sondern verändern, und sie ist fundamental mit dem Begriff menschlicher Ermächtigung verbunden. Das Feld tue das, so Waelen, ohne es sich selbst bewusst zu sein — und ohne die methodischen Ressourcen zu nutzen, die die Tradition der Kritischen Theorie bereitgestellt hat. Was fehlt, ist weniger ein weiterer Prinzipienkatalog als eine Analysemethode, die erklärt, warum organisationale Anreize ethische Leitlinien systematisch untergraben und warum KI-Systeme, die Fairness versprechen, Ungleichheiten reproduzieren können.
Giuseppe De Ruvo geht in „Algorithmic Objectivity as Ideology” (Topoi, 2025) einen Schritt weiter: Der Anspruch algorithmischer Objektivität funktioniert selbst ideologisch — er verdeckt die normativen Entscheidungen, die in jedem System stecken, indem er sie als technische Notwendigkeit rahmt. Je mehr Prinzipien formuliert werden, desto mehr entsteht der Eindruck, das Problem sei gelöst — während die strukturellen Ursachen unverändert bleiben.
Eine Tradition, die sich genau dieser Frage gewidmet hat, existiert seit fast einem Jahrhundert: die Kritische Theorie der Frankfurter Schule. Dieser Text versucht, diese Verbindung herzustellen — nicht als Vollständigkeitsanspruch, sondern als Arbeitsthese.
2 — Was die Frankfurter Schule wollte
In den frühen 1930er Jahren beschäftigte eine Gruppe von Philosophen und Soziologen am Institut für Sozialforschung in Frankfurt eine Frage, die ihnen dringlicher erschien als alle anderen: Warum hat die Vernunft versagt? Die Aufklärung hatte Wissenschaft, Technologie und rationale Planung als Instrumente der menschlichen Befreiung versprochen. Was Europa erlebte, war das Gegenteil — Faschismus, Massenmanipulation durch Kulturindustrie, die totale Mobilisierung von Gesellschaft durch industrielle Logik. Max Horkheimer, Theodor Adorno, Herbert Marcuse, Walter Benjamin: Sie alle versuchten, diesen Widerspruch zu erklären.
Ihre Antwort war keine einfache. Vernunft selbst, so die zentrale These von Horkheimer und Adorno in der „Dialektik der Aufklärung” (1944), kann in ihr Gegenteil umschlagen — nicht durch Böswilligkeit, sondern durch eine spezifische Form der Rationalisierung: Wenn der Zweck eines Systems — Beherrschung der Natur, Effizienzsteigerung, Kontrolle von Risiken — zum einzigen Maßstab wird, verdrängt er alle anderen Werte. Das Werkzeug beginnt, seinen Kontext zu bestimmen. Was als Mittel begann, wird zur Logik.
Aus diesem Befund entwickelten sie eine Methode: die immanente Kritik. Sie misst ein System nicht an externen, idealisierten Maßstäben, sondern an seinen eigenen Versprechen. Was behauptet dieses System zu sein? Was leistet es tatsächlich? Und wessen Interessen bleiben dabei unsichtbar? Diese Methode ist keine Ideologie — sie ist ein Analysewerkzeug, das auf jeden gesellschaftlichen Kontext anwendbar ist, in dem Rationalität Macht ausübt.
Das Institut wurde 1933 von den Nationalsozialisten geschlossen. Ein Großteil der Mitglieder emigrierte in die USA, viele fanden Zuflucht an der New School for Social Research in New York — einer Universität, die 1919 gegründet worden war, um Denken jenseits etablierter akademischer Dogmen zu ermöglichen, und die zur intellektuellen Heimat eines transatlantischen Exilnetzwerks wurde. Jürgen Habermas entwickelte die Tradition in der zweiten Generation weiter: In seiner „Theorie des kommunikativen Handelns” (1981) verschob er den Fokus von der Systemkritik auf die Frage, unter welchen Bedingungen Verständigung überhaupt gelingt — und wann strukturelle Asymmetrien sie verhindern.
3 — Vier Analysebewegungen
Die folgenden Bewegungen sind keine fertige Methode — eher ein erster Versuch, zu beschreiben, was Kritische Theorie als Diagnosewerkzeug für KI-Systeme leisten könnte.
Immanente Kritik: Systeme an ihren eigenen Versprechen messen. Die produktivste Frage, die man einem KI-System stellen kann, ist nicht: Ist das ethisch? Sondern: Was verspricht dieses System zu sein — explizit in der Dokumentation, implizit im Designverhalten — und was liefert es tatsächlich? Diese Form der Kritik hat eine wichtige Eigenschaft: Sie benötigt keine externe moralische Autorität. Sie arbeitet mit dem Material des Systems selbst. Die Methode geht auf Horkheimers programmatischen Aufsatz „Traditionelle und Kritische Theorie” von 1937 zurück und ist universell anwendbar — und unbequem, weil sie keine Ausrede durch Komplexität zulässt.
Dialektische Analyse: Wo schlägt Rationalisierung in Kontrolle um? Horkheimers und Adornos Warnung war präzise: Jede Form der Rationalisierung — das systematische Erfassen, Kontrollieren und Optimieren eines Bereichs — trägt das Potenzial in sich, die Werte zu verdrängen, für die sie ursprünglich eingesetzt wurde. Im Kontext von KI-Systemen bedeutet das: Die Frage ist nicht nur, ob ein System gut funktioniert, sondern was es mit seinem Umfeld macht, wenn es gut funktioniert. Personalisierungsalgorithmen, die Vielfalt versprechen und Homogenität produzieren; Empfehlungssysteme, die Autonomie suggerieren und Abhängigkeit erzeugen; autonome Agenten, die Transparenz nachträglich herstellen statt gleichzeitig — ob das neutrale technische Eigenschaften sind oder strukturelle Machtverschiebungen, lässt sich mit dieser Analysebewegung herausarbeiten.
Kommunikative Legitimität: Unter welchen Bedingungen ist eine Entscheidung anfechtbar? Habermas hat formuliert, was Legitimität voraussetzt: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie zwischen den Beteiligten. Eine KI-gestützte Entscheidung, die diese Bedingungen nicht erfüllt, ist nicht legitim — auch wenn sie effizient ist. Das gilt für automatisierte Kreditentscheidungen ebenso wie für Content-Moderation oder Recruiting-Filter. Die Frage ist nicht, ob ein Algorithmus „fair” entscheidet, sondern ob die Betroffenen die Entscheidung verstehen, anfechten und korrigieren können.
Technischer Code: Werte in Architekturen lesen. Andrew Feenberg hat 1991 in „Critical Theory of Technology” gezeigt, dass Architekturentscheidungen implizite Wertentscheidungen tragen: Wer kontrolliert, wer partizipiert, welche Optionen überhaupt sichtbar werden. Feenberg nennt diese eingebauten Werte „technischen Code” — Design-Entscheidungen, die als technische Notwendigkeit erscheinen und genau dadurch politisch wirksam werden. In KI-Systemen betrifft das jede Default-Einstellung, jede Taxonomie, jede Entscheidung darüber, welche Daten erhoben und welche ignoriert werden.
4 — Emanzipation als Prüfstein
Was die vier Bewegungen zusammenhält, ist ein normativer Maßstab, den die Kritische Theorie von Anfang an mitträgt: Emanzipation als Ziel. In Horkheimers ursprünglicher Formulierung verfolgt Kritische Theorie das Ziel menschlicher Handlungsfähigkeit — die Erweiterung von Selbstbestimmung, die Reduktion struktureller Abhängigkeit. Für KI-Systeme heißt das: Effizienzgewinn ist kein hinreichendes Kriterium für ethischen Einsatz. Die entscheidendere Frage ist, wessen Handlungsfähigkeit sich durch ein System erweitert — und ob diese Erweiterung auf Kosten anderer geht. Ein System, das Wissensarbeit schneller macht, aber das Urteilsvermögen seiner Nutzerinnen und Nutzer systematisch ersetzt statt ergänzt, hat nicht emanzipiert, sondern eine Abhängigkeit durch eine andere ersetzt.
Dieser Prüfstein gilt für jede der vier Bewegungen: Immanente Kritik fragt, ob das Versprechen hält; dialektische Analyse, ob Rationalisierung in Kontrolle umschlägt; kommunikative Legitimität, ob Betroffene widersprechen können; technischer Code, wessen Werte eingeschrieben sind. Die Antwort auf all diese Fragen bemisst sich daran, ob am Ende mehr Handlungsfähigkeit steht — oder weniger.
5 — Was dieser Rahmen leisten kann — und was nicht
Kritische Theorie ist kein Ersatz für technische Sorgfalt, rechtliche Compliance oder die Detailarbeit von Algorithmic Fairness. Sie bietet eine andere Ebene: die Fähigkeit, strukturelle Muster zu beschreiben, die erst sichtbar werden, wenn man fragt, wie ein System seine eigenen Versprechen untergräbt, wessen Interessen in seiner Architektur eingeschrieben sind und ob der Einsatz Handlungsfähigkeit erweitert oder bindet.
Gerard Delanty und Neal Harris zeigen in „Critical Theory and the Question of Technology” (Thesis Eleven, 2021), dass die Frankfurter Schule über drei Generationen hinweg Technologiekritik entwickelt hat — von Adornos Kulturindustrie über Habermas’ Kolonisierung der Lebenswelt bis zu Feenbergs demokratischer Technikgestaltung. Die Tradition ist nicht abgeschlossen. Simon Lindgrens „Critical Theory of AI” (2024) formuliert den aktuellen Stand dieser Arbeit: eine Analyse, die technische Systeme nicht isoliert betrachtet, sondern als Teil gesellschaftlicher Macht- und Kommunikationsstrukturen.
Ob das ausreicht, um die methodische Lücke zu schließen, die Waelen beschreibt, ist offen. Kritische Theorie selbst hat eine Schwäche: Sie ist besser im Diagnostizieren als im Konstruieren. Sie erklärt, was schiefläuft, aber gibt selten konkrete Gestaltungshinweise. Feenbergs Erweiterung — die Frage nach dem technischen Code als Designproblem — versucht diese Lücke zu schließen. Ob das für die Praxis der KI-Entwicklung operationalisierbar ist, bleibt eine offene Frage. Dieser Text ist ein erster Versuch der Einordnung — die eigene Praxis damit zu erden, in Produktentscheidungen, in der Bewertung von Tools, in der Frage, wann KI-Einsatz sinnvoll ist und wann nicht, steht noch aus.
Einordnung
Dieser Text ist aus der Perspektive eines Produktdesigners geschrieben, der Kritische Theorie als Analysewerkzeug nutzt — nicht als Philosoph, der die Tradition von innen kennt. Die Auswahl der Konzepte ist selektiv: Sie folgt der Frage, was für die Praxis der KI-gestützten Produktarbeit brauchbar ist. Ästhetische Theorie (Adorno), Psychoanalyse (Fromm, Marcuse), Staatstheorie (Neumann) — große Teile der Frankfurter Schule bleiben hier unberücksichtigt, weil sie für den Zweck dieses Textes weniger unmittelbar anschlussfähig sind.
Was diese Perspektive sehen kann: die Lücke zwischen ethischen Ansprüchen und operativer Praxis in der Produktentwicklung. Was sie nicht sehen kann: die philosophiehistorischen Feinheiten der Tradition, die Kontroversen zwischen den Generationen, die Grenzen der Übertragbarkeit auf nicht-westliche Kontexte. Jemand aus der Philosophie würde die Konzepte anders gewichten. Jemand aus dem Global South würde fragen, ob die Frankfurter Schule als europäische Tradition überhaupt der richtige Ausgangspunkt ist — oder ob postkoloniale Kritik die dringlicheren Fragen stellt.
Kritische Einordnung
Was hält stand
- Waelens zentrale These — KI-Ethik hat ein Methodenproblem — ist empirisch gut gestützt: Die Anzahl der Ethik-Leitlinien wächst, die dokumentierten Schadensfälle ebenfalls
- Die vier Analysebewegungen (immanente Kritik, dialektische Analyse, kommunikative Legitimität, technischer Code) sind methodisch kohärent und auf konkrete Systeme anwendbar
- Feenbergs Konzept des technischen Codes hat sich als Analysewerkzeug bewährt — die Idee, dass Architektur Politik ist, findet sich heute in den Science and Technology Studies (STS), im Critical Design und in der Policy-Arbeit
- Die historische Kontinuität über drei Generationen zeigt, dass die Tradition lernfähig ist — kein geschlossenes System, sondern ein offener Rahmen
Was man einordnen muss
- Die direkte Übertragung von Konzepten, die für industriekapitalistische Gesellschaften der 1930er–1940er Jahre entwickelt wurden, auf KI-Systeme erfordert Vermittlungsschritte, die hier nicht vollständig geleistet werden
- Zwischen Habermas’ idealer Sprechsituation und der Realität algorithmischer Entscheidungssysteme liegt ein Übersetzungsproblem, das dieser Text benennt, aber nicht löst
- Die Frankfurter Schule ist eine europäische, überwiegend männliche Tradition — ihre universalistischen Ansprüche stehen in Spannung zu ihrem begrenzten Entstehungskontext
- „Emanzipation” bleibt normativ unscharf — was als Erweiterung von Handlungsfähigkeit gilt, ist kontextabhängig und interpretierbar
- Der EU AI Act, Standardisierungsinitiativen und Corporate-Governance-Frameworks versuchen bereits, das Methodenproblem regulatorisch zu adressieren — ob Kritische Theorie dort zusätzlichen Wert schafft, ist eine offene Frage
Diskussionsfragen
01 Methodentransfer: Wie weit trägt die immanente Kritik als Methode für Teams, die KI-Systeme bauen — und wo braucht sie Ergänzung durch andere Analysewerkzeuge?
02 Emanzipation und Kontext: Wessen Definition von Handlungsfähigkeit gilt, wenn ein KI-System für unterschiedliche Nutzergruppen gleichzeitig „emanzipatorisch” und einschränkend wirken kann?
03 Technischer Code im Alltag: Welche impliziten Wertentscheidungen stecken in den Default-Einstellungen der KI-Werkzeuge, die im eigenen Arbeitsalltag eingesetzt werden — und wie bewusst wurden sie getroffen?
04 Grenzen der Tradition: Was kann die Frankfurter Schule als europäische Nachkriegstradition für globale KI-Ethik leisten — und wo braucht es andere theoretische Ausgangspunkte?
05 Konstruktive Wende: Wie ließe sich die diagnostische Stärke der Kritischen Theorie mit der konstruktiven Orientierung von Design-Methoden verbinden — ohne die analytische Schärfe zu verlieren?
Quellen
- Waelen, Rosalie — Why AI Ethics Is a Critical Theory, Philosophy & Technology, 2022
- De Ruvo, Giuseppe — Algorithmic Objectivity as Ideology, Topoi, 2025
- Delanty, Gerard / Harris, Neal — Critical Theory and the Question of Technology, Thesis Eleven, 2021
- Horkheimer, Max — Traditionelle und Kritische Theorie, Zeitschrift für Sozialforschung, 1937
- Horkheimer, Max / Adorno, Theodor W. — Dialektik der Aufklärung, 1944
- Habermas, Jürgen — Theorie des kommunikativen Handelns, Suhrkamp, 1981
- Feenberg, Andrew — Critical Theory of Technology, Oxford University Press, 1991
- Lindgren, Simon — Critical Theory of AI, 2024
- Verwandter Field Note: Claude Code Leak — Agent Architecture & Safety Paradox
Glossar
Kritische Theorie Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.
Immanente Kritik Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.
Dialektik der Aufklärung Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen — in Herrschaft, Normierung, Unterdrückung — wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.
Kommunikatives Handeln Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.
Technischer Code Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind — noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale” Designentscheidungen politische und soziale Konsequenzen haben.
Emanzipation Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung — als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.
Prinzipien-Paradox Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.
Frankfurter Schule / New School Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung — zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).
KI-Ethik Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.
Kuratiert von David Latz · Panoptia April 2026