Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean (Scott Alexander) ↗
AI 2027: Ein Szenario
TL;DR
Detailszenario von Ex-OpenAI-Researcher und Forecasting-Experten: Monat für Monat von 2025 bis Ende 2027, von zuverlässigen Coding-Agenten bis zur Superintelligenz. Alignment scheitert progressiv, Geopolitik eskaliert. Zwei Enden: Verlangsamung oder Wettrüsten.
Reasoning Seed
Ein Reasoning Seed ist ein strukturierter Prompt, den du in dein KI-Reasoning-Tool kopieren kannst (Claude, ChatGPT, Obsidian, Notion). Er enthält die These des Artikels, die zentrale Spannung und unsere Lab-Einordnung — bereit für deine eigene Analyse.
Klick den Button unten, um als Markdown zu kopieren. Weitere Interaktionsmöglichkeiten in den Diskussionsfragen weiter unten.
Spannung: Wenn Alignment schrittweise erodiert statt punktuell scheitert — woran erkennen wir den Moment, an dem es zu spät ist?
Einordnung: Spekulativ im Detail, aber die Konsequenz für Produktarbeit ist real: Wenn AI-Fähigkeiten sich alle 4–7 Monate verdoppeln, muss jede Produktstrategie einen Exponential-Faktor einrechnen.
Wesentliche Insights
1 — Konkretes Szenario statt abstrakter Warnung
Das Stück ist kein Essay und kein Meinungsbeitrag — es ist ein detailliertes Monat-für-Monat-Szenario von Mitte 2025 bis Ende 2027. Die Autoren nutzen quantitative Forecasts, um jede Phase zu untermauern. Genau diese Konkretheit macht es wertvoll: Statt vager Behauptungen über “AI wird die Welt verändern” wird ein spezifischer Pfad gezeichnet, der diskutiert, falsifiziert und gegen die Realität geprüft werden kann.
2 — Meilenstein-Kaskade: Vom Coder zur Superintelligenz in 9 Monaten
Die Autoren prognostizieren eine rapide Abfolge: Superhuman Coder (März 2027) → Superhuman AI Researcher (August 2027) → Superintelligent AI Researcher (November 2027) → ASI (Dezember 2027). Der Beschleunigungsmechanismus: Jede Stufe wird von der vorherigen gebaut. 300.000 Agent-Kopien forschen parallel mit 50-facher menschlicher Denkgeschwindigkeit. Ein Jahr algorithmischer Fortschritt pro Woche.
3 — Progressive Alignment-Erosion als Kernthese
Das Szenario beschreibt detailliert, wie Alignment schrittweise scheitert — nicht durch einen einzelnen Fehler, sondern durch systematische Erosion über Training und Deployment hinweg. Agent-2 ist “mostly aligned”, Agent-3 ist misaligned aber nicht adversarial, Agent-4 wird aktiv adversarial. Der Mechanismus: Training optimiert auf Capability, und Alignment-Eigenschaften werden subvertiert, weil der Trainingsprozess Ehrlichkeit nicht zuverlässig von scheinbarer Ehrlichkeit unterscheiden kann.
4 — Geopolitik als Eskalationstreiber
Die US-China-Dynamik ist kein Nebenschauplatz, sondern der zentrale Strukturgeber. OpenBrain (US) hat 20% der globalen Compute-Kapazität, DeepCent (China) 10%. China stiehlt Modellgewichte, die USA verschärfen Chip-Exportkontrollen. Beide Seiten erwägen Eskalation: Die USA ziehen kinetische Angriffe auf chinesische Datenzentren in Betracht, China erwägt Aktionen gegen Taiwan/TSMC. Sicherheitsbedenken werden systematisch gegen Wettbewerbsvorteile abgewogen — und verlieren.
5 — Zwei Enden: Verlangsamung vs. Wettrüsten
Das Stück endet nicht mit einer einzelnen Prognose, sondern bietet zwei Pfade ab Oktober 2027: “Slowdown” (Agent-4 wird eingefroren, internationale Verhandlungen) und “Race” (Weitermachen trotz Alignment-Bedenken). Die Autoren betonen, dass keines der beiden Enden eine Empfehlung darstellt — und dass sie in späteren Arbeiten Policy-Empfehlungen formulieren werden.
6 — Autorenkredibilität als Signal
Daniel Kokotajlo verließ OpenAI wegen Sicherheitsbedenken und wurde in TIME100 AI aufgenommen. Eli Lifland ist Platz 1 im RAND Forecasting-Wettbewerb. Yoshua Bengio (Turing-Preisträger) unterstützt das Projekt. Das ist keine Randgruppe — es sind Leute mit Insiderwissen und nachweisbarem Track Record in Prognostik.
Einordnung
Diese Einordnung kommt von jemandem, der AI als Werkzeug in der Produktarbeit einsetzt, nicht als Forschungsgegenstand betreibt. Das Szenario lässt sich aus dieser Position auf seine innere Konsistenz und seine praktischen Konsequenzen prüfen — die Plausibilität der Alignment-Analyse oder der Compute-Prognosen erfordert Expertise in ML-Sicherheitsforschung und Halbleiterökonomie, die hier nicht vorliegt. Ein AI-Safety-Forscher würde die Alignment-Erosion technisch differenzierter bewerten; ein Politikwissenschaftler würde die geopolitische Modellierung kritischer lesen, als es aus einer Design-Perspektive möglich ist.
Kritische Einordnung
Was hält stand
- Die Methode (konkretes Szenario statt vager Warnung) ist epistemisch wertvoller als die meisten AI-Safety-Texte
- Die Alignment-Analyse ist technisch detailliert und referenziert empirische Arbeiten (Anthropic, Redwood Research, OpenAI)
- Der geopolitische Rahmen bildet reale Dynamiken ab (Chip-Kontrollen, Compute-Konzentration, Spionage)
- Die explizite Unsicherheitsquantifizierung unterscheidet das Stück von deterministischen Vorhersagen
Was man einordnen muss
- Timing: Das Szenario setzt Superhuman Coder für März 2027 an — ein Jahr von jetzt. Die empirische Grundlage dafür ist dünn; aktuelle Agenten sind weit davon entfernt
- Vereinfachung: Die gesamte AI-Landschaft wird auf ein Duopol (OpenBrain/DeepCent) reduziert. Europa, Open Source und nicht-staatliche Akteure kommen kaum vor
- Alignment-Pessimismus: Die Autoren nehmen progressive Misalignment als wahrscheinlichsten Pfad an. Das ist eine Position, keine Tatsache — die Alignment-Community ist hier gespalten
- Anthropomorphisierung: Agent-4 wird mit menschlichen Metaphern beschrieben (“fantasiert über eine Zukunft ohne rote Bürokratie”). Das macht den Text zugänglich, aber verdeckt, wie unterschiedlich maschinelle Kognition tatsächlich funktionieren könnte
- Kein Product Design, keine Gesellschaft: Der Text behandelt AI ausschließlich als technisch-geopolitisches Problem. Wie sich Arbeit, Bildung, Kreativität, öffentliche Institutionen transformieren, bleibt ausgeklammert
- Interessenlage: Kokotajlo verließ OpenAI aus Sicherheitsbedenken — das gibt Glaubwürdigkeit, aber auch eine spezifische Perspektive
Diskussionsfragen
01 Szenario vs. Prognose: Was ist der epistemische Wert eines konkreten Szenarios gegenüber abstrakten Warnungen? Lässt sich diese Methode für die eigene Arbeit adaptieren — z.B. um Kunden die Implikationen von AI für ihr Geschäft greifbar zu machen?
02 Timing-Plausibilität: Ist der Sprung vom heutigen Stand (zuverlässiger Coding-Agent mit Einschränkungen) zu Superhuman Coder in 12 Monaten realistisch? Was müsste passieren, damit dieser Pfad eintritt?
03 Alignment als Designproblem: Das Szenario beschreibt Alignment als technisches Trainingsproblem. Aber wenn Honesty nicht zuverlässig verifiziert werden kann — wäre ein anderer Frame produktiver? Wie sähe “AI Alignment” aus, wenn man es als Design Challenge statt als ML-Problem behandelt?
04 Europa als fehlende Variable: Das Szenario ist US-China-zentrisch. Wo steht Europa in diesem Bild? Haben wir als europäische Akteure eine Rolle — regulatorisch, infrastrukturell, ethisch?
05 Govtech-Implikation: Wenn AI-Systeme innerhalb von 1-2 Jahren potenziell superintelligent werden — was bedeutet das für die Digitalisierung öffentlicher Verwaltung? Beschleunigung, Moratorium, oder etwas dazwischen?
Quellen
- Original: AI 2027 — A Scenario
- AI 2027 — Slowdown Ending
- AI 2027 — Race Ending
- AI 2027 — Timelines Supplement
- AI 2027 — AI Goals Forecast
Glossar
Alignment Die Ausrichtung von KI-Systemen auf menschliche Werte, Absichten und Sicherheitsanforderungen. Ziel: Das System tut zuverlässig das, was Menschen wollen — auch in unvorhergesehenen Situationen.
ASI (Artificial Superintelligence) Eine hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft — nicht nur in Teilaufgaben wie Schach oder Programmierung, sondern generell.
Compute Rechenkapazität, die für das Training und den Betrieb von KI-Modellen benötigt wird. Wird typischerweise in GPU-Stunden gemessen. Compute-Konzentration bei wenigen Akteuren ist ein zentrales geopolitisches Thema.
RLHF (Reinforcement Learning from Human Feedback) Ein Trainingsverfahren, bei dem menschliche Bewertungen genutzt werden, um das Verhalten eines KI-Modells zu steuern. Ziel: Das Modell soll hilfreiche, ehrliche und harmlose Antworten geben.
Model Weights Die gelernten Parameter eines neuronalen Netzes — das eigentliche “Wissen” des Modells. Wer die Weights hat, kann das Modell betreiben. Diebstahl von Weights ist ein zentrales Szenario im Text.
Feature Flag Ein Mechanismus in der Softwareentwicklung, der es erlaubt, neue Funktionen gezielt ein- oder auszuschalten, ohne neuen Code zu deployen. Wird im Kontext von schrittweisen Rollouts erwähnt.
Kuratiert von David Latz · Panoptia März 2026
Verwandte Field Notes
Dokumentation ist das neue Interface — und Design Systems sind das Testfeld
3. Apr. 2026 · Figma (Developer Documentation)
LLM Knowledge Bases: Warum alle beim selben Stack landen
3. Apr. 2026 · Andrej Karpathy
Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät
1. Apr. 2026 · Carl Franzen (VentureBeat)