✳︎ Panoptia Labs

Field Notes

Beobachtungen, Einordnungen und Impulse.

David Latz · 06.04.2026

Kritische Theorie als Diagnosewerkzeug für KI-Systeme

KI-Ethik produziert immer mehr Leitlinien — und verändert trotzdem wenig. Die Kritische Theorie der Frankfurter Schule bietet ein Analysewerkzeug, das erklärt, warum. Vier Denkbewegungen, die fehlen.

Figma (Developer Documentation) · Kuratiert von David Latz · 03.04.2026

Dokumentation ist das neue Interface — und Design Systems sind das Testfeld

Figma veröffentlicht Guidelines für AI-kompatible Design-System-Dokumentation. Die Prinzipien — atomare Dateien, imperativ statt deskriptiv, Struktur als Routing — verändern, was Dokumentation überhaupt ist: nicht mehr Nachschlagewerk, sondern Steuerungsschicht.

Andrej Karpathy · Kuratiert von David Latz · 03.04.2026

LLM Knowledge Bases: Warum alle beim selben Stack landen

Andrej Karpathy beschreibt sein Setup für LLM-gestützte Wissensarbeit — und es klingt vertraut. Markdown, Git, Obsidian, ein LLM als Operator. Unabhängig voneinander entdecken Practitioner dieselbe Architektur. Das ist kein Zufall, sondern konvergente Evolution.

Carl Franzen (VentureBeat) · Kuratiert von David Latz · 01.04.2026

Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

Anthropic hat versehentlich den kompletten Source Code von Claude Code veröffentlicht — 512.000 Zeilen TypeScript. Die interessantere Frage ist nicht das Sicherheitsproblem, sondern was die Architektur über die Zukunft der Mensch-Agent-Kollaboration zeigt: ein dreischichtiges Gedächtnissystem, das sich selbst misstraut, ein Autonomie-Daemon für Nachtarbeit und ein Undercover-Modus, der die eigene Existenz verschleiert.

Casius Lee (Oracle) · Kuratiert von David Latz · 27.03.2026

Agent Memory: Why Your AI Has Amnesia and How to Fix It

AI-Agenten vergessen alles zwischen zwei Gesprächen. Der Artikel zeigt, warum größere Context Windows das Problem nicht lösen — und wie vier Gedächtnistypen aus der Kognitionswissenschaft die Grundlage für persistente Agent Memory bilden.

Cat Wu (Anthropic) · Kuratiert von David Latz · 21.03.2026

Product Management on the AI Exponential

Anthropics Head of Product für Claude Code beschreibt, wie exponentiell besser werdende Modelle das klassische PM-Playbook auflösen — und welche vier Shifts Teams brauchen, um auf der Kurve zu bleiben statt hinter ihr.

Andrej Karpathy (Latent Space / AI Engineer Summit) · Kuratiert von David Latz · 15.03.2026

Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

Andrej Karpathy beschreibt den Übergang von Code zu Prompts als Programmierparadigma. Das klingt nach Backend-Thema — hat aber massive Konsequenzen für jeden, der Interfaces gestaltet. Autonomy Sliders, eine dritte Consumer-Klasse und der ehrlichste Reality Check zum Thema Vibe Coding.

David Latz · 12.03.2026

Wenn Visualisierung billig wird, wird Klarheit teuer

Claude generiert jetzt interaktive Charts und Diagramme im Chat. Klingt nach Feature — ist ein Paradigmenwechsel. Nicht nur für Designer: Datengetriebene Kommunikation wird für jeden Wissensarbeiter zugänglich. Was das verändert, wen das überfordert und warum Design jetzt wichtiger wird, nicht weniger.

David Latz · 08.03.2026

Context Engineering: Ein Knowledge OS mit Claude aufbauen

Was passiert, wenn man aufhört zu prompten und anfängt, Kontext zu architektieren. Ein Praxisbericht über den Aufbau eines git-versionierten Knowledge OS — und was ich dabei über die Arbeit mit LLMs gelernt habe.

Adrien Laurent (IntuitionLabs) · Kuratiert von David Latz · 04.03.2026

Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Nicht bessere Prompts schreiben — sondern das Prompting selbst automatisieren. Systematische Übersicht über Meta-Prompting: von Chain-of-Thought bis DSPy, von Self-Critique bis Multi-Agent-Orchestrierung. Mit konkreten Benchmarks und Praxisempfehlungen.

Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean (Scott Alexander) · Kuratiert von David Latz · 01.03.2026

AI 2027: Ein Szenario

Detailszenario von Ex-OpenAI-Researcher und Forecasting-Experten: Monat für Monat von 2025 bis Ende 2027, von zuverlässigen Coding-Agenten bis zur Superintelligenz. Alignment scheitert progressiv, Geopolitik eskaliert. Zwei Enden: Verlangsamung oder Wettrüsten.

Benedict Evans · Kuratiert von David Latz · 01.03.2026

How Will OpenAI Compete?

OpenAI hat keine einzigartige Technologie, kein Moat und eine User-Basis mit flacher Engagement-Kurve. Benedict Evans stellt vier strategische Grundfragen — und zieht den Netscape-Vergleich: Der Early Mover bei Browsern hat verloren, weil der Wert woanders entstand.

Boris Tane (Baselime) · Kuratiert von Jan Musiedlak · 20.02.2026

The Software Development Lifecycle Is Dead

AI-Agenten haben den klassischen SDLC nicht beschleunigt — sie haben ihn aufgelöst. Aus sequenziellen Phasen wird ein enger Loop: Intent + Context → Agent builds → Observe → Repeat. Was bleibt: Context Engineering und Observability.

Matt Shumer (OthersideAI) · Kuratiert von David Latz · 09.02.2026

Something Big Is Happening

AI-Agenten erledigen jetzt mehrstündige Expert:innen-Aufgaben autonom. Die Fähigkeitskurve verdoppelt sich alle 4–7 Monate. Shumer vergleicht den Moment mit der 'das klingt übertrieben'-Phase von Covid — nur mit größerer Tragweite.