David Latz · 06.04.2026
KI-Ethik produziert immer mehr Leitlinien — und verändert trotzdem wenig. Die Kritische Theorie der Frankfurter Schule bietet ein Analysewerkzeug, das erklärt, warum. Vier Denkbewegungen, die fehlen.
Figma (Developer Documentation) · Kuratiert von David Latz · 03.04.2026
Figma veröffentlicht Guidelines für AI-kompatible Design-System-Dokumentation. Die Prinzipien — atomare Dateien, imperativ statt deskriptiv, Struktur als Routing — verändern, was Dokumentation überhaupt ist: nicht mehr Nachschlagewerk, sondern Steuerungsschicht.
Andrej Karpathy · Kuratiert von David Latz · 03.04.2026
Andrej Karpathy beschreibt sein Setup für LLM-gestützte Wissensarbeit — und es klingt vertraut. Markdown, Git, Obsidian, ein LLM als Operator. Unabhängig voneinander entdecken Practitioner dieselbe Architektur. Das ist kein Zufall, sondern konvergente Evolution.
Carl Franzen (VentureBeat) · Kuratiert von David Latz · 01.04.2026
Anthropic hat versehentlich den kompletten Source Code von Claude Code veröffentlicht — 512.000 Zeilen TypeScript. Die interessantere Frage ist nicht das Sicherheitsproblem, sondern was die Architektur über die Zukunft der Mensch-Agent-Kollaboration zeigt: ein dreischichtiges Gedächtnissystem, das sich selbst misstraut, ein Autonomie-Daemon für Nachtarbeit und ein Undercover-Modus, der die eigene Existenz verschleiert.
Casius Lee (Oracle) · Kuratiert von David Latz · 27.03.2026
AI-Agenten vergessen alles zwischen zwei Gesprächen. Der Artikel zeigt, warum größere Context Windows das Problem nicht lösen — und wie vier Gedächtnistypen aus der Kognitionswissenschaft die Grundlage für persistente Agent Memory bilden.
Cat Wu (Anthropic) · Kuratiert von David Latz · 21.03.2026
Anthropics Head of Product für Claude Code beschreibt, wie exponentiell besser werdende Modelle das klassische PM-Playbook auflösen — und welche vier Shifts Teams brauchen, um auf der Kurve zu bleiben statt hinter ihr.
David Latz · 19.03.2026
Hunderte individuelle AI-Setups, aber kein geteilter Common Sense. Was fehlt: ein Playbook für agentische Zusammenarbeit in kleinen Teams.
Andrej Karpathy (Latent Space / AI Engineer Summit) · Kuratiert von David Latz · 15.03.2026
Andrej Karpathy beschreibt den Übergang von Code zu Prompts als Programmierparadigma. Das klingt nach Backend-Thema — hat aber massive Konsequenzen für jeden, der Interfaces gestaltet. Autonomy Sliders, eine dritte Consumer-Klasse und der ehrlichste Reality Check zum Thema Vibe Coding.
David Latz · 12.03.2026
Claude generiert jetzt interaktive Charts und Diagramme im Chat. Klingt nach Feature — ist ein Paradigmenwechsel. Nicht nur für Designer: Datengetriebene Kommunikation wird für jeden Wissensarbeiter zugänglich. Was das verändert, wen das überfordert und warum Design jetzt wichtiger wird, nicht weniger.
David Latz · 08.03.2026
Was passiert, wenn man aufhört zu prompten und anfängt, Kontext zu architektieren. Ein Praxisbericht über den Aufbau eines git-versionierten Knowledge OS — und was ich dabei über die Arbeit mit LLMs gelernt habe.
Adrien Laurent (IntuitionLabs) · Kuratiert von David Latz · 04.03.2026
Nicht bessere Prompts schreiben — sondern das Prompting selbst automatisieren. Systematische Übersicht über Meta-Prompting: von Chain-of-Thought bis DSPy, von Self-Critique bis Multi-Agent-Orchestrierung. Mit konkreten Benchmarks und Praxisempfehlungen.
Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean (Scott Alexander) · Kuratiert von David Latz · 01.03.2026
Detailszenario von Ex-OpenAI-Researcher und Forecasting-Experten: Monat für Monat von 2025 bis Ende 2027, von zuverlässigen Coding-Agenten bis zur Superintelligenz. Alignment scheitert progressiv, Geopolitik eskaliert. Zwei Enden: Verlangsamung oder Wettrüsten.
Benedict Evans · Kuratiert von David Latz · 01.03.2026
OpenAI hat keine einzigartige Technologie, kein Moat und eine User-Basis mit flacher Engagement-Kurve. Benedict Evans stellt vier strategische Grundfragen — und zieht den Netscape-Vergleich: Der Early Mover bei Browsern hat verloren, weil der Wert woanders entstand.
Boris Tane (Baselime) · Kuratiert von Jan Musiedlak · 20.02.2026
AI-Agenten haben den klassischen SDLC nicht beschleunigt — sie haben ihn aufgelöst. Aus sequenziellen Phasen wird ein enger Loop: Intent + Context → Agent builds → Observe → Repeat. Was bleibt: Context Engineering und Observability.
Matt Shumer (OthersideAI) · Kuratiert von David Latz · 09.02.2026
AI-Agenten erledigen jetzt mehrstündige Expert:innen-Aufgaben autonom. Die Fähigkeitskurve verdoppelt sich alle 4–7 Monate. Shumer vergleicht den Moment mit der 'das klingt übertrieben'-Phase von Covid — nur mit größerer Tragweite.