✳︎ Panoptia Labs

Glossar

Begriffe aus dem Feld.

98 Begriffe · 15 Artikel

3

3-Layer Context

Architektur-Pattern: Globaler Kontext (Identität, Konventionen) → Projektkontext (Domäne, Status) → Task-Kontext (spezifische Dateien, Commands). Verengt den Scope progressiv, ohne die Kohärenz zu verlieren.

Quelle: Context Engineering: Ein Knowledge OS mit Claude aufbauen

A

Adoption-Hürde

Der Aufwand, den eine Person oder Organisation investieren muss, um ein neues Werkzeug produktiv einzusetzen. Je höher die Hürde, desto langsamer die Verbreitung.

Quelle: Wenn Visualisierung billig wird, wird Klarheit teuer

Agent Memory

Persistenter, sich entwickelnder Zustand, der AI-Agenten über Sessions hinweg Kontext gibt. Nicht zu verwechseln mit dem Context Window (flüchtig) oder RAG (zustandslos).

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Agent-Compliance

Grad, in dem AI-generierter Output den Constraints eines Design Systems entspricht. Potenzielle DesignOps-Metrik für die Qualitätssicherung von Agent-Arbeit.

Quelle: 2026-04-22-designops-ai-agents

Agentische Zusammenarbeit

Arbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.

Quelle: Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten

Agents (als Consumer-Klasse)

Softwaresysteme, die autonom handeln, LLM-gesteuert navigieren und Aufgaben ausführen. Unterscheiden sich von menschlichen Nutzern (GUIs) und klassischen Computerprogrammen (APIs) durch menschenähnliches Verhalten bei computerartiger Ausführungsgeschwindigkeit.

Quelle: Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

AI Incident Database (AIID)

Öffentliche Datenbank dokumentierter AI-Sicherheitsvorfälle, kuratiert über Stanford HAI. Grundlage für die Incident-Kurve in der Visualisierung. Lizenziert unter CC BY.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

AI-Agent

Ein AI-Agent ist ein kuenstliche-Intelligenz-System, das eigenstaendig mehrstufige Aufgaben ausfuehrt — nicht nur einzelne Antworten gibt, sondern plant, handelt, Ergebnisse prueft und iteriert. Im Unterschied zu einem Chatbot kann ein Agent Tools nutzen, Code schreiben und ausfuehren, Dateien bearbeiten und mit externen Systemen interagieren.

Quelle: The Software Development Lifecycle Is Dead , Something Big Is Happening

Alignment

Die Ausrichtung von KI-Systemen auf menschliche Werte, Absichten und Sicherheitsanforderungen. Ziel: Das System tut zuverlässig das, was Menschen wollen — auch in unvorhergesehenen Situationen.

Quelle: AI 2027: Ein Szenario

Ambient AI

Hypothetisches Designmuster: AI-Systeme, die im Hintergrund arbeiten (Kontext aktualisieren, Konsistenz prüfen, Vorschläge vorbereiten) und nur bei relevanten Anlässen ins Zentrum der Aufmerksamkeit rücken. Gegenentwurf zum dominanten Chat-Paradigma.

Quelle: 2026-04-14-calm-technology-ai-age

APE (Automatic Prompt Engineer)

System, das automatisch einen Pool von Prompt-Kandidaten generiert, per Scoring-Funktion bewertet und die besten selektiert. Demonstriert, dass LLMs Prompts auf menschlichem Niveau oder besser entwickeln können.

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Arbeitsgedächtnismodell (Working Memory)

1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.

Quelle: 2026-04-10-drei-speicher-modell

ASI (Artificial Superintelligence)

Eine hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft — nicht nur in Teilaufgaben wie Schach oder Programmierung, sondern generell.

Quelle: AI 2027: Ein Szenario

Autonomy Slider

Design-Pattern, bei dem Nutzer den Automatisierungsgrad einer AI-Interaktion kontextabhängig steuern können — von minimaler Unterstützung bis zu voller Delegation.

Quelle: Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

C

Calm Technology

Designphilosophie, formuliert 1995 von Mark Weiser und John Seely Brown (Xerox PARC). Kernidee: Die besten Technologien erfordern minimale Aufmerksamkeit und bewegen sich fließend zwischen Peripherie und Zentrum der Wahrnehmung.

Quelle: 2026-04-14-calm-technology-ai-age

Chain-of-Thought (CoT)

Technik, bei der das Modell Schritt für Schritt denkt, bevor es antwortet. Verbessert die Genauigkeit bei komplexen Aufgaben — Mathematik, logisches Schließen, Analyse.

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

CLAUDE.md

Eine Instruktionsdatei auf Projektebene, die Claude Code beim Session-Start liest. Funktioniert als „System Prompt” für ein Repository — codiert Identität, Konventionen und Navigation.

Quelle: Context Engineering: Ein Knowledge OS mit Claude aufbauen

CoALA

2023er Princeton-Framework, das vier Gedächtnistypen für AI-Agenten definiert — Working, Procedural, Semantic, Episodic Memory — und damit die kognitionswissenschaftliche Tradition fortführt, die mit Atkinson/Shiffrin begann.

Quelle: 2026-04-10-drei-speicher-modell

CoALA (Cognitive Architectures for Language Agents)

Framework aus Princeton (2023), das vier Gedächtnistypen für AI-Agenten definiert — abgeleitet aus der kognitiven SOAR-Architektur. Lingua Franca des Feldes.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Collaboration Patterns

Wiederholbare Muster für die Zusammenarbeit in Teams — hier spezifisch für die Interaktion zwischen Menschen und AI-Agenten. Adressieren die Ebene zwischen individuellen Prompts und organisationaler Governance.

Quelle: Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten

Compiled Wiki (Karpathy)

Ein Markdown-Wiki, das ein LLM aus Rohdaten generiert und inkrementell pflegt — mit Zusammenfassungen, Kategorien und Backlinks. Read-heavy, mit dem LLM als Maintainer.

Quelle: LLM Knowledge Bases: Warum alle beim selben Stack landen

Compute

Rechenkapazität, die für das Training und den Betrieb von KI-Modellen benötigt wird. Wird typischerweise in GPU-Stunden gemessen. Compute-Konzentration bei wenigen Akteuren ist ein zentrales geopolitisches Thema.

Quelle: AI 2027: Ein Szenario

Context Builder

Tools wie Gitingest oder DeepWiki, die Informationen so aufbereiten, dass LLMs und Agents sie effizient verarbeiten können. Adressieren das Problem, dass bestehende Web-Formate (HTML) für AI-Consumption schlecht geeignet sind.

Quelle: Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

Context Drift

Phänomen, bei dem die interne Zustandsrepräsentation eines AI-Agenten über lange Sessions zunehmend von der Realität abweicht — ähnlich dem “Stille-Post-Effekt” in menschlicher Kommunikation.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

Context Engineering

Context Engineering bezeichnet die Faehigkeit, einem AI-Agenten den richtigen Kontext bereitzustellen — also alle Informationen, Regeln und Rahmenbedingungen, die er braucht, um eine Aufgabe gut zu loesen. Je besser der Kontext, desto besser das Ergebnis. In agent-getriebenen Workflows ersetzt diese Kompetenz zunehmend das manuelle Code-Schreiben als zentrale Faehigkeit von Engineers.

Quelle: The Software Development Lifecycle Is Dead

Continuous Deployment

Continuous Deployment bedeutet, dass Codeaenderungen automatisch und ohne manuellen Freigabeschritt in die Produktionsumgebung ausgeliefert werden — sobald alle automatisierten Tests bestanden sind. Im Zusammenspiel mit Feature Flags und Observability ermoeglicht es schnelle Iterationszyklen bei kontrollierbarem Risiko.

Quelle: The Software Development Lifecycle Is Dead

Convergent Evolution (hier: technologisch)

Unabhängige Akteure entwickeln dieselbe Lösung für dasselbe Problem — nicht durch Koordination, sondern durch identische Selektionsdrücke. In der Biologie: Flügel bei Vögeln und Fledermäusen. Hier: Markdown + Git + LLM bei verschiedenen Practitionern.

Quelle: LLM Knowledge Bases: Warum alle beim selben Stack landen

Cross-Tenant Failure

Sicherheitslücke in Multi-Mandanten-Systemen, bei der Daten oder Zugriffe zwischen verschiedenen Kunden (Tenants) durchsickern. Neue Kategorie ab 2024 — entsteht durch AI-spezifische Architekturmuster wie geteilte Modell-Instanzen oder Embedding-Stores.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

D

Daemon

Software-Prozess, der im Hintergrund läuft, ohne direkte Nutzerinteraktion. Im KAIROS-Kontext: ein Agent, der nach Sitzungsende eigenständig Aufgaben ausführt.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

Data Design

Gestaltung von Datenvisualisierungen und datengetriebenen Interfaces — von Charts über Dashboards bis zu interaktiven Explorations-Tools.

Quelle: Wenn Visualisierung billig wird, wird Klarheit teuer

Decay Function

Mathematische Funktion, die den Relevanz-Score einer Erinnerung über die Zeit reduziert — imitiert biologisches Vergessen. Semantische Ähnlichkeit × exponentieller Zeitverfall.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

DesignOps (Design Operations)

Optimierung von Prozessen, Werkzeugen und Strukturen, die Designteams benötigen, um effektiv und skalierbar zu arbeiten. Umfasst People, Process und Craft/Tool Operations.

Quelle: 2026-04-22-designops-ai-agents

Dialektik der Aufklärung

Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen — in Herrschaft, Normierung, Unterdrückung — wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Distribution

Der Zugang zu Nutzern über bestehende Kanäle und Produkte. Google erreicht Milliarden über die Suche, Meta über Social Media — OpenAI hat keinen vergleichbaren Kanal und muss Nutzer direkt akquirieren.

Quelle: How Will OpenAI Compete?

Drei-Speicher-Modell (Atkinson-Shiffrin-Modell)

1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.

Quelle: 2026-04-10-drei-speicher-modell

DSPy (Declarative Self-improving Python)

Framework, das Prompt-Pipelines als deklarative Programme behandelt und zur Compile-Zeit automatisch optimiert. Ersetzt manuelles Prompt-Tuning durch systematische Optimierung.

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Dual Interface

Das Muster, zwei Dokumentationsschichten parallel zu pflegen — eine für menschliche Entwickler (lesbar, kontextuell), eine für AI-Agenten (parsbar, imperativ, granular).

Quelle: 2026-04-22-designops-ai-agents

E

Emanzipation

Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung — als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Engagement-Kurve

Grafische Darstellung, wie intensiv und häufig Nutzer ein Produkt verwenden. Eine „flache” Kurve bedeutet: viele Nutzer, aber geringe Nutzungstiefe — die meisten verwenden das Produkt selten und oberflächlich.

Quelle: How Will OpenAI Compete?

Episodic Memory

Protokolle vergangener Erfahrungen: Konversationslogs, Aktionssequenzen, Few-Shot-Beispiele. Das “autobiografische Gedächtnis” des Agenten.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Exponentialkurve

Wachstumsmuster, bei dem sich die Leistungsfähigkeit in regelmäßigen Intervallen verdoppelt statt linear zuzunehmen. Im AI-Kontext: Die Fähigkeit von Modellen wächst schneller, als menschliche Planung typischerweise antizipiert.

Quelle: Product Management on the AI Exponential

F

Feature Flag

Ein Feature Flag ist ein Schalter im Code, mit dem neue Funktionen gezielt ein- oder ausgeschaltet werden koennen — ohne den Code neu auszuliefern. Teams nutzen Feature Flags, um neue Features erst fuer einen kleinen Nutzerkreis freizuschalten und bei Problemen sofort zurueckzurollen. In agent-getriebenen Workflows sind sie ein zentrales Sicherheitsnetz fuer Continuous Deployment.

Quelle: The Software Development Lifecycle Is Dead

Fractional (Engagement)

Ein Fractional Engagement bedeutet, dass ein Experte oder ein Team nicht Vollzeit fuer einen Kunden arbeitet, sondern einen definierten Anteil seiner Kapazitaet einbringt — etwa 2 Tage pro Woche. Typisch fuer Beratung, Design und Strategie. Wenn AI-Agenten Expert:innen-Aufgaben uebernehmen, veraendert sich das Pricing und Scoping solcher Engagements grundlegend.

Quelle: Something Big Is Happening

Fractional Design Lab

Organisationsform, in der mehrere Fractional-Design-Leader ein Netzwerk bilden und Infrastruktur teilen — Design-Systeme, Knowledge-Base, Methoden, AI-Tooling. Skaliert das Modell über den Einzelnen hinaus.

Quelle: 2026-04-24-fractional-design-leadership

Fractional Design Leadership

Strategische Designführung im Fractional-Modell: Design-System-Governance, Teamaufbau, DesignOps, Produktdesign-Strategie — auf Teilzeitbasis als eingebettete Führungsrolle.

Quelle: 2026-04-24-fractional-design-leadership

Fractional Executive

Führungskraft, die auf Teilzeitbasis für mehrere Unternehmen gleichzeitig arbeitet. Übernimmt strategische Verantwortung, ist aber nicht festangestellt. Typisch: 1–3 Tage pro Woche, selbstständig.

Quelle: 2026-04-24-fractional-design-leadership

Frankfurter Schule / New School

Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung — zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

G

Greenfield

Ein Greenfield-Projekt startet ohne bestehenden Code, ohne Altlasten und ohne technische Schulden — auf der gruenen Wiese. Im Gegensatz dazu steht Brownfield, wo man mit existierender Software arbeitet. Viele Thesen zu agent-getriebener Entwicklung gelten primaer fuer Greenfield-Szenarien; in Brownfield-Umgebungen mit gewachsener Codebasis sind die Herausforderungen andere.

Quelle: The Software Development Lifecycle Is Dead

I

Immanente Kritik

Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Information Literacy

Die Fähigkeit, Informationen zu finden, zu bewerten und zu kommunizieren. Hier: die Fähigkeit, Daten visuell zu interpretieren und darzustellen.

Quelle: Wenn Visualisierung billig wird, wird Klarheit teuer

J

Jagged Intelligence

Phänomen, bei dem LLMs unintuitive Fähigkeitsverteilungen zeigen: brillant bei komplexen Aufgaben, unzuverlässig bei scheinbar einfachen. Im Gegensatz zu menschlicher Kompetenzentwicklung, wo Fähigkeiten korreliert wachsen.

Quelle: Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

K

KAIROS

Interner Codename für eine unveröffentlichte Claude-Code-Funktion: ein Hintergrund-Daemon, der nach Sitzungsende autonom weiterarbeitet, inklusive nächtlicher Gedächtniskonsolidierung.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

KI-Ethik

Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Knowledge OS

Ein strukturiertes, git-versioniertes Wissens-Repository, das sowohl menschliches Denken als auch LLM-Kontext bedient. Reines Markdown, tool-agnostisch, mit geschichteter Kontextarchitektur.

Quelle: Context Engineering: Ein Knowledge OS mit Claude aufbauen , LLM Knowledge Bases: Warum alle beim selben Stack landen

Kommunikatives Handeln

Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Kontextarchitektur

Gestaltung der Informationsumgebung, in der AI-Agenten operieren — Dateistrukturen, Dokumentationsformate, Konventionen, Retrieval-Pfade. Im DesignOps-Kontext: die Infrastruktur, die Agenten befähigt, mit Design-Systemen zu arbeiten.

Quelle: 2026-04-22-designops-ai-agents

Kritische Theorie

Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

L

Levels of Processing

Alternatives Modell, das argumentiert, Verarbeitungstiefe — nicht Speicherort — bestimme die Behaltensleistung. Tiefe Verarbeitung erzeugt stabilere Erinnerungen als oberflächliche.

Quelle: 2026-04-10-drei-speicher-modell

M

Meta-Prompt

Ein Prompt, der nicht direkt eine Aufgabe löst, sondern andere Prompts generiert, bewertet oder optimiert. Verschiebt die Arbeit eine Abstraktionsebene nach oben — vom Inhalt zur Struktur.

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

METR

METR (Model Evaluation and Threat Research) ist eine Organisation, die systematisch misst, wie lange reale Aufgaben dauern, die AI-Modelle eigenstaendig — ohne menschliche Hilfe — loesen koennen. Die METR-Daten zeigen eine sich beschleunigende Verdopplungsrate der AI-Faehigkeiten und sind eine der wenigen quantitativen Quellen fuer den Leistungsfortschritt von AI-Agenten.

Quelle: Something Big Is Happening

METR (Model Evaluation & Threat Research)

Unabhängige Forschungsorganisation, die AI-Modelle auf ihre Fähigkeiten und Risiken evaluiert. Liefert standardisierte Benchmarks für Aufgaben-Komplexität und Agent-Performance.

Quelle: Product Management on the AI Exponential

Moat

Strategischer Wettbewerbsvorteil, der ein Unternehmen dauerhaft vor Konkurrenz schützt — wie ein Burggraben. Bei AI-Modellen umstritten: Wenn Modelle austauschbar sind, fehlt der Moat.

Quelle: How Will OpenAI Compete?

Model Weights

Die gelernten Parameter eines neuronalen Netzes — das eigentliche “Wissen” des Modells. Wer die Weights hat, kann das Modell betreiben. Diebstahl von Weights ist ein zentrales Szenario im Text.

Quelle: AI 2027: Ein Szenario

O

Observability

Observability beschreibt die Faehigkeit, den inneren Zustand eines Systems von aussen zu verstehen — durch Logs, Metriken und Traces. Im Kontext agent-getriebener Entwicklung wird Observability zum zentralen Feedback-Mechanismus: Statt dass Menschen Code reviewen, ueberwachen automatisierte Systeme, ob die ausgelieferte Software tut, was sie soll.

Quelle: The Software Development Lifecycle Is Dead

P

PARA (Projects, Areas, Resources, Archives)

Organisationsmethode von Tiago Forte für persönliches Wissensmanagement. Vier Kategorien nach Handlungsrelevanz, nicht nach Thema. Grundlage vieler Knowledge-Management-Systeme, die jetzt mit LLM-Agenten kombiniert werden.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Peripherie / Zentrum

Die zwei Modi der Aufmerksamkeit in Weiser/Browns Modell. Peripherie = unbewusste Wahrnehmung (informiert ohne kognitive Kosten). Zentrum = bewusste Fokussierung (erfordert aktive Aufmerksamkeit). Gute Technologie wechselt nahtlos zwischen beiden.

Quelle: 2026-04-14-calm-technology-ai-age

Platform Play

Strategischer Ansatz, bei dem ein Unternehmen seine Technologie als Plattform öffnet, auf der andere aufbauen können. Beispiele: App Store (Apple), GPT Store (OpenAI). Ziel: Wertschöpfung durch ein Ökosystem statt durch ein einzelnes Produkt.

Quelle: How Will OpenAI Compete?

Prinzipien-Paradox

Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Procedural Memory

Codierte Verhaltensregeln: System-Prompts, Tool-Definitionen, Entscheidungslogik. Das “Muskelgedächtnis” eines Agenten.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Product Thinker / Product Builder

Hypothetische Rollenprofile aus einer stärkeren Generalisierung heutiger Product-Rollen (PM, PD, Dev). Thinker = Strategie, Framing, Entscheidung. Builder = Umsetzung, Prototyping, Iteration.

Quelle: Wenn Visualisierung billig wird, wird Klarheit teuer

Pull Request

Ein Pull Request (PR) ist ein Vorschlag, Codeaenderungen in ein gemeinsames Projekt zu uebernehmen. Andere Teammitglieder pruefen den Code, geben Feedback und genehmigen die Aenderung. In klassischen Teams ist der PR-Review ein zentraler Qualitaetssicherungsschritt — in agent-getriebenen Workflows wird er zunehmend als Engpass diskutiert, wenn Agenten hunderte PRs taeglich erzeugen.

Quelle: The Software Development Lifecycle Is Dead

R

Rehearsal (Wiederholung)

Kontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen — nur Letzteres führt zuverlässig zur Langzeitspeicherung.

Quelle: 2026-04-10-drei-speicher-modell

Release-Hygiene

Gesamtheit der Praktiken, die sicherstellen, dass Software-Artefakte beim Deployment keine unbeabsichtigten Inhalte enthalten (Source Maps, Debug-Symbole, interne Referenzen). Im Kontext: das schwächste Glied in Anthropics Sicherheitsarchitektur.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

RLHF (Reinforcement Learning from Human Feedback)

Ein Trainingsverfahren, bei dem menschliche Bewertungen genutzt werden, um das Verhalten eines KI-Modells zu steuern. Ziel: Das Modell soll hilfreiche, ehrliche und harmlose Antworten geben.

Quelle: AI 2027: Ein Szenario

Runtime Safety vs. Release Safety

Zwei verschiedene Sicherheitsdisziplinen: Runtime Safety schützt gegen Angriffe während der Programmausführung (Prompt Injection, Code Injection). Release Safety verhindert, dass beim Deployment vertrauliche Artefakte veröffentlicht werden. Die meisten AI-Safety-Investitionen fließen in Runtime — die meisten Incidents passieren im Release.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

S

SDLC (Software Development Lifecycle)

Der Software Development Lifecycle beschreibt die klassische Abfolge von Phasen in der Softwareentwicklung: Anforderungen erfassen, System entwerfen, Code schreiben, testen, pruefen, ausliefern und ueberwachen. Traditionell laufen diese Schritte nacheinander ab, jede Phase hat klare Uebergabepunkte. In der Praxis vieler Teams loesen sich diese Phasen zunehmend auf — insbesondere wenn AI-Agenten grosse Teile des Zyklus gleichzeitig ausfuehren.

Quelle: The Software Development Lifecycle Is Dead

Self-Improvement

Die Fähigkeit eines KI-Systems, an seiner eigenen Verbesserung mitzuwirken — etwa durch Debugging des eigenen Trainings oder Management des eigenen Deployments. GPT-5.3 Codex gilt als erstes dokumentiertes Beispiel.

Quelle: Something Big Is Happening

Self-Refine

Iterativer Prozess: Das Modell generiert eine Antwort, kritisiert sie, und produziert eine verbesserte Version. Wiederholbar bis zum Qualitätsschwellenwert.

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Semantic Memory

Akkumuliertes Faktenwissen: Nutzerpräferenzen, extrahierte Fakten, Knowledge Bases. Wächst über die Zeit.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Sensorisches Register

Erste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.

Quelle: 2026-04-10-drei-speicher-modell

Session-basierte Arbeit

Arbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.

Quelle: Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten

Side Quest

Selbstgesteuertes Experiment außerhalb der offiziellen Produkt-Roadmap. Dient der explorativen Innovation in Umgebungen mit hoher Unsicherheit über zukünftige Machbarkeit.

Quelle: Product Management on the AI Exponential

Software 3.0

Karpathys Begriff für das dritte Software-Paradigma: natürliche Sprache als Programmiersprache. Prompts ersetzen Code (1.0) und trainierte Weights (2.0) als primäre Programmierschnittstelle.

Quelle: Software 3.0 — Was Karpathys Thesen für Interface Design bedeuten

Source Map (.map)

Debug-Datei, die kompilierten/minifizierten JavaScript-Code auf den originalen TypeScript-Quellcode zurückmappt. In Produktions-Releases nicht vorgesehen — ihre Veröffentlichung legt den vollständigen Quellcode offen.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

Sprint Planning

Sprint Planning ist ein Ritual aus der agilen Softwareentwicklung (Scrum), bei dem ein Team plant, welche Aufgaben es in den naechsten ein bis vier Wochen umsetzen will. Die Aufgaben werden geschaetzt, priorisiert und zugewiesen. In agent-getriebenen Workflows verliert Sprint Planning an Bedeutung, weil der Zyklus von Idee zu Auslieferung drastisch verkuerzt wird.

Quelle: The Software Development Lifecycle Is Dead

Strukturierter Kontext

Maschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) — als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.

Quelle: Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten

System Prompting

Instruktionen, die einem Sprachmodell vor der eigentlichen Nutzeranfrage mitgegeben werden, um Verhalten, Tonalität und Fähigkeiten zu steuern. Weniger System-Prompting bei besseren Modellen deutet darauf hin, dass das Modell mehr Kontext eigenständig erschließt.

Quelle: Product Management on the AI Exponential

T

TDD (Test-Driven Development)

Test-Driven Development ist eine Entwicklungsmethode, bei der zuerst automatisierte Tests geschrieben werden und dann der Code, der diese Tests bestehen soll. Der Zyklus: Test schreiben, Code schreiben, Test bestehen, Code aufraumen. Bei AI-Agenten wird TDD zunehmend zum Standardverhalten — der Agent generiert Tests und Code gleichzeitig.

Quelle: The Software Development Lifecycle Is Dead

Technischer Code

Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind — noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale” Designentscheidungen politische und soziale Konsequenzen haben.

Quelle: Kritische Theorie als Diagnosewerkzeug für KI-Systeme

TextGrad

Methode, die Prompt-Optimierung wie Gradient Descent behandelt — mit natürlichsprachlichem Feedback statt numerischer Scores. Publiziert in Nature (2025).

Quelle: Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Tiago Forte

Autor von “Building a Second Brain” und Entwickler der PARA-Methode. Einer der einflussreichsten Denker im Bereich Personal Knowledge Management — sein Framework wird zunehmend als Basis für AI-gestützte Wissenssysteme adaptiert.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Tight Loop

Ein Tight Loop beschreibt einen sehr kurzen, eng gekoppelten Regelkreis zwischen Aktion und Feedback. Im Kontext agent-getriebener Softwareentwicklung meint es den Zyklus: Absicht formulieren, Agent baut, Ergebnis beobachten, anpassen — ohne die langen Wartezeiten klassischer Entwicklungsprozesse.

Quelle: The Software Development Lifecycle Is Dead

Trust-Modelle

Entscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.

Quelle: Das agile Manifest braucht ein Update — für die Arbeit mit AI-Agenten

U

Ubiquitous Computing

Von Mark Weiser geprägter Begriff (1991) für allgegenwärtige, unsichtbare Computertechnologie. Der theoretische Rahmen, aus dem Calm Technology hervorging.

Quelle: 2026-04-14-calm-technology-ai-age

Undercover Mode

Funktion in Claude Code, die bei Beiträgen zu externen Repositories alle Hinweise auf Anthropics interne Infrastruktur aus Commits entfernt.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

V

Verdopplungsrate

Das Zeitintervall, in dem sich die messbaren Fähigkeiten von KI-Modellen verdoppeln. Laut METR-Daten aktuell bei etwa 7 Monaten, mit Tendenz Richtung 4 Monate.

Quelle: Something Big Is Happening

W

Working Memory

Der aktuelle Konversationskontext — was der Agent gerade “denkt”. Entspricht dem Context Window. Schnell, aber flüchtig.

Quelle: Agent Memory: Why Your AI Has Amnesia and How to Fix It

Y

YoY-Wachstum (Year-over-Year)

Prozentuale Veränderung eines Werts im Vergleich zum Vorjahr. Bei AI-Incidents: 149 (2023) → 233 (2024) = +56,4% YoY. Zeigt die Beschleunigung unabhängig von absoluten Zahlen.

Quelle: Claude Codes Source Code geleakt — Was die Architektur über die Zukunft von AI-Agents verrät

← Alle Field Notes