Risk-by-Design: Thresholds, Eskalation, Auditability

Sobald KI mehr tut als zu antworten, brauchst du Risk-by-Design.
Der Kern ist simpel:
Definiere, wann ein System handeln darf und wann es eskalieren muss.

Viele Unternehmen investieren viel in Modelle und Plattformen, aber vergessen die entscheidende Zeile in ihrer Roadmap: Schwellenwerte.
Schwellenwerte (Thresholds) verbinden Modellverhalten mit operativer Verantwortung. Sie beschreiben, ab welcher Confidence oder unter welchen Bedingungen eine Aktion erlaubt ist.

Beispiel:
Ein System darf eine Priorisierung vorschlagen, aber wenn Daten widersprüchlich sind oder der potenzielle Schaden hoch ist, muss es eskalieren. Ohne solche Regeln bleibt Verhalten situativ und nicht steuerbar.

Risk-by-Design besteht aus vier Bausteinen:
1) Thresholds: act vs. escalate

  • Was ist „Unsicherheit“? (z. B. fehlende Daten, widersprüchliche Signale)
  • Was ist „Risiko“? (z. B. Kosten, Service-Level, Compliance)
  • Welche Schwellen trennen Autonomie von Eskalation?

2) Eskalation: Wer entscheidet bei Unsicherheit?
Eskalation ist nur dann wirksam, wenn sie operationalisiert ist:

  • An wen geht sie?
  • In welcher Form?
  • Mit welchem Kontext?

Ein gutes Eskalationspaket enthält:

  • Kontext (Was ist passiert?)
  • Auswirkungen (Was steht auf dem Spiel?)
  • Optionen (Welche Alternativen gibt es?)
  • Empfehlung (Was würde das System tun?)

3) Override & Stop Mechanisms
Ein System darf nur dann autonom handeln, wenn es stopbar ist.

  • Wer darf stoppen?
  • Wie wird zurückgerollt?
  • Wie wird verhindert, dass ein Agent wiederholt dieselben Fehler macht?

Overrides sind kein Zeichen von Misstrauen, sondern die Voraussetzung für produktive Autonomie.

4) Auditability / Nachvollziehbarkeit

In Enterprise-Umgebungen reicht „das Modell sagt es“ nicht. Akzeptanz entsteht, wenn Entscheidungen nachvollziehbar sind: Datenbasis, Regeln/Policies, Alternativen, sowie ein Log der Aktionen. Auditability ist nicht nur Compliance, sondern ein Trust-Mechanismus.
Ein typischer Fehler ist, Risk-by-Design als großen Governance-Block zu planen. Besser ist ein inkrementeller Ansatz:

  • Beginne mit einem Use Case
  • definiere ein kleines Set an Thresholds, einen Eskalationsweg und Logging.
  • Lerne daraus.
  • Erweitere die Regeln, wenn Autonomie wächst.

Wichtig ist dabei die Unterscheidung zwischen „Suggestion“ und „Action“. Vorschläge benötigen weniger Leitplanken. Aktionen benötigen zwingend Thresholds, Eskalation und Auditability.

Fazit Teil 2:
Risk-by-Design ist die operative Übersetzung von „Responsible AI“. Ohne Schwellenwerte, Eskalation, Overrides und Auditability bleibt Autonomie entweder Pilot oder Risiko.

Diskussionsfrage: Wie definiert ihr heute „Unsicherheit“, und wer entscheidet, wenn sie auftritt?