← Einblicke | 2025-08-20

Die Auditabilitätslücke

Sie können eine wahrscheinliche Entscheidung nicht zuverlässig prüfen. Warum Compliance deterministisches Denken erfordert.

Von Bereitschaft zu Rechenschaftspflicht

Anfang August traten die ersten Governance-Verpflichtungen für General-Purpose AI (GPAI) Modelle unter dem EU AI Act in ihre erste Anwendungsphase ein.

Über einen Großteil der letzten achtzehn Monate bereitete sich die Industrie in Erwartung auf vertraute Weise vor. Beratungsfirmen verkauften „Readiness Frameworks“, Rechtsteams entwarfen Haftungsausschlüsse und Anbieter kennzeichneten Präsentationsfolien als „konform“. Aber da die Anwendbarkeit begonnen hat und die aufsichtsrechtliche Prüfung zunimmt, tritt eine kältere Realität zutage.

Kurzes Beispiel für ein regulatorisches Audit: Ein Finanzinstitut wird gebeten zu erklären, warum eine Transaktion sechs Monate zuvor markiert und eingefroren wurde. Die Modellversion, die die Entscheidung produzierte, ist nicht mehr im Einsatz. Der Prompt hatte sich geändert. Die ursprüngliche Inferenz konnte nicht wiederholt werden. Was bleibt, ist ein Wahrscheinlichkeitswert ohne verteidigbaren kausalen Pfad.

Compliance bedeutet nicht, Sicherheit zu versprechen. Es bedeutet, sie zu demonstrieren.

Und probabilistische Entscheidungen sind nicht zuverlässig auditierbar.

Das Black-Box-Problem

Ein fundamentales Problem, dem sich Unternehmens-KI heute gegenübersieht, ist Rechenschaftspflicht.

Moderne Large Language Models (LLMs) sind konnektionistische Systeme. Sie funktionieren, indem sie statistische Korrelationen über Milliarden von Parametern lernen. Wenn ein LLM eine Ausgabe produziert, führt es keine formal definierte Regel aus oder durchläuft eine explizite Kette symbolischer Logik. Es zieht Stichproben aus einer Wahrscheinlichkeitsverteilung, um das wahrscheinlichste nächste Token basierend auf seinem Kontext zu generieren.

Wenn ein LLM gefragt wird, warum es eine bestimmte Ausgabe produziert hat, liefert es keinen ausführbaren Pfad des logischen Denkens zurück. Es generiert eine neue probabilistische Antwort, die einer Erklärung ähnelt. Diese Unterscheidung ist kritisch.

Das Auditieren der Trainingsdaten eines Modells, das Validieren seiner Bewertungsmetriken oder die Anwendung von Post-hoc-Erklärbarkeitstechniken ist nicht gleichbedeutend mit dem Auditieren einer spezifischen Entscheidung, die zu einem bestimmten Zeitpunkt getroffen wurde. Modell-Governance und statistische Transparenz bieten für sich genommen keine Auditierbarkeit auf Entscheidungsebene.

In kreativen oder explorativen Kontexten ist dieses Verhalten akzeptabel. In regulierten Umgebungen wie Finanzen, Verteidigung oder kritischer Infrastruktur führt es inakzeptable Unsicherheit ein.

Stellen Sie sich vor, Sie stehen vor einer Regulierungsbehörde oder einem Gericht und erklären, dass ein Kredit abgelehnt, eine Sicherheitsfreigabe widerrufen oder eine Lieferkettenroute umgeleitet wurde, weil „die Embeddings im hochdimensionalen Raum konvergierten“.

Diese Erklärung mag technisch korrekt sein, aber sie ist operativ oder rechtlich nicht ausreichend.

Die Glass-Box-Lösung: Neurosymbolisches Hybrides Engineering

Bei Evodant glauben wir, dass die Adressierung des Black-Box-Problems keine größeren Modelle, besseres Prompting oder zunehmend ausgefeilte Erklärungsschichten erfordert. Es erfordert eine bewusste Änderung der Systemarchitektur.

Wir plädieren für einen neurosymbolischen hybriden Ansatz.

Frühe neurosymbolische Systeme schufen eine wichtige Grundlage, indem sie Wahrnehmung von logischem Denken trennten. In der Praxis erfordern Hochsicherheitsumgebungen jedoch mehr als eine einfache Übergabe zwischen neuronalen und symbolischen Komponenten. Sie erfordern eine Architektur, die deterministisches Denken mit Richtliniendurchsetzung, Unsicherheitsbehandlung und Autorisierungskontrollen über den gesamten Entscheidungslebenszyklus integriert.

Eine neurosymbolische hybride Architektur bewahrt die zentrale Trennung der Zuständigkeiten und erweitert sie gleichzeitig, um reale operative und regulatorische Einschränkungen zu erfüllen.

1. Neuronale Netzwerke (Die Wahrnehmungsschicht)

Neuronale Systeme zeichnen sich durch die Verarbeitung unstrukturierter Eingaben aus: Lesen von Dokumenten, Interpretieren von Sensordaten, Erkennen von Mustern in Bildern oder Transkribieren von Audio. Ihre Rolle ist es, die Umgebung zu wahrzunehmen und Mehrdeutigkeit in strukturierte Repräsentationen zu transformieren.

Diese Schicht kann Konfidenzwerte, Klassifikationen oder extrahierte Fakten produzieren, aber sie trifft keine Entscheidungen. Ihre Ausgaben werden als Eingaben für nachgelagertes logisches Denken behandelt, nicht als autoritative Schlussfolgerungen.

2. Symbolisches Logisches Denken (Der deterministische Kern)

Sobald Informationen strukturiert sind, werden sie an eine deterministische, regelbasierte Logikschicht weitergegeben. Diese Schicht operiert mit expliziter Logik: wenn A und B, dann C.

Geschäftsregeln, regulatorische Einschränkungen und Missionslogik sind explizit kodiert. Entscheidungspfade sind aufzählbar, wiederholbar und inspizierbar. Bei gleichen strukturierten Eingaben und Regeln wird das System dasselbe Ergebnis produzieren.

Dieser deterministische Kern ist der Ort, an dem Rechenschaftspflicht durchgesetzt wird.

3. Hybride Kontrollschichten (Richtlinie, Unsicherheit und Autorisierung)

In einem neurosymbolischen hybriden System wird deterministisches Denken durch zusätzliche Kontrollschichten ergänzt, aber nicht ersetzt, die reale Komplexität verwalten:

  • Richtlinienbewertung regelt, welche Regeln unter welchen operativen Kontexten gelten.
  • Unsicherheitsbehandlung stellt sicher, dass mehrdeutige oder unsichere Eingaben aufgedeckt, eingeschränkt oder eskaliert werden, anstatt stillschweigend darauf zu reagieren.
  • Autorisierungskontrollen setzen durch, wer oder was berechtigt ist, Handlungen mit hohen Konsequenzen auszulösen oder zu genehmigen.

Diese Komponenten sind explizit, auditierbar und konfigurierbar. Sie führen keine probabilistische Entscheidungsfindung am Ausführungspunkt ein. Stattdessen schränken sie ein und steuern, wie deterministische Logik angewendet wird.

4. Erklärbarkeit und Ausführung

Da Entscheidungen durch explizite Regeln getroffen werden, die auf strukturierten Eingaben unter definierten Richtlinien operieren, muss die Begründung für ein Ergebnis nicht nachträglich abgeleitet werden.

Das System kann identifizieren:

  • Die spezifischen verwendeten Beweise
  • Die bewerteten Regeln und Richtlinien
  • Den Autorisierungsstatus zum Zeitpunkt der Ausführung
  • Die Reihenfolge, in der Bedingungen angewendet wurden

Entscheidungsbäume können wiederholt werden, und Governance-Einschränkungen können formal verifiziert werden, dass sie zum Zeitpunkt der Entscheidung durchgesetzt wurden.

Dies produziert eine echte Glass-Box-Architektur.

Engineering für Rechenschaftspflicht

Ein neurosymbolischer hybrider Ansatz ist nicht ohne Kosten. Er erfordert explizite Domänenmodellierung, disziplinierte Regel-Governance und laufende Wartung. Dies sind keine beiläufigen Lasten; es sind die strukturellen Anforderungen der Rechenschaftspflicht in Systemen mit hohen Konsequenzen.

Determinismus entsteht nicht zufällig. Er ist eine konstruierte Eigenschaft des Systems.

Auf dem Weg zur Verifizierung

Der EU AI Act ist Teil einer breiteren Konvergenz. Kanadas risikobasierte KI-Governance-Bemühungen unter AIDA, das aktualisierte Risk Management Framework des NIST, aufkommende US-Exekutivanleitungen und sich entwickelnde Versicherungspraktiken signalisieren alle dieselbe Erwartung.

Regulierungsbehörden fordern Rückverfolgbarkeit. Versicherer fordern Vorhersehbarkeit. Aktionäre fordern Rechenschaftspflicht.

Wenn ein KI-gestütztes System seine vergangenen Entscheidungen nicht exakt reproduzieren und verteidigen kann, ohne Näherung, narrative Rekonstruktion oder probabilistische Inferenz, wird es Schwierigkeiten haben, aufkommende Compliance- und Risikostandards zu erfüllen, unabhängig von der Raffinesse des Modells.

Ein praktischer Lackmustest ist einfach: Wenn eine Regulierungsbehörde Sie heute bitten würde, die KI-gestützte Entscheidung von gestern zu wiederholen, könnten Sie dies exakt tun, unter Verwendung derselben Eingaben, Regeln und Einschränkungen?

Wenn Ihre KI-Strategie von Systemen abhängt, die sich selbst erklären, indem sie im Nachhinein plausible Rechtfertigungen generieren, haben Sie keine Governance-Strategie. Sie haben unkontrollierte Exposition.

Es ist Zeit, damit aufzuhören, Wahrscheinlichkeiten auditieren zu wollen, und damit zu beginnen, Determinismus zu konstruieren.