In den meisten Organisationen gilt es als ausgemacht: KI unterstützt Entscheidungen, trifft sie aber nicht. Der Mensch bleibt „in the loop“, bestätigt, prüft, gibt frei. Diese Formel beruhigt — sie hält die gewohnte Logik von Verantwortung aufrecht. Wer prüft, entscheidet. Wer entscheidet, verantwortet.
Das Problem ist nur: In der Praxis funktioniert das selten so. Wer genauer hinsieht, erkennt eine stille Verschiebung, die kaum jemand benennt und niemand dokumentiert. Empfehlungen werden zu Vorentscheidungen. Prüfungen werden zu Formalitäten. Und Verantwortung wandert in Grauzonen, in denen sie niemand mehr eindeutig trägt.
Das ist nicht zwangsläufig ein Skandal. Aber es ist ein Problem, wenn Organisationen so tun, als sei es keines.
Die Fiktion des souveränen Prüfers
Die gängige Erzählung lautet: Die KI schlägt vor, der Mensch entscheidet. Damit ist die Verantwortungsfrage scheinbar geklärt. Juristisch bleibt sie bei der Person, die freigibt. Organisational bleibt sie bei der Rolle, die unterzeichnet.
Nur: Wer in einem durchschnittlichen KMU-Alltag mit KI-gestützten Bewerberlisten, Preiskalkulationen, Textentwürfen oder Priorisierungsvorschlägen arbeitet, weiß, dass „der Mensch entscheidet“ eine Fiktion sein kann. Wenn die Empfehlung plausibel wirkt, der Zeitdruck hoch ist, und die Alternative darin bestünde, die Logik des Modells im Detail zu rekonstruieren, dann wird in den allermeisten Fällen bestätigt, nicht entschieden.
Dieses Bestätigen ist keine Faulheit. Es ist eine rationale Reaktion auf ein System, das Geschwindigkeit belohnt und nachträgliche Begründung selten einfordert. Die Organisation tut so, als würde entschieden. Die Mitarbeitenden tun so, als würden sie entscheiden. Formal stimmt das auch. Faktisch oft nicht.
Das Ergebnis ist eine Organisation, die nicht mehr wirklich weiß, welche ihrer Entscheidungen noch selbst getroffen werden — und welche sich längst in die Infrastruktur verlagert haben.
Drei Verschiebungen, die selten offen diskutiert werden
Die Verantwortungsverschiebung im KI-Kontext lässt sich in drei Mustern beschreiben, die in deutschen Mittelstandsunternehmen häufiger auftreten, als die Führungsetagen wahrhaben wollen.
Erstens: Die Verschiebung durch Vorstrukturierung. Wenn eine KI Bewerbungen vorsortiert, eine Longlist von 120 auf 20 reduziert, dann trifft die endgültige Entscheidung formal die Personalverantwortliche. Tatsächlich hat die Vorauswahl bereits 100 Kandidatinnen ausgeschlossen, die niemand mehr prüft. Die Verantwortung für diese 100 Nicht-Einladungen liegt nirgendwo sichtbar. Weder bei der KI, die keine Rechtsperson ist. Noch bei der Personalverantwortlichen, die diese Fälle nie gesehen hat. Noch bei der IT, die das Tool eingekauft hat. Die Entscheidung existiert — ihre Zurechenbarkeit nicht.
Zweitens: Die Verschiebung durch Plausibilität. KI-Outputs sind oft gut formuliert, konsistent, schlüssig. Genau das macht sie schwer zu hinterfragen. Ein Textvorschlag, der grammatikalisch sauber und inhaltlich kohärent ist, wirkt überzeugender, als er sein sollte. Prüferinnen korrigieren dann Details, nicht Grundsätze. Die Frage „Ist das überhaupt die richtige Richtung?“ wird seltener gestellt als die Frage „Welche Formulierung passt hier besser?“. Das verschiebt die Entscheidungsebene — von der inhaltlichen Freigabe zur stilistischen Anpassung.
Drittens: Die Verschiebung durch Abwesenheit von Alternativen. Viele KI-Anwendungen liefern genau einen Vorschlag — oder eine Rangliste mit einer klaren Spitze. Wer diese Struktur akzeptiert, hat die Entscheidungsarchitektur bereits übernommen. Echte Entscheidungen setzen Alternativen voraus, die bewusst gegeneinander abgewogen werden. Wenn das System nur eine sichtbare Option produziert, ist die Zustimmung zu dieser Option keine Entscheidung mehr, sondern eine Ratifizierung.
Keine dieser Verschiebungen ist dramatisch für sich genommen. In Summe führen sie dazu, dass Organisationen KI einsetzen, ohne zu wissen, wo ihre Entscheidungslogik eigentlich noch liegt.
Das juristische Missverständnis
Eine übliche Reaktion auf diese Beobachtung lautet: Rechtlich ist doch alles geklärt. Die Person, die freigibt, haftet. Der EU AI Act definiert Verantwortlichkeiten. Der Arbeitgeber trägt das Risiko.
Diese Antwort verwechselt zwei verschiedene Dimensionen von Verantwortung. Juristische Haftung ist das eine. Organisationale Zurechenbarkeit ist das andere. Rechtlich kann eine Person für eine Entscheidung haftbar sein, die sie faktisch nicht getroffen hat. Das schützt die Organisation vor Haftungslücken. Es schützt sie nicht vor Lernblockaden.
Denn Organisationen lernen aus Entscheidungen. Wenn aber niemand mehr weiß, wer eigentlich entschieden hat — weil die Empfehlung der KI unhinterfragt übernommen wurde —, dann lernt die Organisation nichts. Fehler werden später als „Systemfehler“ abgetan, nicht als Entscheidungsfehler analysiert. Der Lernkreislauf, der eine Organisation anpassungsfähig macht, wird unterbrochen.
Die eigentliche Frage ist nicht: Wer haftet? Sondern: Wer kann morgen erklären, warum gestern so entschieden wurde?
Warum Führungskräfte das Problem unterschätzen
In Gesprächen mit Geschäftsführungen und Führungskräften im Mittelstand zeigt sich ein wiederkehrendes Muster. Die Verantwortungsfrage wird entweder als gelöst betrachtet („Das regelt unsere Compliance“) oder als theoretisch abgetan („In der Praxis merken wir davon nichts“). Beides sind Abwehrreaktionen.
Die Realität ist unbequemer. Führungskräfte merken oft erst dann, dass sich Verantwortung verschoben hat, wenn etwas schiefgegangen ist. Eine Preiskalkulation, die ein KI-Tool vorgeschlagen hat, erweist sich im Nachhinein als ruinös. Ein automatisiertes Ablehnungsschreiben trifft eine langjährige Kundin. Eine Empfehlung zur Priorisierung stellt sich als systematisch verzerrt heraus. Dann beginnt die Suche nach der Verantwortlichen — und meist endet sie in Unschärfe.
Das Unangenehme dabei: Die Unschärfe ist nicht das Versagen einer einzelnen Person. Sie ist das Ergebnis einer Entscheidungsarchitektur, die nie bewusst gestaltet wurde. KI wurde eingeführt, weil sie verfügbar war. Prozesse wurden angepasst, damit sie funktioniert. Über die Frage, wer in welchem Schritt welche Art von Verantwortung trägt, wurde selten explizit gesprochen.
Das ist der eigentliche Befund: Nicht dass KI Verantwortung übernimmt — das tut sie nicht, und sie kann es nicht —, sondern dass Organisationen aufhören, ihre eigene Verantwortungsarchitektur zu pflegen, sobald KI im Spiel ist.
Entscheidungsarchitektur als Führungsaufgabe
Die Konsequenz aus dieser Beobachtung ist keine Rückkehr zu KI-freien Prozessen. Sie ist auch keine weitere Compliance-Schicht. Sie ist die Wiederaneignung einer Führungsaufgabe, die in vielen Unternehmen nie richtig wahrgenommen wurde — auch nicht vor KI: die bewusste Gestaltung von Entscheidungsarchitektur.
Eine Entscheidungsarchitektur klärt für jeden relevanten Prozess:
- Welche Art von Entscheidung wird hier getroffen?
- Wer entscheidet — und wer bereitet nur vor?
- Wo endet die Vorbereitung, wo beginnt die Entscheidung?
- Welche Alternativen müssen sichtbar bleiben?
- Was wird dokumentiert, damit die Entscheidung rekonstruierbar ist?
Diese Fragen klingen elementar. In der Praxis sind sie es nicht. Sie erfordern, dass Organisationen zwischen Vorbereitung, Empfehlung, Entscheidung und Umsetzung klarer unterscheiden, als es der operative Alltag meist nahelegt. Und sie erfordern, dass diese Unterscheidungen nicht nur im Organigramm existieren, sondern in den Prozessen, in denen KI mitarbeitet.
Das ist Arbeit. Aber es ist die Arbeit, die eine Organisation davor bewahrt, in Grauzonen zu navigieren, die sie nicht selbst gewählt hat.
Der unbequeme Zusammenhang mit Beteiligung
Wer Entscheidungsarchitektur ernst nimmt, stößt schnell auf eine Frage, die viele Organisationen lieber vermeiden: Wenn KI Vorentscheidungen trifft, die Auswirkungen auf Kolleginnen, Kundinnen oder die Organisation als Ganzes haben — wer wird dann in die Gestaltung dieser Vorentscheidungen einbezogen?
Die Standardantwort lautet: die IT, die Fachabteilung, eventuell die Geschäftsführung. Selten lautet sie: die Betroffenen.
Dabei zeigt sich in der Praxis, dass genau dieser Einbezug die Qualität der Entscheidungsarchitektur deutlich erhöht. Nicht, weil Beteiligung ein Selbstzweck wäre. Sondern weil die Menschen, die mit den Ergebnissen eines KI-Systems leben müssen, oft die präzisesten Fragen an seine Logik stellen. Sie sehen Verzerrungen, die Entwicklerinnen übersehen. Sie erkennen Grenzfälle, die im Training nicht vorkamen. Sie merken, wenn eine Empfehlung systematisch an ihrer Arbeitsrealität vorbei geht.
Eine Organisation, die KI einführt, ohne diese Perspektiven einzubeziehen, verzichtet auf ihren wichtigsten Korrekturmechanismus. Sie verlässt sich stattdessen auf die Annahme, dass die Logik des Systems hinreichend gut ist. Diese Annahme ist selten belastbar.
Was jetzt ansteht
Die Verantwortungsfrage ist keine theoretische. Sie wird in jedem KI-Projekt faktisch beantwortet — bewusst oder unbewusst, explizit oder implizit. Organisationen, die sie bewusst beantworten, gewinnen zweifach: Sie behalten die Kontrolle über ihre eigenen Entscheidungslogiken. Und sie lernen weiter, statt in der Komfortzone des Bestätigens zu erstarren.
Für die nächsten Monate heißt das in vielen Unternehmen: weniger Energie in die Auswahl neuer Tools, mehr Energie in die Frage, wer in den bestehenden Prozessen eigentlich noch entscheidet. Diese Inventur ist unbequem. Sie bringt Widersprüche zutage. Aber sie ist die Voraussetzung dafür, dass KI in einer Organisation nicht zum Autopiloten wird, der alle mitnimmt, ohne dass jemand das Steuer in der Hand hat.
Der Mensch „in the loop“ ist eine gute Idee. Damit sie mehr wird als ein Compliance-Label, muss die Organisation wissen, was dieser Mensch tatsächlich tut — und was nicht.
Einordnung
Dieser Beitrag ist Teil unseres Themenfelds Führung im KI-Zeitalter. Er schließt an die Beobachtung an, dass KI Führung nicht ersetzt, sondern herausfordert — und konkretisiert diese Herausforderung am Beispiel der Entscheidungsarchitektur. Vertiefende Beiträge greifen verwandte Dimensionen auf: Lernkultur, Beteiligung und organisationale Reife im Umgang mit KI.
