Wenn KI als Mitarbeiter gerahmt wird, sinkt menschliche Accountability messbar – das zeigt eine aktuelle Studie. Was Markus Gabriel philosophisch längst beschrieben hat, bestätigt das Experiment: Verantwortung braucht einen Träger, dem etwas auf dem Spiel steht
Was passiert, wenn Führungskräfte KI wie einen Mitarbeiter behandeln
Ein Finance-Manager bekommt ein Dokument zur Prüfung. Fünf Fehler sind eingebaut – unterschiedlich schwer zu finden, aber alle da. Er schaut drüber, gibt Feedback, leitet weiter.
Was er nicht weiß: In der Vergleichsgruppe nebenan findet ein anderer Manager dieselben Fehler mit einer um 18 Prozent höheren Trefferquote. Das Dokument ist identisch. Der einzige Unterschied steht auf dem Deckblatt – ein Satz: in der einen Gruppe „erstellt von unserem KI-Tool“, in der anderen „erstellt von unserem KI-Mitarbeiter“.
Hinter dieser Szene steckt ein randomisiertes Experiment – 1.261 Manager aus HR und Finance, pre-registered beim AEA RCT Registry.¹
Framing verschiebt Verantwortung – und das lässt sich messen
Was Matthew Kropp, Emma Wiles und ihr Team vom BCG Henderson Institute und der Boston University gemessen haben, ist unangenehm klar: Wenn KI als „AI employee“ statt als „AI tool“ gerahmt wird, verändert sich das Oversight-Verhalten von Managern erheblich – allerdings nur in einer Subgruppe. Unter Managern, deren Organisationen KI bereits formal auf Organigrammen listen (23 Prozent der Befragten), zeigt sich: Die persönliche Verantwortung sinkt um 9 Prozentpunkte, die dem KI-System zugeschriebene Accountability steigt im Gegenzug um 8. Und die Eskalationsrate – das Weiterreichen zur Kontrolle durch andere – klettert um 22 Prozentpunkte.
Das klingt nach Bürokratie-Optimierung – und ist das Gegenteil. Wer öfter eskaliert, weil er selbst weniger prüft, erzeugt mehr Aufwand bei weniger Fehlern, die tatsächlich jemand findet.
Zwei Einschränkungen zu dieser Studie, die ich für wichtig halte: Sie liegt bislang als Working Paper vor, noch nicht peer-reviewed. Und die starken Effekte gelten nur für die Subgruppe mit „KI-Mitarbeitern“ auf dem Organigramm – nicht für die Gesamtstichprobe. Vier der fünf Autoren kommen von BCG, das in genau diesem Feld berät. Dieser Interessenkonflikt gehört in die Einordnung. Die Richtung des Befunds bleibt trotzdem belastbar.
Warum ein Philosoph weiter denkt als die Studie
Markus Gabriel, Inhaber des Lehrstuhls für Erkenntnistheorie an der Universität Bonn, veröffentlichte 2026 sein Buch „Ethische Intelligenz – Wie KI uns moralisch weiterbringen kann“ (Ullstein).² Seine Kernthese: KI wirkt wie ein Spiegel. Sie zeigt uns Muster in unserem Verhalten, unserer Sprache, unseren Entscheidungen – schärfer, als wir sie selbst sehen können. Wertvoll. Aber dieser Spiegel funktioniert nur unter einer Bedingung: Der Mensch muss der Handlungsträger bleiben.
Gabriel unterscheidet drei Modi, in denen Menschen KI erleben: als Spiegel, als dialogischen Partner, als eigenständigen Akteur. Die ersten beiden hält er für produktiv; die dritte – KI als Akteur mit eigener Verantwortung, eigenem Platz auf dem Organigramm – für einen Kategorienirrtum. KI hat kein Bewusstsein, keine eigene Betroffenheit, keine Konsequenzen, die sie spürt. Der KI-Philosoph John Haugeland hat das in einem Satz gefasst, den Gabriel zitiert: KI-Systemen ist in Wirklichkeit alles gleichgültig. Sie können keine Verantwortung tragen, weil Verantwortung einen Träger braucht, dem etwas auf dem Spiel steht.
Gabriel schreibt: Technik, die uns moralisch blinder macht, ist gefährlich. Die Studie misst exakt diesen Effekt.
Welche Schutzlogik steckt wirklich dahinter?
Ich erlebe in Projekten, dass Organisationen diesen Schritt selten naiv gehen. Wenn eine Firma KI als „Mitarbeiter“ einführt, ihr einen Namen gibt, sie auf Organigramme setzt und eine Stellenbeschreibung schreibt – dann steckt dahinter fast immer eine Schutzlogik: Wenn die KI verantwortlich ist, bin ich es weniger.
Das ist menschlich. Und es sitzt tiefer als jede Governance-Frage. Weil KI die Verantwortung nicht tragen kann, löst sie sich einfach auf: Das Dokument mit fünf Fehlern wandert durch das System, keiner prüft wirklich, alle glauben, jemand anderes hat es getan.
Gabriel nennt diesen Übergang „vom Spiegel zum Akteur“ und beschreibt ihn als den Punkt, an dem KI aufhört, uns bei der Selbsterkenntnis zu helfen, und anfängt, uns von dem zu entlasten, was wir erkennen müssten. Das lässt sich durch sauberes Governance-Design allein nicht auflösen – weil Governance-Design das Symptom adressiert, nicht die Ursache.
Governance löst das Problem nicht – Haltung schon
Die Empfehlung der BCG-Studie ist richtig: Benennt explizit, wer für den KI-Output menschlich verantwortlich ist – und haltet dieses Framing durch. KI heißt Werkzeug, auch wenn es Aufgaben übernimmt, die früher Menschen erledigten.
Nur: Das greift zu kurz, wenn die Schutzlogik dahinter unsichtbar bleibt. Ich sehe in Transformationsprojekten, dass Policy-Papiere die alte Praxis selten dauerhaft verdrängen. Drei, vier Monate nach der Einführung schleichen sich die gewohnten Verhaltensmuster zurück – weil sie bequemer sind und weil niemand die eigentliche Frage gestellt hat.
Was hilft, ist eine direkte Frage an die Entscheider, bevor das Framing festgelegt wird: Wer von euch will weniger Verantwortung tragen – und warum? Die Antwort darauf erklärt mehr als jede Studie. Und sie eröffnet das Gespräch, das in den meisten KI-Einführungsprojekten fehlt: nicht über Technologie, sondern über Haltung.
Ich meine dabei nicht die Haltung der Organisation. Ich meine die Haltung des Menschen, der in dieser Organisation führt – und der jeden Morgen entscheidet, wie viel von dem, was schiefgeht, er auf sich nehmen will.
Die offene Frage
Gabriel schreibt, KI wirke wie ein Spiegel, der uns schärfer zeigt, als wir uns selbst sehen wollen. Wenn Organisationen beginnen, diesen Spiegel zu vermeiden – indem sie KI zu einem Akteur machen, der scheinbar Verantwortung übernimmt –, dann sagt das etwas über die Organisation aus, das schwer zu ignorieren ist.
Welche Schutzlogiken stecken hinter den KI-Einführungsentscheidungen in Ihrer Organisation?
Quellen
¹ Wiles, Emma / Hsu, Megan / Bedard, Julie / Kropp, Matthew / Krayer, Lisa (2026): Putting AI on the Org Chart: Evidence on Delegation and Oversight. Working Paper, Boston University Questrom School of Business / BCG Henderson Institute, Stand 14. Mai 2026. Veröffentlicht als: Kropp, Matthew et al.: „Research: Why You Shouldn’t Treat AI Agents Like Employees.“ Harvard Business Review, 6. Mai 2026. — Pre-registered beim AEA RCT Registry, IRB-Exemption Boston University. Noch nicht peer-reviewed. Vier der fünf Autoren sind BCG-Mitarbeiter (Interessenkonflikt besteht). Die berichteten Effektgrößen gelten für die Subgruppe von Organisationen, die KI formal auf Organigrammen führen (n ≈ 290 von 1.261), nicht für die Gesamtstichprobe.
Links dazu
Working Paper (Volltext): emmawiles.com
HBR-Artikel: hbr.org
BCG Henderson Institute: bcghendersoninstitute.com
² Gabriel, Markus (2026): Ethische Intelligenz – Wie KI uns moralisch weiterbringen kann. Ullstein Buchverlage, Berlin. ISBN 978-3-8437-3798-2.:
Affiliate-Link: https://amzn.to/3RnEjNG