Entscheiden bleibt menschlich

Warum Agentic AI Willensbildungsprozesse (nicht) ersetzen kann
Trotz fortschrittlicher Agentic AI bleiben Willensbildungsprozesse unverzichtbar: Gerade durch die wachsende Autonomie Künstlicher Intelligenz werden menschliche Reflexion, Selbstverantwortung und aktive Entscheidungsfähigkeit wichtiger denn je.
Das Problem
Die Investitionen der Tech-Firmen in KI überschlagen sich im Wettlauf um die technologische Vorherrschaft. Google, Meta, Microsoft und Amazon stecken zusammengenommen etwa eine Viertelbillion Dollar in Rechenzentren und Large Language Models. KI-Vordenker*innen gehen davon aus, dass die Künstliche die menschliche Intelligenz schon bald übertroffen haben wird.
Welche Effekte hat diese Entwicklung auf Organisationen? Was passiert, wenn KI-Systeme zunehmend autonom agieren und der Mensch die vorgefertigten Entscheidungen bestenfalls noch abnickt? Für Entscheidungsträger*innen, die sich dem Druck ausgesetzt fühlen, unter Unsicherheit und Zeitmangel die richtige Wahl treffen zu müssen („Decision Pressure“), kann dies zunächst entlastend wirken. Die Gefahr: Menschen verlieren das Verständnis für die Hintergründe von Entscheidungen, das Vertrauen in deren Qualität und die Kontrolle über die Geschicke der Organisation.
Die Wissenschaft
Die Wissenschaft hat sich damit auseinandergesetzt, wie Akzeptanz, Handlungsfähigkeit und Eigenmacht bei intensivem KI-Einsatz gefördert und erhalten werden:
- Nicht die Güte der Lösung, sondern die Einbindung zählt. Meta-Analysen von Schemmer et al. (2022) und Haag (2025) zeigen, dass erklärbare KI (XAI) die Leistung von Nutzer*innen steigern kann, insbesondere bei textbasierten und Klassifizierungsaufgaben. Doch ausschlaggebend für die Akzeptanz ist nicht nur die Güte der KI, sondern auch, wie sie in den Entscheidungsprozess eingebettet ist. Akzeptanz und Eigenmacht werden durch die Auseinandersetzung mit und die Transparenz über den Einsatz von KI im Entscheidungsprozess gefördert.
- Die Rolle der KI bleibt menschliche Verantwortung. Booyse & Scheepers (2024) identifizieren Misstrauen, Kontrollverlust und ethische Bedenken als zentrale Hürden für die Akzeptanz von KI in Organisationen. Li (2025) ergänzt: KI werde eher akzeptiert, wenn sie als Tool statt als autonomer Agent wahrgenommen wird. Klare Rollen, Erwartungen und partizipative Prozesse, die festlegen, welche Aktivitäten an KI übergeben werden, seien entscheidend.
- Perspektivenvielfalt durch KI fördern statt blind auf das Optimum vertrauen. KI kann nicht nur Entscheidungen automatisieren, sondern auch neue Perspektiven eröffnen, zum Beispiel durch das Aufzeigen von Edge Cases, konträren Optionen oder unerwarteten Mustern. Durch ihren Einsatz als Meta-Decision-Making-Tool kann KI bewusst genutzt werden, um Entscheidungsprozesse zu hinterfragen (Cornelissen et al. 2022) und so den kollektiven Willensbildungsprozess in Organisationen zu bereichern.
Die Praxis
Durch die Beachtung von vier Gestaltungskriterien beim KI-Einsatz bleiben die notwendigen Willensbildungsprozesse und die Verantwortung beim Menschen. Gleichzeitig kann der Wirkungsradius erhöht werden:
- Human-in-the-Loop: Die KI liefert Vorschläge, und Menschen reflektieren, bewerten und entscheiden gemeinsam über klar definierte Willensbildungsprozesse.
- Impowerment-gerecht: Die Rollen im Entscheidungsprozess sind transparent, und es wird festlegt, wo und durch wen reflektiert, bewertet, entschieden und korrigiert wird. Wenn Selbstbestimmung und Einflussmöglichkeiten bewusst in den Prozess integriert werden, bleibt der Mensch Eigentümer*in der Lösung und die Akzeptanz erhalten.
- Meta-Decision Support: Tools werden so gestaltet, dass sie gezielt Spannungsfelder, Varianten sowie Dilemmata aufzeigen und das Team durch Vielfalt bereichern, statt den Raum der Möglichkeiten vorschnell einzugrenzen.
- Transparenz: Im Unternehmen wird deutlich über den KI-Einsatz informiert und hervorgehoben, welche Anteile durch wen entstanden sind. Nur so entstehen Vertrauen, Akzeptanz und Selbstwirksamkeit.
Benjamin Werner, Principal Consultant bei der Transformationsberatung HRpepper, Berlin
Benjamin Schmidt, Consultant bei der Transformationsberatung HRpepper, Berlin
Literatur
Booyse, D. / Scheepers, C. B. (2024): Barriers to adopting automated organisational decision-making through the use of artificial intelligence, in: Management Research Review, 47 (1), 64-85
Cornelissen, N. et al. (2022): Reflection machines: increasing meaningful human control over Decision Support System, in: Ethics and Transformation, 24 (2), 19
Haag, F. (2025): The effect of explainable AI‑based decision support on human task performance: A meta‑analysis; https://arxiv.org/pdf/2504.13858
Li, B. (2025): From tools to agents: Meta‑analytic insights into human acceptance of AI, in: Journal of Marketing; https://ira.lib.polyu.edu.hk/bitstream/10397/113970/1/Li_From_Tools_Agents.pdf
Schemmer, M. et al. (2022): A meta‑analysis of the utility of explainable Artificial Intelligence in human‑AI decision‑making, in: AIES ‘22: Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society, 617-626