Blogartikel
Wenn Planer KI-Prognosen nicht vertrauen
Vor der Einführung von KI gestützten Prognosen müssen Unternehmen längere Trans-formationsprozesse durchlaufen: Neue Tools müssen evaluiert, die bestehenden Sys-teme und verfügbaren Daten vorbereitet und Mitarbeiter geschult werden. Je länger die-ser Prozess andauert, desto größer ist die Enttäuschung, wenn die neuen Prozesse nicht greifen oder nicht den gewünschten Mehrwert liefern.

Fehlender Mehrwert zeigt sich vor allem dann, wenn Mitarbeiter, die von neuen Anwendungen profitieren sollten, keine Verbesserung wahrnehmen oder neue Prozesse nicht annehmen. Ein gängiges Beispiel hierfür ist der „Forecast Override“: Über KI generierte Prognosen werden dauerhaft, manuell korrigiert, obwohl das Modell nachweislich genauer liegt. Hier fehlt es oft an Akzeptanz seitens erfahrener Planer wie auch die „Supply Chain Planning“ Studie von BCG aus dem Jahr 2026 belegt.
Dabei handelt es sich aber selten um einen grundlegenden Unwillen, neue Technologien einzusetzen. Viel mehr sind es gut belegte psychologische Effekte oder Versäumnisse in der Organisationsstruktur von Unternehmen, die es erschweren, Vertrauen in KI-Prognosen aufzubauen. Im folgenden Beitrag wollen wir uns dem Problem auf psychologischer und organisatorischer Ebene nähern und Vorschläge anbieten, wie SCM-Verantwortliche das Vertrauen in künstliche Intelligenz erhöhen können.
Die psychologischen Effekte: Warum KI-Prognosen überschrieben werden
Manuelle Anpassungen wie der „Forecast Override“ sind keine Eigensinnigkeiten von Planern, sondern rationale Reaktionen auf Unsicherheiten und Erfahrungen, die mit der Nutzung von KI-Absatzprognosen einhergehen. Dabei spielen psychologische Muster oft eine größere Rolle als die Modellqualität der eingesetzten Tools.
„Algorithm Aversion“ in der Planung
Wie schnell das Vertrauen in KI-Prognosen verloren gehen kann, zeigt die „Algorithm Aversion“ wie sie von Dietvorst, Simmons und Massey im Jahr 2015 beschrieben wurde. Wir tendieren dazu, Fehler einer künstlichen Intelligenz deutlich strenger und vor allem nachhaltig negativer zu bewerten, als es bei einem menschlichen Versagen der Fall wäre. Erleben Planer einen gravierenden Fehler in einem besonders kritischen Zeitraum, beispielsweise eine deutliche Fehlprognose bei Saisonspitze, überschreiben sie die betroffene Modellprognose und oft auch alle zukünftigen für Saisonspitzen. Dieses Verhalten ist eine verständliche Schutzreaktion, basierend auf der eigenen Erfahrung, um nachhaltigen Schaden von Fehlplanungen zu vermeiden. Gleichzeitig ignoriert es die Natur von lernenden Modellen für KI-basierte Prognosen, die sich mit zunehmender Datenbasis laufend verbessern.
Der Gegenentwurf zur „Algorithm Aversion“ ist die „Algorithm Appreciation“ wie sie bei Logg, Minson und Moore 2019 zu finden ist. Hier herrscht blindes Vertrauen gegenüber der Modellprognose vor und eigene, erfahrungsbasierte Expertise wird systematisch in den Hintergrund gerückt. Wichtig für Planer ist es einen Mittelweg zwischen beiden Extremen zu finden und entscheiden zu können, wann das eigene Bauchgefühl die Qualität der KI-Prognose übersteigt und wann nicht.
Kognitive Verzerrung: Ankereffekte und „Overconfidence“
Als kognitive Verzerrung bezeichnet man systematische Abweichungen von rationalen Urteilen, die durch Erfahrung‚ Emotionen oder Vereinfachungsstrategien entstehen. Hierbei handelt es sich nicht um ein exklusives Phänomen, das nur erfahrene Planer betrifft, sondern um einen gut belegten psychologischen Effekt, der bei allen Menschen auftritt.
Eine bekannte Verzerrung wird im sogenannten „Ankereffekt“ beschrieben. Weiß ein Planer beispielsweise, dass der Vorjahresabsatz eines Monats bei 800 Einheiten lag, gilt dieser Wert als Anker, also als geistiger Referenzwert. Prognostiziert eine KI einen Absatz von 1200 Einheiten im gleichen Monat des darauffolgenden Jahres, wird der Wert intuitiv nach unten korrigiert, selbst wenn erhöhte Nachfrage den Wert plausibel macht.
Ein anderes Beispiel der kognitiven Verzerrung, die besonders Experten (aller Art) mit langjähriger Erfahrung trifft ist der „Overconfidence Bias“. Er beschreibt den Hang dazu, die eigene Qualifikation systematisch zu überschätzen. Dies liegt vor allem daran, dass die eigenen Erfolge deutlich besser in Erinnerung behalten und Fehler rationalisiert werden. Arbeiten wie „Thinking Fast and Slow“ von Daniel Kahnemann zeigen, dass besonders in Bereichen mit hoher Feedbackverzögerung die eigene Vorhersagegenauigkeit überschätzt wird. Darunter fallen auch Absatzprognosen, da zwischen Erstellung und der Überprüfung der Genauigkeit mehrere Wochen vergehen können. Wird die Prognose bestätigt, wird das als Erfolg gewertet. Liegt sie neben den tatsächlichen Werten, wird sie wegen zusätzlicher Einflussfaktoren rationalisiert.
Die Neuverteilung der Aufgaben zwischen Mensch und Maschine
Ein noch tieferliegendes Problem als die oben beschriebene „Algorithm Aversion“ ist, wenn Planer ihre eigene Position durch die Einführung von KI-Prognosen gefährdet sehen. Wenn mit der eigenen Erfahrung, Marktkenntnis und Bauchgefühl über Jahre Absatzprognosen erfolgreich erstellt wurden, fällt es schwer einen Teil der eigenen Aufgabe abzugeben. Es wirkt, als wäre die über viele Jahre aufgebaute Kompetenz nicht mehr benötigt.
Die Überschreibung von KI-Prognosen ist in diesem Fall keine bewusste Ablehnung von neuen Technologien, sondern ein Schutzreflex.
Auch Verbesserungen der Modellgenauigkeit sind hier kein Hilfsmittel und können das Problem sogar noch verstärken. Wichtiger ist es in diesem Fall an der eigentlichen Rolle der Planer zu arbeiten, um vorhandene Kompetenzen in Verbindung mit KI-basierten Absatzprognosen bestmöglich zu kombinieren.
Strukturelle Stolpersteine bei der Einführung von KI- Tools und der Erfolgsmessung
Neben psychologischen Ursachen auf individueller Ebene ist es aber auch oft das strukturelle Umfeld von Planern, in dem versäumt wurde die richtigen Grundlagen für die Einführung und Nutzung von KI-basierten Prognosetools zu schaffen. Dies kann die fehlende Transparenz von Ergebnissen, aber auch fehlende Einbindung von Mitarbeitern oder unpassende Metriken für die Erfolgsmessung beinhalten.
Modellerklärbarkeit: Was hinter KI-Prognosen steht
Oft fehlt es an Vertrauen in KI-basierte Prognosen, schlicht weil Planer zu wenige Einblicke haben, wie sie erstellt werden: Welche Informationen fließen ein? Welchen Einfluss nehmen diese Informationen auf die Prognose?
Bekannt ist dieses Phänomen in Verbindung mit KI-Anwendungen als „Black-Box-Problem“. Es beschreibt die Eigenschaft von KI-Modellen, über interne Entscheidungslogiken zu verfügen, die für den Nutzer nicht nachvollziehbar sind. Auch im „Digital Operations Survey 2025“ von PWC wird die fehlende Erklärbarkeit von KI-Planungstools als eine der größten Adaptionsbarrieren beschrieben.
Bei der Auswahl von KI-Anwendungen sollte daher darauf geachtet werden, dass das System die Fähigkeit hat seine Ausgaben so zu begründen, dass Planer sie nachvollziehen können. Wenn sichtbar wird, dass Faktoren wie Vorjahresabsatz, der Saisonindex oder ein aktiver Großkundenauftrag einbezogen wurden und in welchem Ausmaß diese die Prognose beeinflusst haben, wird das Modell glaubwürdiger.
Fehlende Einbindung der richtigen Mitarbeiter
Häufiger Fehler bei der Einführung neuer KI-Anwendungen ist die fehlende Einbindung der Mitarbeiter, die im Alltag tatsächlich damit arbeiten. Die vorhandenen Prozesse und Strukturen, die den Planungsalltag bestimmen und relevante Informationen wie Sonderaufträge, Eigenheiten von spezifischen Kundensegmenten oder saisonale Effekte, im System werden zu wenig oder gar nicht berücksichtigt.
Infolge entstehen Modellfehler, die wiederum das Vertrauen der Planer in die KI-Prognosen untergraben. Auch BCG bestätigt in ihrer Studie aus 2026, dass ohne Einbindung der Nutzer in die Einführung von KI-Planungssystemen meist kein messbarer ROI erzielt werden kann. Wird über den Kopf der Planer hinweg entschieden, führt man ein System ein, das niemand nutzt.
Werden Planer frühzeitig in die Auswahl und Implementierung von Tools miteinbezogen, können sie die eigene Expertise einbringen und lernen so auch dem Modell zu vertrauen.
Der Fokus auf die Leistung des Einzelnen
Auch die Messung der Prognosequalität kann Einfluss auf den Umgang des Planers mit KI-Prognosen nehmen. Werden Planer rein nach der Qualität ihrer eigenen Einschätzung beurteilt, gibt es für sie wenige Anreize KI-Tools auch wirklich zu nutzen. Die Bewertung ihrer Arbeit beruht immer noch auf ihrer persönlichen Prognosegenauigkeit, nicht auf der zielführenden Nutzung des KI-Modells. Sie können ihren Beitrag nicht klar sichtbar machen.
Wird aber nicht nur die Qualität der eigentlichen Prognose gemessen, sondern auch wie oft und vor allem in welcher Qualität - verbessern oder verschlechtern sie sich - Prognosen überschrieben werden, kann dies ein aufschlussreicher Indikator für die Adoption des Systems sein. Zur Bestimmung der Prognosequalität kann der MAPE (Mean Absolute Percentage Error) als Kennzahl herangezogen werden. Er berechnet den durchschnittlichen, absoluten, prozentualen Unterschied zwischen Prognose und tatsächlichen Werten. Sind Prognosen, gemessen am MAPE-Vergleich, besser oder schlechter nach manueller Anpassung, kann das entweder ein Hinweis auf schwache Modellqualität oder auf unnötige manuelle Anpassungen sein.
Wo SCM-Verantwortliche ansetzen können, um die Akzeptanz von KI-Prognosen zu erhöhen
Bessere Modelle können das Vertrauen in KI-Prognosen verbessern. Wichtig ist es aber auch, die entsprechenden Rahmenbedingungen zu schaffen, die es Teams ermöglichen den größten Mehrwert aus der Zusammenarbeit mit KI-Tools zu generieren. Im Folgenden drei Handlungsfelder, denen sich SCM-Verantwortliche widmen können, um das Zusammenspiel zwischen Menschen und Maschine zu verbessern.
Override-Rate als Gesprächsgrundlage
Wie im letzten Abschnitt beschrieben, kann eine gezielte Messung der Override-Rate, also dem Anteil an manuell überschriebenen Prognosen an der Gesamtzahl der generierten Prognosen, helfen mögliche Probleme in der Adoption von KI-Prognosen zu identifizieren. Dabei stellen sich zwei Fragen: Wie viele Prognosen werden überschrieben und haben diese Überschreibungen einen positiven oder negativen Effekt auf den MAPE.
Entsprechende Messungen sollen aber nicht als Kontrollinstrument für Planer verstanden werden. Sie bilden die Grundlage für sachliche Gespräche mit Mitarbeitern und Teams. Zeigt die Analyse, dass die manuellen Anpassungen zu einer Verschlechterung der Prognosequalität führen, kann die Analyse im nächsten Schritt gemeinsam mit dem Team vertieft werden, um jene Artikel zu identifizieren, bei denen das Planer-Wissen dem Modell überlegen ist und jene, die keine manuelle Nachbearbeitung erfordern, da die KI-Prognosen gleichwertige oder bessere Ergebnisse liefern.
Neue Rollenbilder: Expertise richtig nutzen
Die Einführung neuer Systeme und Arbeitsweisen, kann auch die Definition neuer Rollenbeschreibungen erfordern. Im Falle des Planers kann das eine Entwicklung vom Ersteller der Prognosen, hin zum Modellpfleger sein. Die, über Jahre aufgebaute, Erfahrung wird dann nicht mehr in der Erstellung von eigenen Prognosen wirksam, sondern durch die Weitergabe des eigenen Wissens, zur Verbesserung der Modellprognose. Werden regionale Sondereffekte, unregelmäßige, aber wiederkehrende Großaufträge oder Sortimentsänderungen dem System als Kontextwissen übergeben, ist das nicht mehr als manueller Override zu werten, sondern als die strukturierte Weitergabe von Expertise um die KI-Prognosequalität zu verbessern. Beschrieben wird diese Kollaboration zwischen Menschen und Maschine als „Human-in-the-Loop“: Der Mensch korrigiert nicht nur Entscheidungen, sondern ist von Anfang an im Entscheidungsprozess integriert.
Auch Deloitte beschreibt in seinem „Manufacturing Industry Outlook 2026“, hier jedoch mit besonderem Bezug auf den Fertigungsbereich, dass KI-Projekte vor allem dann erfolgreich sind, wenn neue Arbeitsmodelle für Mensch und Maschine geschaffen werden. Der Einsatz von KI sollte also nicht als Ersatz von menschlichen Mitarbeitern gedacht werden, sondern als Effizienz- und Qualitätssteigerung durch Kollaboration.
Allgemeine Prognosequalität wird wichtiger als Einzelleistungen
Werden Planer weiterhin nach der individuellen Prognosequalität bewertet, wird ihr Fokus auch weiterhin auf der Verbesserung der Qualität ihrer manuell erstellten Prognosen und ihrer Overrides liegen. Ändern SCM-Verantwortliche aber ihr Bewertungssystem von der individuellen Bewertung der Override-Qualität, hin zu der Bewertung des Gesamtteams, wird das auch das Verhalten von einzelnen Planern verändern.
Weil der gemeinsame Erfolg zählt, tritt die Verbesserung der Modellqualität in den Vordergrund, da diese den größten Einfluss auf die allgemeine Prognosequalität nimmt. Wer es schafft, die besten Inputs für genauere Prognosen zu liefern und wer Ausnahmesituationen, die tatsächlich einen manuellen Override benötigen, zielsicher erkennt, leistet den größten Mehrwert.
Fazit: Vertrauen durch Transparenz und Einbeziehung der richtigen Mitarbeiter
Manuelle Anpassungen wie der „Forecast Override“ lassen sich nicht nur durch eine Verbesserung des Prognose-Modells stoppen. Planer brauchen Transparenz, um zu verstehen, wie Prognosen erstellt werden und um Vertrauen aufzubauen und ein Umfeld, das weiß, wie bestehende Expertise bestmöglich genutzt werden kann, um die Qualität von KI-Modellen zu verbessern.
Der Startpunkt für SCM-Verantwortliche liegt hier bereits bei der Einbindung der richtigen Mitarbeiter in der Auswahl von neuen Anwendungen. Im laufenden Betrieb zählt dann die Einbindung von Planern in die Modellpflege sowie die transparente Erklärbarkeit von Prognosen.
Weiterführende Quellen
BCG (2026): Supply Chain Planning 2026: Why AI Alone Isn't Enough
Kahneman, D. (2011): Thinking, Fast and Slow, Farrar, Straus and Giroux
FAQs
Was ist „Algorithm Aversion" und warum ist sie für Planer relevant?
Algorithm Aversion beschreibt die Tendenz, Fehler einer künstlichen Intelligenz deutlich strenger und nachhaltiger negativ zu bewerten als menschliches Versagen. Für Planer bedeutet das konkret: Erlebt jemand eine gravierende Fehlprognose in einem kritischen Zeitraum, etwa während einer Saisonspitze, überschreibt er nicht nur den betroffenen Vorschlag, sondern systematisch alle zukünftigen Prognosen für ähnliche Situationen. Diese Reaktion ist psychologisch nachvollziehbar, ignoriert aber, dass lernende Modelle sich mit zunehmender Datenbasis kontinuierlich verbessern.
Was versteht man unter „Algorithm Appreciation" und warum ist auch das ein Problem?
Algorithm Appreciation ist das Gegenteil von Algorithm Aversion: blindes Vertrauen in die Modellprognose, bei dem erfahrungsbasierte Expertise systematisch in den Hintergrund rückt. Beides ist für Planer problematisch. Das Ziel ist ein Mittelweg, bei dem Planer beurteilen können, wann das eigene Urteil die Qualität der KI-Prognose übersteigt und wann nicht.
Was ist der Ankereffekt, und wie beeinflusst er die Bewertung von KI-Prognosen?
Der Ankereffekt ist eine kognitive Verzerrung, bei der ein bekannter Ausgangswert als unbewusster Referenzpunkt wirkt. Weiß ein Planer, dass der Vorjahresabsatz eines Monats bei 800 Einheiten lag, gilt dieser Wert als Anker. Prognostiziert eine KI 1.200 Einheiten für denselben Monat im Folgejahr, wird der Wert intuitiv nach unten korrigiert, selbst wenn erhöhte Nachfrage den höheren Wert plausibel macht. Der Effekt tritt unabhängig von Erfahrung und Qualifikation auf.
Was ist das „Black-Box-Problem" bei KI-Prognosetools?
Das Black-Box-Problem beschreibt die Eigenschaft vieler KI-Modelle, über interne Entscheidungslogiken zu verfügen, die für den Nutzer nicht nachvollziehbar sind. Planer sehen das Ergebnis, aber nicht, welche Faktoren in welchem Ausmaß dazu geführt haben. Wird hingegen sichtbar, dass Vorjahresabsatz, Saisonindex oder ein aktiver Großkundenauftrag eingeflossen sind und wie stark diese die Prognose beeinflusst haben, steigt die Glaubwürdigkeit des Modells spürbar.
Was ist die Override-Rate und wie sollte sie ausgewertet werden?
Die Override-Rate gibt an, welcher Anteil der automatisch generierten Prognosen manuell überschrieben wurde. Entscheidend ist dabei nicht nur die Häufigkeit, sondern auch die Richtung: Verbessern oder verschlechtern die manuellen Anpassungen die Prognosequalität, gemessen am MAPE (Mean Absolute Percentage Error)? Die Override-Rate soll kein Kontrollinstrument für Planer sein, sondern Grundlage für sachliche Gespräche, um gemeinsam zu identifizieren, bei welchen Artikeln Planerwissen dem Modell überlegen ist und wo manuelle Eingriffe die Qualität reduzieren.
Was bedeutet „Human-in-the-Loop" im Kontext von KI-Absatzprognosen?
Human-in-the-Loop beschreibt ein Kollaborationsmodell, bei dem der Mensch nicht nur Entscheidungen korrigiert, sondern von Anfang an in den Entscheidungsprozess integriert ist. Im Planungskontext bedeutet das: Die Expertise erfahrener Planer fließt nicht mehr primär durch manuelle Overrides ein, sondern durch die strukturierte Weitergabe von Kontextwissen an das Modell. Regionale Sondereffekte, wiederkehrende Großaufträge oder Sortimentsänderungen werden dem System übergeben und verbessern so aktiv die Modellqualität.
Warum reicht eine Verbesserung der Modellgenauigkeit allein nicht aus, um die Akzeptanz bei Planern zu erhöhen?
Weil die Ursachen für mangelndes Vertrauen oft nicht in der Modellqualität liegen. Wenn Planer ihre eigene Position durch KI-Prognosen gefährdet sehen, wirkt eine bessere Modellperformance sogar verstärkend, nicht lösend. Entscheidend sind stattdessen Transparenz über die Funktionsweise des Modells, die frühzeitige Einbindung der betroffenen Mitarbeiter in Auswahl und Implementierung sowie ein Bewertungssystem, das die Zusammenarbeit mit dem Modell honoriert statt individuelle Prognosegenauigkeit gegen die KI auszuspielen.
