Blogartikel
Forecast Override: Warum Planer KI-Prognosen nicht vertrauen
Das Modell läuft. Die Prognosen sind nachweislich besser als vorher. Und trotzdem überschreibt das Team sie ständig. Was hinter dem Forecast Override steckt, ist meist kein Trotz, sondern Psychologie, Organisationsversagen und fehlende Kommunikation. Dieser Artikel erklärt die Ursachen und zeigt, was SCM-Leiter konkret dagegen tun können.

Stellen Sie sich eine Disposition mit 5.000 aktiven Artikeln vor: Über 40 Prozent der KI-generierten Absatzprognosen werden wöchentlich manuell verändert. Das Modell liegt nachweislich besser als die manuellen Korrekturen, gemessen am MAPE (Mean Absolute Percentage Error, d.h. der durchschnittlichen prozentualen Abweichung zwischen Prognose und tatsächlichem Absatz). Trotzdem vertraut das Team ihm nicht. Dieses Szenario ist kein Einzelfall. BCG stellt in ihrer Supply-Chain-Analyse 2026 fest, dass viele KI-Planungsprojekte nicht am Algorithmus scheitern, sondern an der Akzeptanz: Unternehmen mit höherer Planungsreife, die bereichsübergreifende Prozesse und ein gemeinsames Verständnis von Entscheidungsqualität aufgebaut haben, erzielen deutlich bessere Ergebnisse als jene, die ausschließlich in Technologie investiert haben. KI Prognose Akzeptanz ist damit kein weiches Thema, sondern eine Voraussetzung für ROI. Dieser Artikel erklärt, warum Planer KI-Prognosen trotz nachgewiesener Qualität überschreiben, und welche drei Ursachenebenen SCM-Leiter kennen müssen, um das Problem zu lösen.
Was im Kopf eines Planers vorgeht: Drei psychologische Ursachen für Forecast Override
Forecast Override ist kein Eigensinn. Er ist eine rationale Reaktion auf Unsicherheit, Kontrollverlust und konkrete Erfahrungen mit Modellfehlern. Drei psychologische Muster erklären, warum selbst erfahrene Planer KI-Prognosen systematisch misstrauen, unabhängig von der tatsächlichen Modellqualität.
Algorithm Aversion: Ein einziger markanter Fehler genügt
Algorithm Aversion (d.h. die Tendenz von Menschen, algorithmische Empfehlungen abzulehnen, nachdem sie das System bei einem Fehler beobachtet haben) ist das am besten untersuchte psychologische Phänomen hinter Forecast Overrides. Dietvorst, Simmons und Massey zeigen in ihrer Grundlagenstudie, veröffentlicht 2015 im Journal of Experimental Psychology, einen bemerkenswerten Befund: Menschen verlieren ihr Vertrauen in Algorithmen nach beobachteten Fehlern erheblich schneller als nach vergleichbaren menschlichen Fehlern, selbst wenn der Algorithmus insgesamt deutlich besser abschneidet.
Im Planungsalltag bedeutet das: Ein Planer erlebt im März, dass das KI-Modell eine Saisonspitze um 35 Prozent unterschätzt. Fehlbestand, Lieferverzögerungen, ein verärgerter Großkunde. Ab diesem Moment überschreibt er die Modellprognosen systematisch, besonders in der Saisonperiode, aber mit der Zeit auch darüber hinaus. Sein Misstrauen ist keine irrationale Überreaktion, sondern eine aus seiner Erfahrung heraus verständliche Schutzreaktion.
Das Gegenkonzept, Algorithm Appreciation (d.h. das Phänomen, dass Menschen algorithmischen Empfehlungen übermäßig vertrauen und die eigene Einschätzung vollständig zurückstellen), beschreibt Logg, Minson und Moore in ihrer Studie von 2019. Das Ziel ist weder blinde Übernahme noch reflexiver Widerstand, sondern informiertes Vertrauen: Der Planer versteht, wann das Modell stärker ist als sein Bauchgefühl, und wann umgekehrt.
Kognitive Verzerrungen: Warum Experten ihr Urteil überschätzen
Kognitive Verzerrungen (d.h. systematische Abweichungen vom rationalen Urteilen, die durch Erfahrung, Emotionen oder Vereinfachungsstrategien entstehen) sind kein Zeichen von Inkompetenz. Sie betreffen alle Menschen, und bei erfahrenen Planern treten zwei besonders ausgeprägte Muster auf.
Der Ankereffekt beschreibt die Tendenz, dass ein bereits bekannter Wert, häufig der Vorjahresabsatz, die eigene Schätzung stärker beeinflusst als rational gerechtfertigt. Ein Planer, der weiß, dass der Vorjahresabsatz im Oktober bei 800 Einheiten lag, korrigiert eine KI-Prognose von 1.100 Einheiten intuitiv nach unten, weil der Ankerwert zu stark zieht, selbst wenn Marktdaten, neue Kundenverträge und saisonale Signale eine höhere Nachfrage plausibel machen.
Der Overconfidence Bias beschreibt die Tendenz, die eigene Prognosekompetenz systematisch zu überschätzen, und ist bei Experten mit langjähriger Erfahrung besonders ausgeprägt. Der Grund: Erfolge werden gut erinnert, Fehler werden rationalisiert. Daniel Kahneman beschreibt in seinem Standardwerk "Thinking, Fast and Slow" (2011) die strukturellen Grenzen intuitiver Expertenurteile und zeigt, dass auch hochkompetente Menschen in Bereichen mit starken Feedbackverzögerungen ihre Vorhersagegenauigkeit systematisch überschätzen. Absatzprognosen gehören genau in diese Kategorie: Zwischen Prognose und Rückmeldung vergehen Wochen, und die kausalen Zusammenhänge sind selten eindeutig.
Kontrollverlust: Wenn KI die Kompetenz des Planers unsichtbar macht
Der tieferliegende Widerstand hat eine andere Qualität als Algorithm Aversion oder kognitive Verzerrungen. Er hat nichts mit der Prognosequalität zu tun, sondern mit der Frage, was aus der Rolle des Planers wird, wenn ein Algorithmus die Entscheidungen trifft.
Planer, die jahrelang mit ihrer Einschätzung, ihrer Marktkenntnis und ihrem Gespür für Ausnahmen einen echten Mehrwert geliefert haben, erleben mit der KI-Einführung eine Verschiebung: Ihre Kompetenz ist nicht mehr sichtbar, wenn das System entscheidet. Der Forecast Override ist in dieser Situation kein Sabotageakt und keine bewusste Verweigerung, sondern ein Selbstschutzreflex. Das Überschreiben der Prognose ist eine Markierung von Expertenwissen, ein Signal: Ich bin noch relevant, mein Urteil zählt.
Dieses Verhalten verschwindet nicht durch technische Verbesserungen des Modells. Ein genauerer Algorithmus macht die Situation aus Sicht des Planers tendenziell schlechter, weil er seinen eigenen Beitrag noch schwerer sichtbar machen kann. Die Lösung liegt in einer veränderten Rollengestaltung, was Perspektive 2 zeigt.
Was Unternehmen falsch machen: Drei organisatorische Verstärker des Akzeptanzproblems
Psychologische Muster sind universell. Wie stark sie sich ausprägen, hängt von der Umgebung ab. Drei organisatorische Entscheidungen verstärken das Misstrauen systematisch, und alle drei sind vermeidbar.
Fehlende Modellerklärbarkeit: Eine Zahl ohne Begründung ist keine Entscheidungsgrundlage
Wenn ein Planer nicht nachvollziehen kann, warum das Modell 1.200 Einheiten vorschlägt, fehlt ihm die Grundlage für eine informierte Entscheidung. Das Black-Box-Problem (d.h. die Eigenschaft von KI-Modellen, deren Entscheidungslogik für den Nutzer nicht nachvollziehbar ist) ist in diesem Kontext kein rein technisches Problem, sondern vor allem ein Kommunikationsproblem. Wer eine Prognose nicht erklären kann, kann ihr nicht zustimmen und ihr auch nicht präzise widersprechen. Er kann sie nur pauschal überschreiben oder blind übernehmen. Beides ist schlechter als eine informierte Kollaboration.
Die Lösung liegt in Modellerklärbarkeit (Explainability, d.h. der Fähigkeit eines Systems, seine Ausgaben so zu begründen, dass Nutzer sie nachvollziehen können). Eine Prognose, die zeigt: "Haupttreiber: Vorjahresabsatz +12 %, Saisonindex +8 %, aktiver Großkundenvertrag +5 %" erzeugt eine qualitativ andere Gesprächsgrundlage als eine bloße Zahl. Der Planer kann einem spezifischen Treiber präzise widersprechen ("Die Herbstaktion gilt diesmal nicht für diese Region"), statt die gesamte Prognose zu verwerfen. Das ist keine Override-Situation mehr, sondern eine kollaborative Planungskorrektur. Laut PWC Digital Operations Survey 2025 nennen Unternehmen fehlende Erklärbarkeit und mangelndes Nutzervertrauen als die beiden größten Adoptionsbarrieren bei KI-Planungstools.
Keine Einbindung bei der Einführung: Das System wurde über die Planer hinweg installiert
Das häufigste Organisationsproblem ist auch das vermeidbarste: Planer wurden bei der Systemauswahl und -konfiguration nicht eingebunden. Das Modell kennt ihre Planungspraxis nicht, ihre Besonderheiten nicht, ihre Einschätzung zum Sortiment, zu saisonalen Eigenheiten und zu Schlüsselkunden nicht, weil niemand sie gefragt hat.
Die Folge ist vorhersehbar: Das erste markante Modellfehler bestätigt ein Misstrauen, das schon vor dem ersten Einsatz existierte. "Wir wussten ja, dass das nicht funktioniert" ist dann weniger eine sachliche Einschätzung als eine selbsterfüllende Prophezeiung. BCG beschreibt in ihrer 2026er Studie, dass Unternehmen, die KI-Planungssysteme ohne strukturelle Prozessveränderung und ohne Einbindung der Nutzer einführen, mit großer Wahrscheinlichkeit keinen messbaren ROI erzielen. Wer KI über die Köpfe der Planer hinweg einführt, investiert in ein System, das niemand nutzen will.
Das gilt auch für die inhaltliche Konfiguration: Ein Modell, das keine Kenntnis von Saisonausnahmen, Aktionskalendern oder Großkundenpipelines hat, weil diese Informationen nie systematisch eingepflegt wurden, produziert bei genau diesen Ereignissen vorhersehbar schlechte Prognosen. Und diese Fehler entstehen nicht, weil der Algorithmus schlecht ist, sondern weil ihm niemand die relevanten Informationen gegeben hat.
Falsche Anreize: Wer für Prognosequalität bewertet wird und wie
Wenn Planer nach der Qualität ihrer persönlichen Einschätzungen bewertet werden, ob sie eine Saisonspitze richtig eingeschätzt, einen Großauftrag rechtzeitig erkannt oder eine Sondersituation korrekt bewertet haben, dann haben sie keinen rationalen Anreiz, der KI zu folgen. Denn wenn sie die Systemprognose übernehmen, ist ihr eigener Beitrag unsichtbar. Wenn sie überschreiben und richtig liegen, ist es ihr Erfolg. Wenn sie überschreiben und falsch liegen, können sie auf die Situation verweisen.
Die Override-Rate (d.h. der prozentuale Anteil der KI-Prognosen, die manuell verändert werden) ist in diesem Zusammenhang ein aufschlussreicher Diagnoseindikator. Entscheidend ist aber nicht nur die Menge der Überschreibungen, sondern ihre Qualität: Machen die manuellen Eingriffe die Prognose im Durchschnitt besser oder schlechter, gemessen am MAPE-Vergleich? Wenn Planer die KI-Prognosen systematisch verschlechtern, ist das ein klares Signal für ein strukturelles Anreizproblem, kein Hinweis auf fehlende Kompetenz der Planer.
Wie SCM-Leiter das Vertrauen in KI-Prognosen aufbauen: Vier konkrete Maßnahmen
Vertrauen in KI-Prognosen entsteht nicht durch bessere Algorithmen. Es entsteht durch veränderte Rahmenbedingungen. Vier Maßnahmen, die SCM-Leiter ohne Systemwechsel angehen können, adressieren die drei beschriebenen Ursachenebenen direkt.
Override-Rate messen: Was wird tatsächlich verändert und bringt es etwas?
Der erste Schritt ist diagnostisch und kostet kein Budget: die systematische Erhebung der Override-Rate und ihrer Auswirkungen auf die Prognosequalität. Zwei Fragen müssen beantwortet werden. Wie viele KI-Prognosen werden wöchentlich manuell verändert? Und verbessern diese Veränderungen den MAPE oder verschlechtern sie ihn?
Diese Analyse ist kein Kontrollinstrument gegen Planer, sondern eine Grundlage für ein sachliches Gespräch. Wenn das Ergebnis zeigt, dass 60 Prozent der Overrides die Prognose verschlechtern, ist das eine strukturelle Erkenntnis, keine individuelle Schuldzuweisung. Der nächste Schritt ist das gemeinsame Gespräch im Team: Bei welchen Artikeln, Zeiträumen oder Ereignissen macht manuelles Eingreifen tatsächlich die Prognose besser? Diese Fälle sind wertvoll, weil sie zeigen, wo Planer-Wissen dem Modell überlegen ist. Und sie zeigen, wo das Modell noch verbessert werden kann.
Erklärbarkeit aktivieren: Jede Prognose braucht eine Begründung
Viele Planungssysteme können die Haupttreiber einer Prognose ausweisen. Wenn diese Funktion nicht aktiviert ist, ist das Einschalten die einfachste Maßnahme mit der größten Wirkung auf das Vertrauen der Planer. Kein Systemwechsel, keine neue Implementierung.
Das Prinzip ist konkret: Statt "Prognose Oktober: 1.200 Einheiten" zeigt das System "Prognose Oktober: 1.200 Einheiten. Treiber: Vorjahresbasis 980 Einheiten, Saisonindex +18 %, Großkundenvertrag ab September +4 %". Der Planer kann nun informiert reagieren, ob er einem Treiber zustimmt, ob er einen relevanten Faktor ergänzen will, den das Modell nicht kennt, oder ob die gesamte Prognose plausibel erscheint. Das ist eine qualitativ andere Interaktion als das pauschale Überschreiben einer unverstehbaren Zahl.
Planer als Modellpfleger: Die Rolle neu gestalten
Das wirksamste Mittel gegen Kontrollverlust ist eine veränderte Rollenbeschreibung: Planer sind nicht Prognose-Ausführer, sondern Modellpfleger. Sie liefern dem System das Kontextwissen, das kein Algorithmus kennt: bevorstehende Promotions, bekannte Großaufträge, neue Kundenverträge, Sortimentsänderungen, regionale Sondereffekte.
Dieses Wissen wird nicht als manueller Override nach der Prognose eingepflegt, sondern als strukturierter Input vor der Prognoseberechnung. Das Modell produziert damit eine Prognose, die das Planerwissen bereits enthält. Das Ergebnis ist kein Kompromiss zwischen Mensch und Maschine, sondern eine kombinierte Leistung. Das Leitprinzip heißt Human-in-the-Loop (d.h. der Mensch bleibt aktiver Bestandteil des Entscheidungsprozesses, nicht als Korrektiv am Ende, sondern als Informationsquelle am Anfang).
Für Planer verändert sich dadurch die Erfahrung: Ihre Kompetenz ist im Modell wirksam, nicht unsichtbar. Ihr Beitrag ist nachvollziehbar, nicht durch die KI-Ausgabe überdeckt. Deloitte beschreibt in seinem Manufacturing Industry Outlook 2026, dass KI-Projekte im Fertigungsbereich besonders dann erfolgreich sind, wenn neue Mensch-Maschine-Arbeitsmodelle aktiv gestaltet werden, statt KI als Ersatz für menschliche Aufgaben zu positionieren.
Anreize anpassen: Prognosequalität als gemeinsame Kennzahl
Solange Planer nach ihrer individuellen Prognosegenauigkeit bewertet werden, bleibt der Anreiz zum Override strukturell erhalten. Die Lösung ist eine veränderte Messung: MAPE des Gesamtteams als gemeinsame Kennzahl, nicht individuelle Override-Qualität als Bewertungsgrundlage.
Dieser Wechsel verändert das Spiel: Planer arbeiten mit dem Modell, nicht gegen es, weil der gemeinsame Erfolg zählt, nicht der individuelle Nachweis der eigenen Überlegenheit. Wer gut darin ist, das Modell mit relevantem Kontextwissen zu versorgen, wird in diesem System sichtbar und anerkannt. Wer gut darin ist, die richtigen Ausnahmesituationen zu erkennen, in denen Override tatsächlich die Prognose verbessert, leistet einen messbaren Beitrag.
Fazit: Forecast Override ist ein Signal, keine Fehlfunktion
Forecast Override hört nicht auf, weil das Modell besser wird. Er hört auf, wenn Planer verstehen, warum das Modell zu einem Ergebnis kommt, und wenn sie sehen, dass ihr Wissen das Modell verbessert, statt ersetzt.
Drei Schritte, die SCM-Leiter sofort angehen können: Erstens, Override-Rate messen und mit dem Team gemeinsam auswerten, nicht als Kontrollinstrument, sondern als Diagnosebasis. Zweitens, Erklärbarkeit der Prognosen aktivieren, damit Planer Treiber verstehen und präzise reagieren können, statt pauschal zu überschreiben. Drittens, Planer in die Modellpflege einbinden, nicht nur in die Modellnutzung: ihr Kontextwissen gehört in den Prozess, nicht hinter den Prozess.
Das sind keine Technologiemaßnahmen. Es sind Führungs- und Prozessentscheidungen. Und sie liegen vollständig im Einflussbereich des SCM-Leiters.
Weiterführende Quellen:
BCG (2026): Supply Chain Planning 2026: Why AI Alone Isn't Enough
BVL (2025): Trends und Strategien in Logistik und Supply Chain Management 2025/26
Kahneman, D. (2011): Thinking, Fast and Slow, Farrar, Straus and Giroux
FAQs
Was ist ein Forecast Override und warum ist er ein Problem?
Ein Forecast Override ist die manuelle Überschreibung einer automatisch generierten KI-Absatzprognose durch einen Planer. Er wird zum Problem, wenn er systematisch und pauschal erfolgt, also nicht weil die Prognose im Einzelfall tatsächlich falsch liegt, sondern aus Misstrauen gegenüber dem Modell. In einer Disposition mit 5.000 aktiven Artikeln können über 40 Prozent der KI-Prognosen wöchentlich manuell verändert werden, obwohl das Modell nachweislich besser abschneidet als die manuellen Korrekturen.
Was versteht man unter Algorithm Aversion und wie entsteht sie im Planungsalltag?
Algorithm Aversion bezeichnet die Tendenz, algorithmischen Empfehlungen nach einem beobachteten Fehler das Vertrauen dauerhaft zu entziehen, schneller und nachhaltiger als nach einem vergleichbaren menschlichen Fehler. Im Planungsalltag reicht ein einziger markanter Vorfall: Ein Planer erlebt, dass das Modell eine Saisonspitze um 35 Prozent unterschätzt und daraus Fehlbestand und Lieferverzögerungen entstehen. Ab diesem Moment überschreibt er die Modellprognosen systematisch, zunächst für Saison-Artikel, mit der Zeit auch darüber hinaus.
Was ist der Unterschied zwischen Algorithm Aversion und Algorithm Appreciation?
Algorithm Aversion beschreibt das reflexive Misstrauen gegenüber Algorithmen nach beobachteten Fehlern. Algorithm Appreciation ist das Gegenteil: ein übermäßiges Vertrauen, bei dem die eigene Einschätzung vollständig zurückgestellt wird. Beide Extreme sind für die Planungsqualität schädlich. Das Ziel ist informiertes Vertrauen, bei dem der Planer beurteilen kann, wann das Modell stärker ist als sein Bauchgefühl, und wann sein eigenes Kontextwissen dem Algorithmus überlegen ist.
Warum überschreiben erfahrene Planer KI-Prognosen auch dann, wenn das Modell besser liegt?
Zwei kognitive Verzerrungen spielen dabei eine entscheidende Rolle. Der Ankereffekt sorgt dafür, dass bekannte Vorjahreswerte die eigene Einschätzung stärker beeinflussen als rational gerechtfertigt, selbst wenn aktuelle Marktdaten eine andere Prognose stützen. Der Overconfidence Bias beschreibt die Tendenz, die eigene Prognosekompetenz systematisch zu überschätzen, weil Erfolge gut erinnert und Fehler rationalisiert werden. In Bereichen mit langen Feedbackverzögerungen wie der Absatzprognose verstärkt sich dieser Effekt, da zwischen Erstellung und Überprüfung der Prognose Wochen vergehen können.
Was ist das Black-Box-Problem bei KI-Prognosetools und wie lässt es sich lösen?
Das Black-Box-Problem beschreibt, dass Planer zwar das Ergebnis einer KI-Prognose sehen, aber nicht nachvollziehen können, welche Faktoren in welchem Ausmaß dazu geführt haben. Wer eine Prognose nicht erklären kann, kann ihr nicht informiert zustimmen, sondern nur pauschal überschreiben oder blind übernehmen. Die Lösung liegt in Modellerklärbarkeit: Ein System, das zeigt, dass der Vorjahresabsatz, ein Saisonindex und ein aktiver Großkundenvertrag die Prognose in welchem Ausmaß beeinflusst haben, ermöglicht eine präzise Reaktion auf einzelne Treiber, statt die gesamte Prognose zu verwerfen.
Wie sollte die Override-Rate gemessen und ausgewertet werden?
Zwei Fragen stehen im Mittelpunkt: Wie viele KI-Prognosen werden wöchentlich manuell verändert, und verbessern oder verschlechtern diese Änderungen den MAPE (Mean Absolute Percentage Error, also die durchschnittliche prozentuale Abweichung zwischen Prognose und tatsächlichem Absatz)? Die Analyse ist kein Kontrollinstrument gegen Planer, sondern eine Gesprächsgrundlage. Zeigt sie, dass 60 Prozent der Overrides die Prognosequalität verschlechtern, ist das eine strukturelle Erkenntnis. Der nächste Schritt ist die gemeinsame Auswertung im Team: Bei welchen Artikeln oder Situationen macht manuelles Eingreifen die Prognose tatsächlich besser?
Was bedeutet das Prinzip „Human-in-the-Loop" in der Absatzplanung?
Human-in-the-Loop bedeutet, dass der Mensch nicht als Korrektiv am Ende des Planungsprozesses steht, sondern als Informationsquelle am Anfang. Planer liefern dem System das Kontextwissen, das kein Algorithmus kennt: bevorstehende Promotions, bekannte Großaufträge, Sortimentsänderungen, regionale Sondereffekte. Dieses Wissen fließt als strukturierter Input in die Prognoseberechnung ein, nicht als manueller Override danach. Die Prognose enthält das Planerwissen bereits, und der Beitrag des Planers ist im Modell sichtbar, nicht durch die KI-Ausgabe überdeckt.
Welche Anpassung bei der Erfolgsmessung kann die Akzeptanz von KI-Prognosen nachhaltig verbessern?
Solange Planer nach ihrer individuellen Prognosegenauigkeit bewertet werden, bleibt der Anreiz zum Override strukturell erhalten, weil ihr eigener Beitrag nur sichtbar wird, wenn sie das Modell überschreiben und richtig liegen. Eine veränderte Messung, bei der der MAPE des Gesamtteams als gemeinsame Kennzahl gilt statt der individuellen Override-Qualität, verändert das Verhalten grundlegend. Planer arbeiten dann mit dem Modell, weil der gemeinsame Erfolg zählt. Wer das Modell mit relevantem Kontextwissen versorgt und Ausnahmesituationen erkennt, in denen Override die Prognose tatsächlich verbessert, leistet in diesem System einen messbaren und anerkannten Beitrag.
