Blogartikel
Absatzprognose ohne saubere Daten: Was geht, und was nicht?
Die Absatzprognose ist nur so gut wie die Daten, auf denen sie basiert. Das gilt für klassische statistische Methoden, und noch mehr für KI-gestützte Planungslösungen. Fehlende Buchungen, nicht bereinigte Promotions, gebrochene Zeitreihen nach einem ERP-Wechsel: Diese Datenprobleme erzeugen Prognosen, die plausibel aussehen, aber systematisch falsch liegen. Dieser Artikel zeigt, welche Datenprobleme welche Konsequenzen haben und was SCM-Leiter konkret dagegen tun können.

Fehlvorschläge in der Bestandsplanung haben selten eine technische Ursache. Laut der IHL Group verursachen Out-of-Stocks und Überbestände jährlich weltweite Kosten in Milliardenhöhe, und inakkurate Bedarfsplanung ist einer der zentralen Treiber dahinter. Das Fraunhofer IML hält in seiner Forschung zur Bedarfsprognose fest, dass historische Absatzdaten die wichtigste Informationsgrundlage für jede Prognose sind und dass Datenmenge sowie -qualität für jeden Anwendungsfall differenziert bewertet werden müssen. Trotzdem beginnen viele Mittelstandsunternehmen Gespräche über bessere Prognosen mit der Frage nach dem richtigen System, nicht mit der Frage nach der Qualität ihrer Daten.
Das ist die falsche Reihenfolge. Bevor Methodenwahl und Systemfrage sinnvoll beantwortet werden können, braucht es eine ehrliche Einschätzung der eigenen Absatzhistorie (also der Zeitreihe tatsächlicher Abverkaufsmengen auf Artikelebene): Wie vollständig ist sie? Welche Ereignisse haben sie verzerrt? Und wo gibt es strukturelle Brüche, die historische Muster unbrauchbar machen? Laut PWC-Studie 2025 zu digitalen Trends in Operations nennen Operations- und Supply-Chain-Verantwortliche Datenqualität als eine der zentralen Barrieren bei der Einführung besserer Planungslösungen.
Dieser Artikel sortiert die häufigsten Datenprobleme, erklärt ihre Konsequenzen für klassische und KI-gestützte Prognosen und zeigt vier Maßnahmen, die SCM-Leiter ohne Systemwechsel sofort angehen können.
Klassische Absatzprognose: Welche Datenprobleme welche Fehler erzeugen
Klassische Prognosemethoden wie exponentielle Glättung, gleitende Mittelwerte oder ARIMA-Modelle sind methodisch ausgereift und für viele Planungsaufgaben gut geeignet. Sie haben aber eine gemeinsame Schwäche: Sie sind blind für die Herkunft der Daten, die sie verarbeiten. Drei Fehlerquellen treten in der Praxis am häufigsten auf und erzeugen jeweils spezifische Prognoseprobleme, die ohne Datenanalyse unsichtbar bleiben.
Ungebuchte Stockouts: Wenn fehlende Verkäufe als Nullnachfrage gewertet werden
Ein Stockout ist eine Situation, in der ein Artikel nicht lieferbar ist, obwohl Nachfrage besteht. Was tatsächlich passiert, wenn ein Artikel nicht auf Lager ist, wird im ERP aber häufig nicht als solches registriert: Es gibt keine Bestellung, also keine Buchung, also eine Null in der Verkaufshistorie. Das Prognosesystem interpretiert diese Null als tatsächliche Nullnachfrage.
Die Konsequenz ist eine systematische Unterschätzung der Nachfrage für genau die Artikel, bei denen Stockouts aufgetreten sind. Das Modell lernt: Dieser Artikel wird selten gefragt. Der Bestellvorschlag fällt kleiner aus. Die Wahrscheinlichkeit des nächsten Stockouts steigt. Ein sich selbst verstärkender Fehlerkreis entsteht, der ohne aktive Bereinigung der Daten nicht aufgebrochen wird.
Prüffrage: Haben Sie für Ihre A-Artikel in den letzten 24 Monaten Perioden identifiziert, in denen eine Nullnachfrage in der Absatzhistorie tatsächlich einem Lieferengpass und nicht fehlender Kundennachfrage entspricht?
Promotions ohne Kennzeichnung: Wenn Ausreißer die Basislinie verzerren
Eine Verkaufsaktion, ein saisonaler Sonderpreis, ein Großauftrag eines einzelnen Kunden: All das erzeugt Spitzenwerte in der Absatzhistorie, die nichts über die reguläre Nachfrage aussagen. Werden diese Ausreißer nicht gesondert gekennzeichnet, fließen sie als reguläre Nachfrage in die Prognoseberechnung ein.
Das Ergebnis ist eine verzerrte Basislinie. Das Modell hält die erhöhten Verkaufszahlen der Aktionswochen für normalen Bedarf und plant entsprechend zu hohe Mengen für die Folgeperiode. MAPE (Mean Absolute Percentage Error, also der mittlere absolute prozentuale Prognosefehler) als Qualitätsmessgröße verschlechtert sich dabei in beide Richtungen: zu hohe Prognosen nach Aktionsperioden, zu niedrige davor. Wer diesen Zusammenhang nicht kennt, sucht die Ursache im System statt in den Daten.
Das Fraunhofer IML empfiehlt als ersten Schritt der Zeitreihenanalyse die Zerlegung in Trend, Saisonalität und Residuen. Dieser Schritt setzt voraus, dass die Residuen tatsächlich Rauschen sind und keine unbereinigten Aktionsereignisse.
Prüffrage: Sind Promotions, Sonderaufträge und Einmalbestellungen in Ihrer Absatzhistorie als solche gekennzeichnet, oder gehen sie als reguläre Verkäufe in die Prognoseberechnung ein?
Strukturbrüche: Wenn historische Muster die Zukunft nicht mehr erklären
Ein Strukturbruch ist eine Veränderung in der Zeitreihe, die historische Muster unbrauchbar macht: ein Sortimentswechsel, ein neuer Vertriebskanal, ein ERP-Wechsel, der Datenreihen bricht, oder ein makroökonomisches Ereignis wie die COVID-Lieferkettenstörungen 2020 bis 2022. Prognosemodelle, die auf Daten vor dem Strukturbruch trainiert werden oder diese Daten ohne Gewichtung verwenden, extrapolieren Muster, die längst keine Gültigkeit mehr haben.
Die Diagnose ist oft schwierig, weil der MAPE nach einem Strukturbruch zunächst unauffällig erscheint: Das Modell rechnet konsistent, aber auf der falschen Grundlage. Erst wenn die Bestandsprobleme eskalieren, wird rückwirkend der Datenzusammenhang sichtbar. Dann ist die Korrektur aufwändiger als eine frühzeitige Bereinigung es gewesen wäre.
Prüffrage: Gibt es in Ihrer Absatzhistorie der letzten drei Jahre Ereignisse, nach denen sich Nachfragemuster strukturell verändert haben, und werden diese Perioden bei der Prognoseberechnung gesondert behandelt?
KI-Prognose: Was sie mit schlechten Daten macht, und was nicht
KI-gestützte Prognosen haben gegenüber klassischen statistischen Methoden echte Vorteile: Sie erkennen komplexere Muster, lernen aus Datenkombinationen, die klassische Modelle nicht verarbeiten, und passen sich an veränderte Bedingungen schneller an. Was sie nicht haben, ist eine Immunität gegen schlechte Daten. Drei Szenarien zeigen, wo die Grenze verläuft.
Garbage in, garbage out: Warum KI-Modelle schlechte Daten nicht kompensieren
Das Fraunhofer IML hält in seiner Forschungsarbeit zur ML-basierten Bedarfsprognose explizit fest, dass bei nicht ausreichender Datenqualität mit wenigen fehlenden Werten und Ausreißern das ML-Modell möglicherweise fehlerhafte Ergebnisse generiert, und dass in diesen Fällen auch konventionelle statistische Verfahren die bessere Wahl sein können. Dieser Befund ist methodisch bedeutsam: KI lernt aus Mustern, die in den Trainingsdaten vorhanden sind. Wenn diese Muster durch Stockouts, Promotions oder Strukturbrüche verzerrt sind, lernt das Modell die falschen Zusammenhänge, nur schneller und mit größerer Überzeugung.
Ein KI-Modell, das auf verzerrten Daten trainiert wird, liefert nicht zufällig schlechte Prognosen. Es liefert systematisch schlechte Prognosen, weil es die falschen Muster mit hoher Präzision reproduziert. Das macht die Fehler schwerer erkennbar als bei einfachen statistischen Methoden, bei denen die Berechnungsgrundlage transparent bleibt. BCG (2026) stellt in der Supply-Chain-Planungsstudie fest, dass Unternehmen, die KI-Lösungen ohne ausreichende Datenbasis einführen, keine nachhaltigen Leistungsverbesserungen erzielen.
Die Konsequenz für die Praxis: Datenbereinigung ist keine Vorbereitung auf KI, sie ist Voraussetzung für KI. Bevor ein ML-Modell trainiert wird, müssen die Eingangsdaten auf Vollständigkeit, Konsistenz und strukturelle Brüche geprüft worden sein.
Sparse Data: Was KI bei C-Artikeln und Neuprodukten leisten kann
Als Sparse Data (also dünne Datenlage) bezeichnet man Situationen, in denen für einen Artikel zu wenige historische Datenpunkte vorliegen, um eine statistische Prognose sinnvoll zu berechnen. Typisch für C-Artikel mit sporadischer Nachfrage, für Saisonartikel im ersten oder zweiten Jahr oder für Neuprodukte ohne Absatzhistorie.
KI hat bei Sparse Data einen begrenzten, aber realen Vorteil gegenüber klassischen Methoden: Cross-Learning. Dabei lernt ein Modell nicht nur aus der eigenen Zeitreihe des einzelnen Artikels, sondern aus dem Muster vieler ähnlicher Artikel gleichzeitig. Wenn ein Neuprodukt in einer Kategorie eingeführt wird, kann das Modell Muster aus vergleichbaren Einführungen vergangener Produkte einbeziehen. Das ist besser als ein gleitender Durchschnitt über drei Datenpunkte, aber es ist kein Ersatz für echte Absatzhistorie. Die Prognoseunsicherheit bleibt hoch, und das Modell muss das transparent kommunizieren.
Welche Datenvoraussetzungen KI-gestützte Absatzprognosen konkret erfordern und ab wann sich der Einsatz lohnt, beschreibt der Artikel zu KI-Absatzprognosen im Mittelstand.
Externe Datensignale: Wann sie helfen, wann nicht
KI-Prognosesysteme können externe Datenquellen einbinden: Wetterdaten für saisonale Produkte, Konjunkturindikatoren, POS-Daten von Handelspartnern, Ferien- und Veranstaltungskalender. Das Fraunhofer IML hat in Praxisprojekten demonstriert, wie die Einbeziehung externer Faktoren die Prognosequalität gegenüber rein historischen Modellen verbessern kann.
Diese Stärke hat aber eine klare Voraussetzung: Die externen Signale müssen tatsächlich Vorhersagekraft für den eigenen Artikel und Markt haben. Wetterdaten verbessern die Prognose für Sonnenschutzartikel. Sie verbessern nicht die Prognose für Industrieschrauben. Wer externe Datensignale einbindet, ohne vorher ihren Einfluss auf die eigene Nachfragestruktur zu validieren, erhöht die Datenmenge, aber nicht die Prognosequalität. Eine stabile Datenpipeline (also ein automatisierter Prozess zur Übertragung und Bereinigung der Daten aus verschiedenen Quellen) ist die technische Voraussetzung, ohne die externe Signale mehr Aufwand als Nutzen erzeugen.
Wann der Schritt zur spezialisierten SCM-Software, die externe Datensignale systematisch verarbeitet, gegenüber einem ERP-Planungsmodul sinnvoll ist, beschreibt der Artikel zu SCM-Software vs. ERP-Modul mit Entscheidungskriterien.
Datenqualität verbessern: Vier Maßnahmen für SCM-Leiter
Bessere Prognosedaten sind keine Frage der Software, sondern des Prozesses. Vier Maßnahmen, die SCM-Leiter ohne Systemwechsel starten können, und die zusammen mehr Wirkung haben als jede Methodenoptimierung ohne Datenbasis.
Datenaudit: Wo stecken die Probleme in Ihrer Absatzhistorie?
Der erste Schritt ist eine strukturierte Bestandsaufnahme. Für jede der drei beschriebenen Fehlerquellen gibt es konkrete Prüffragen: Welche Artikel hatten in den letzten 24 Monaten Stockout-Perioden, und sind diese als solche in den Daten markiert? Welche Promotions und Sonderaktionen haben die Absatzhistorie beeinflusst, und wurden sie nachträglich gekennzeichnet? Gibt es Datenbrüche durch ERP-Migrationen, Sortimentsbereinigungen oder externe Ereignisse, die Teile der Historie unbrauchbar machen?
Dieser Audit muss nicht für das gesamte Sortiment auf einmal durchgeführt werden. Der sinnvolle Startpunkt sind die A-Artikel, also die umsatzstärksten Positionen, bei denen Prognosefehler den größten finanziellen Einfluss haben. Wer dort die Datenqualität kennt, hat die relevanteste Grundlage für alle weiteren Entscheidungen.
Bereinigung: Wie Sie Promotions, Stockouts und Ausreißer kennzeichnen
Bereinigung bedeutet nicht, Datenpunkte zu löschen. Es bedeutet, sie zu markieren, damit das Prognosesystem sie anders gewichtet oder ausschließt. Konkret: Stockout-Perioden werden als solche gekennzeichnet, damit das System statt Null eine modellierte Nachfrageschätzung verwendet. Promotionszeiträume werden markiert, damit die Verkaufsspitzen nicht als regulärer Bedarf in die Basislinie fließen. Strukturbrüche werden dokumentiert, damit die Berechnungsgrundlage entsprechend angepasst werden kann.
Dieser Prozess ist manuell aufwändig, aber einmalig. Wer für die letzten 24 Monate eine bereinigte Absatzhistorie aufgebaut hat, hat damit die Grundlage für jede weiterführende Prognoseverbesserung geschaffen, ob mit klassischen Methoden oder mit KI. Eine bereinigte Absatzhistorie ist das, was KI-Projekte brauchen, bevor sie starten, und was klassische Systeme brauchen, damit ihre Ergebnisse vertrauenswürdig sind.
Proxy-Daten für Neuprodukte: Was als Ersatz funktioniert
Für Neuprodukte oder Artikel mit sehr kurzer Absatzhistorie gibt es keine Vergangenheitsdaten, aus denen direkt gelernt werden kann. Proxy-Daten sind Ersatzdaten, die ähnliche Nachfragemuster zeigen: Verkaufsdaten eines vergleichbaren Vorgängerartikels, der Kategoriedurchschnitt für ähnliche Produkte, oder branchenübliche Einführungskurven.
Das Prinzip ist methodisch robust, aber es setzt eine bewusste Entscheidung voraus: Wer legt fest, welches Produkt als Proxy gilt? Wer dokumentiert diese Entscheidung? Ohne klaren Prozess entstehen Proxy-Zuordnungen, die niemand mehr nachvollziehen kann, und die nach einem Personalwechsel nicht mehr gepflegt werden. Forecast Overrides, also manuelle Eingriffe in KI-Prognosen, die häufig bei Neuprodukten auftreten, entstehen oft genau dort, wo Proxy-Daten fehlen oder schlecht gewählt sind. Wie Forecast Overrides sinnvoll gesteuert werden können, beschreibt der Artikel zu KI-Prognosen und Planereingriffen.
Datenpipeline aufbauen: Wann lohnt sich die Investition?
Eine Datenpipeline ist ein automatisierter Prozess, der Daten aus verschiedenen Quellen, also ERP, Excel, BI-System, ggf. externe Quellen, regelmäßig zusammenführt, bereinigt und in ein Zielsystem überträgt. Für Unternehmen, die heute manuell zwischen ERP und Planungstool datenpflegen, ist eine Datenpipeline der wichtigste Schritt zur nachhaltigen Datenqualität.
Wann lohnt sich die Investition? Als Orientierung: Wenn die manuelle Datenpflege zwischen Systemen mehr als zwei Stunden pro Woche kostet, oder wenn dieselben Daten an mehr als zwei Stellen gepflegt werden, übersteigt der Pflegeaufwand mittelfristig den Aufwand einer einmaligen Automatisierung. Der IT-Aufwand für eine einfache Datenpipeline zwischen ERP und Planungstool ist erfahrungsgemäß geringer als der Aufwand, den Fehler durch manuelle Datenübertragung verursachen.
Fazit
Ob klassisch oder KI: Jede Prognosemethode ist so gut wie die Daten, auf denen sie basiert. Der erste Schritt zur besseren Absatzprognose ist kein Systemwechsel und keine Methodendiskussion, sondern ein Datenaudit. Wer die drei größten Fehlerquellen in der eigenen Absatzhistorie kennt, Stockouts, unmarkierte Promotions, Strukturbrüche, hat damit eine belastbarere Grundlage als jede neue Software allein liefern kann.
Drei Sofortmaßnahmen, die heute möglich sind: Stockout-Perioden der letzten 24 Monate für die A-Artikel identifizieren und kennzeichnen. Promotions rückwirkend in der Absatzhistorie markieren. Und den MAPE der aktuellen Prognose messen, als Baseline für alles, was folgt. Wer diese drei Schritte abgeschlossen hat, weiß, ob das Problem in den Daten liegt, in der Methode oder im System. Und erst dann ist die Systemfrage sinnvoll zu stellen.
Weiterführende Quellen
Fraunhofer IML: Machine Learning: Potenziale und Vorteile in der Bedarfsprognose
BCG (2026): Supply Chain Planning 2026: Why AI Alone Isn't Enough
IHL Group (2023): Inventory Distortion: The Good, the Bad, the Ugly
FAQs
Wie viele Jahre Absatzhistorie brauche ich für eine zuverlässige Prognose?
Als Richtwert gilt: Mindestens 24 Monate bereinigte Absatzdaten auf Artikelebene, um saisonale Muster zuverlässig abzubilden. Für KI-gestützte Prognosen empfiehlt das Fraunhofer IML, dass Eingangsdaten nicht älter als fünf Jahre sein sollten, um Relevanz zu gewährleisten. Bei stark saisonalen Artikeln sind drei bis vier vollständige Jahreszyklen ideal, damit das Modell sowohl reguläre Muster als auch Ausnahmen statistisch sicher erkennen kann. Wichtiger als die schiere Datenmenge ist die Qualität: 24 Monate bereinigte Daten sind wertvoller als 48 Monate mit unmarkierten Stockouts und Promotions.
Was mache ich, wenn meine Verkaufsdaten durch einen ERP-Wechsel gebrochen sind?
Ein ERP-Wechsel unterbricht Zeitreihen fast immer. Drei pragmatische Ansätze helfen: Erstens, prüfen Sie, ob Altdaten aus dem Vorsystem in das neue ERP migriert wurden, und wenn ja, ob sie im gleichen Format und auf gleicher Aggregationsebene vorliegen. Zweitens, kennzeichnen Sie den Zeitraum des Wechsels als Strukturbruch in den Daten, damit Prognosemodelle ihn separat behandeln. Drittens, nutzen Sie für die Übergangsperiode Proxy-Daten aus vergleichbaren Artikeln oder Kategorie Durchschnitten. Für Artikel mit sehr kurzer Post-Migration-Historie empfiehlt sich zunächst ein konservatives Prognoseverfahren mit explizit hoher Unsicherheitsmarge, bis ausreichend neue Daten vorliegen.
Wie kennzeichne ich Promotions und Sonderaufträge in meiner Absatzhistorie?
Der einfachste Ansatz ist ein separates Attribut auf Transaktionsebene, entweder im ERP oder in der Planungstabelle, das Promotionszeiträume markiert. Für rückwirkende Bereinigung: Gehen Sie Ihre Aktionskalender der letzten zwei Jahre durch und kennzeichnen Sie alle Wochen, in denen eine Sonderaktion aktiv war. Für Großaufträge einzelner Kunden gilt dasselbe: Einmalbestellungen, die mehr als 20 Prozent des Monatsumsatzes eines Artikels ausmachen, sollten als Ausreißer markiert werden. Das Prognosesystem kann diese Perioden dann entweder ausblenden oder mit einem reduzierten Gewicht berücksichtigen.
Kann KI auch mit lückenhaften Daten arbeiten?
Ja, aber mit eingeschränkter Zuverlässigkeit. Lückenhafte Daten sind für KI-Modelle weniger problematisch als strukturell falsche Daten, sofern die Lücken erkannt und entsprechend behandelt werden. Cross-Learning-Methoden können fehlende Perioden durch Muster ähnlicher Artikel ergänzen. Aber: Das Fraunhofer IML hält explizit fest, dass bei sehr geringer Datenqualität auch konventionelle statistische Verfahren die bessere Wahl sein können. Die Entscheidung zwischen KI und klassischer Methode sollte immer von der verfügbaren Datenbasis abhängig gemacht werden, nicht von der Systemstrategie.
Was sind Proxy-Daten, und wann setze ich sie ein?
Proxy-Daten sind Ersatzdaten für Artikel, für die keine oder nur unzureichende eigene Absatzhistorie vorliegt. Typische Anwendungsfälle: Neuprodukteinführungen, Saisonartikel im ersten Verkaufsjahr, Artikel nach Sortimentswechsel. Als Proxy geeignet sind die Absatzhistorie eines strukturell vergleichbaren Vorgängerartikels, der Kategorie Durchschnitt für ähnliche Produkte oder branchenübliche Einführungskurven. Wichtig ist die Dokumentation: Wer hat welchen Proxy gewählt, auf welcher Grundlage, und wann wird der Artikel auf eigene Absatzdaten umgestellt? Ohne diese Dokumentation werden Proxy-Zuordnungen nach Personalwechseln zu unbekannten Variablen in der Planung.
Wie messe ich die Qualität meiner aktuellen Absatzprognose?
Der MAPE (Mean Absolute Percentage Error) ist der standardmäßig verwendete KPI für Prognosequalität. Er berechnet die durchschnittliche prozentuale Abweichung der Prognose vom tatsächlichen Absatz über einen definierten Zeitraum. Unter 15 Prozent gilt als sehr gut, 20 bis 30 Prozent ist für Mittelstandsunternehmen realistisch. Neben dem MAPE ist die Override-Rate ein wichtiger Indikator: Wenn mehr als 30 bis 40 Prozent der Prognosen manuell angepasst werden, deutet das auf ein strukturelles Problem in der Berechnungsgrundlage hin. Beide Kenngrößen sollten regelmäßig gemessen und als Baseline dokumentiert werden, bevor Methodenänderungen oder Systeminvestitionen vorgenommen werden.
