Blogartikel

KI-Absatzprognose: Welche Daten das Modell wirklich braucht

KI-gestützte Absatzprognosen versprechen höhere Genauigkeit und weniger manuellen Aufwand. Doch bevor das Modell überhaupt rechnen kann, braucht es etwas, das viele Unternehmen unterschätzen: Eine saubere, vollständige und strukturierte Datenbasis. Welche Daten wirklich notwendig sind, welche häufig fehlen und wie Sie die Lücken schließen, bevor Sie investieren, erfahren Sie in diesem Beitrag.

Wenn ein KI-Projekt für Absatzprognosen nicht die erwarteten Ergebnisse liefert, suchen die meisten Verantwortlichen zuerst beim Modell. Ist der Algorithmus zu einfach? Fehlt die richtige Methode? Braucht es einen anderen Anbieter? Die Antwort liegt fast immer woanders. Laut BCG (2026) erzielen Unternehmen, die KI auf fragmentierten Datenfundamenten einführen, keine nachhaltigen Leistungsverbesserungen, unabhängig davon, wie ausgereift die eingesetzte Technologie ist. Laut PWC-Studie 2025 zu digitalen Trends in Operations nennen Operations-Verantwortliche Datenqualität als eine der zentralen Barrieren für die erfolgreiche Einführung von KI-Projekten. 

Ein KI-Modell ist kein Orakel. Es lernt aus dem, was man ihm gibt. Wer die Datenanforderungen unterschätzt, bekommt präzise berechneten Unsinn: Prognosen, die konsistent und rechnerisch sauber wirken, aber systematisch falsch liegen, weil die Grundlage es nicht besser erlaubt. 

Dieser Artikel beschreibt, welche vier Datenkategorien eine KI-Absatzprognose wirklich braucht, welche stillen Datenprobleme Prognosen systematisch sabotieren, und welche Maßnahmen SCM-Leiter ohne Systemwechsel sofort angehen können. 

Welche Daten eine KI-Absatzprognose wirklich braucht, und was davon meist vorhanden ist 

Vier Datenkategorien bilden die Grundlage jeder KI-gestützten Absatzprognose. Die Gemeinsamkeit der drei ersten Kategorien: Die Daten sind im ERP meist vorhanden, aber selten in der nötigen Qualität. Die vierte ist optional und für viele Unternehmen vorerst nicht der richtige Startpunkt. 

Historische Abverkaufsdaten: Menge, Tiefe und Granularität 

Transaktionsdaten sind historische Abverkaufsdaten auf Artikelebene, also Verkaufsmengen pro SKU (Stock Keeping Unit, die eindeutige Artikelnummer auf Lagerebene) über einen definierten Zeitraum. Sie sind die Grundlage jedes Prognosemodells. Ohne sie gibt es keine Muster, aus denen ein Modell lernen könnte. 

Die Mindestanforderungen sind konkret: Mindestens zwei bis drei Jahre Absatzhistorie, auf SKU-Ebene, ohne systematische Lücken. Zwei bis drei Jahre sind nötig, um saisonale Muster über mindestens zwei vollständige Zyklen zu erkennen. SKU-Ebene ist nötig, weil aggregierte Daten auf Kategorie- oder Warengruppen-Ebene Muster verwischen, die für die Einzelartikelprognose entscheidend sind. 

Typische Probleme: Ein ERP-Wechsel bricht Zeitreihen, weil alte und neue Daten nicht konsistent übertragen werden. Stockout-Perioden werden als Nullnachfrage gebucht, obwohl die tatsächliche Nachfrage vorhanden war. Fehlende Buchungslogik für Retouren oder Gutschriften verzerrt die Nettomenge. Das Fraunhofer IML betont in seiner Forschung zur Bedarfsprognose, dass historische Absatzdaten zwar die wichtigste Informationsgrundlage sind, aber Datenmenge und Datenqualität für jeden Anwendungsfall differenziert bewertet werden müssen. 

Prüffrage: Wann wurden Ihre Abverkaufsdaten zuletzt systematisch auf Lücken und Inkonsistenzen geprüft? 

Stammdaten und Artikelattribute: Die unsichtbare Grundlage 

Stammdaten sind Artikel-, Lieferanten- und Kundenstammdaten: Kategoriehierarchien, Preisklassen, Saisonkennzeichen, Artikelgruppen, Verpackungseinheiten. Sie sind selten das erste Thema bei einer KI-Einführung, aber fast immer das zweite Problem. 

KI-Modelle können Muster über Artikelgruppen hinweg lernen, sogenanntes Cross-Learning: Ein neues Produkt in einer Kategorie profitiert von den Absatzmustern ähnlicher Artikel in derselben Gruppe. Das funktioniert aber nur, wenn die Gruppen sauber definiert und konsistent gepflegt sind. Fehlerhafte oder fehlende Saisonkennzeichen bedeuten, dass das Modell Saisonalität nicht als solche erkennt. Inkonsistente Kategoriehierarchien bedeuten, dass Cross-Learning auf falschen Ähnlichkeiten basiert. 

Das Fraunhofer IPA beschreibt in seiner Arbeit zur Datenvorbereitung für KI-gestützte Planungssysteme, dass fehlerhafte Stammdaten zu den häufigsten, aber am schwierigsten identifizierbaren Ursachen für schlechte Modellperformance gehören, weil sie die Ausgabe nicht offensichtlich verzerren, sondern subtil. 

Prüffrage: Sind Ihre Artikelstammdaten in einem Zustand, den ein Mensch, der die Daten zum ersten Mal sieht, als verlässlich und konsistent beschreiben würde? 

Aktions- und Eventdaten: Hoch relevant, selten strukturiert erfasst 

Promotions, Sonderverkäufe, Messeauftritte, Feiertage, externe Kampagnen von Kunden: All das beeinflusst die Nachfrage kurzfristig und erheblich. KI-Modelle können diesen Einfluss lernen, wenn Aktionsdaten strukturiert vorliegen. Fehlen sie, interpretiert das Modell Aktionspeaks als regulären Nachfrageanstieg und extrapoliert ihn in die Zukunft. 

In den meisten Mittelstandsunternehmen sind diese Daten nur informell vorhanden: als E-Mail-Kommunikation, als Excel-Liste im Marketing, als Erinnerung der Vertriebsmitarbeiter. Die Übertragung in strukturierte, maschinell lesbare Form ist eine der häufig unterschätzten Vorarbeiten vor einer KI-Einführung. 

Externe Signale: Mehrwert, aber kein Pflichtfeld 

Externe Signale, sogenannte exogene Daten, sind Daten außerhalb des ERP: Wetterdaten, Konjunkturindikatoren, Feiertagskalender, POS-Daten von Handelspartnern. Sie sind das Differenzierungsmerkmal von KI gegenüber klassischen statistischen Methoden: Ein ML-Modell kann externe Signale mit internen Absatzdaten korrelieren und Prognosen erzeugen, die über reine Zeitreihenextrapolation hinausgehen. 

McKinsey zeigt in seiner Analyse zu KI-Prognosen in datenärmeren Umgebungen, dass externe Datenquellen wie Wetterdaten, Marktindikatoren oder digitale Signale die Prognosegenauigkeit gerade dort verbessern, wo interne Daten allein nicht ausreichen. Die Einschränkung gilt aber auch hier: Externe Signale sind nur dann wertvoll, wenn die interne Datenbasis bereits sauber ist. Wer Wetterdaten in ein Modell speist, das auf lückenhafter Absatzhistorie und inkonsistenten Stammdaten basiert, erhöht die Datenmenge, nicht die Prognosequalität. 

Der Aufbau einer stabilen Datenpipeline, also eines automatisierten Prozesses zur Übertragung, Bereinigung und Bereitstellung externer Daten, ist aufwendig. Er macht erst dann Sinn, wenn die internen Datenprobleme gelöst sind. Was die Datenbasis für KI-Prognosen konkret voraussetzt, beschreibt auch der Artikel zu Absatzprognosen und Datenqualität

Welche Datenprobleme KI-Prognosen systematisch sabotieren 

Diese Probleme sind nicht spektakulär. Sie entstehen still und sind schwer zu erkennen, solange niemand gezielt danach sucht. Drei davon treten in Mittelstandsunternehmen regelmäßig auf und sabotieren KI-Projekte, noch bevor das erste Modell trainiert wird. 

Strukturbrüche: Wenn die Geschichte lügt 

Als Strukturbruch bezeichnet man eine Veränderung in der Zeitreihe, die historische Muster unbrauchbar macht. Typische Auslöser: ein ERP-Wechsel, bei dem alte Daten nicht konsistent migriert wurden; die COVID-Jahre 2020 bis 2022, in denen Absatzmuster in vielen Branchen vollständig atypisch waren; Sortimentsbereinigungen, nach denen ausgelistete Artikel die Absatzhistorie ihrer Nachfolger verzerren. 

KI-Modelle, die auf Daten vor einem Strukturbruch trainiert werden, lernen aus Mustern, die nicht mehr gelten. Das Ergebnis: systematisch falsche Prognosen, nicht zufällig, sondern in eine bestimmte Richtung verzerrt. BCG (2026) stellt fest, dass Unternehmen, die KI ohne ausreichend bereinigte historische Daten einführen, keine Leistungsverbesserungen gegenüber klassischen Methoden erzielen, weil die Modelle strukturell falsche Muster reproduzieren. 

Prüffrage: Gibt es in Ihren Abverkaufsdaten Zeiträume, die strukturell nicht mehr mit dem heutigen Sortiment oder dem heutigen Marktumfeld vergleichbar sind? 

Sparse Data: C-Artikel und Neuprodukte ohne belastbare Datenbasis 

Als Sparse Data bezeichnet man die Situation, in der zu wenige historische Datenpunkte für einen Artikel vorliegen, um ein zuverlässiges statistisches Muster zu berechnen. Das betrifft C-Artikel mit sporadischer Nachfrage, Neuprodukte ohne Absatzhistorie und Saisonartikel im ersten oder zweiten Jahr. 

Hier liegt ein weit verbreitetes Missverständnis: KI wird häufig als Lösung für das Sparse-Data-Problem positioniert. In Wahrheit ist KI bei sehr dünner Datenlage oft nicht besser als klassische statistische Methoden, manchmal schlechter. McKinsey beschreibt in der Analyse zu KI-Prognosen in datenärmeren Umgebungen, dass die Wahl des richtigen Modells und der Einsatz von Proxy-Methoden entscheidend sind, wenn die eigene Absatzhistorie zu dünn ist. Das schließt Cross-Learning-Methoden ein, bei denen das Modell Muster aus ähnlichen Artikeln verwendet, aber auch diese Methoden setzen eine ausreichend breite und saubere Datenbasis für die Vergleichsartikel voraus. Was bei Neuartikeln und Auslaufprodukten methodisch möglich ist, beschreibt der Artikel zu Prognosen bei Neuartikeln und Auslaufprodukten

Ungebuchte Promotions: Wenn Ausreißer als Normalzustand gelten 

Promotions ohne Kennzeichnung sind einer der häufigsten und folgenreichsten Datenfehler in der Absatzplanung. Wenn eine Verkaufsaktion nicht als solche markiert ist, sieht das Modell in der betreffenden Woche oder dem betreffenden Monat eine Nachfragespitze, die es für normale Nachfrage hält. 

Die Konsequenz ist dauerhaft: Das Modell prognostiziert künftig einen erhöhten Bedarf für diesen Artikel, weil die Aktionsperiode als repräsentatives Muster behandelt wird. Die Basislinie, auf der alle weiteren Prognosen aufbauen, ist nach oben verschoben. Der MAPE (Mean Absolute Percentage Error, der mittlere absolute prozentuale Prognosefehler) verschlechtert sich systematisch in Perioden ohne Aktion, ohne dass die Ursache ohne Datenanalyse erkennbar wäre. 

Das Fraunhofer IML beschreibt in seiner Forschung zur Zeitreihenanalyse in der Bedarfsprognose, dass die Zerlegung einer Zeitreihe in Trend, Saisonalität und Residuen der erste notwendige Schritt ist, und dass dieser Schritt voraussetzt, dass Aktionsereignisse vorab korrekt identifiziert und markiert wurden. Ohne diese Kennzeichnung enthält die Zeitreihe verzerrende Signale, die kein Modell von allein herausrechnen kann. 

Datenbasis für KI-Prognosen schrittweise aufbauen 

Kein Systemwechsel ist nötig, um die Datenqualität zu verbessern. Die Maßnahmen folgen einer klaren Prioritätenlogik: A-Artikel zuerst, externe Signale zuletzt. Wer hier beginnt, legt den Grundstein für jeden weiteren KI-Schritt. 

Datenaudit: Wo stecken die Probleme? 

Der erste Schritt ist strukturierte Bestandsaufnahme, kein Datenprojekt. Für die A-Artikel, also die umsatzstärksten Positionen, werden drei Fragen systematisch beantwortet: Gibt es Perioden in der Absatzhistorie, die als Stockout (kein Lagerbestand, trotz Nachfrage) markiert werden müssten? Gibt es Promotionszeiträume, die nicht als solche gekennzeichnet sind? Und gibt es Strukturbrüche, also Zeiträume, ab denen die historischen Muster nicht mehr repräsentativ für die aktuelle Situation sind? 

Das Fraunhofer IML empfiehlt als ersten diagnostischen Schritt eine einfache Zeitreihen-Visualisierung auf Einzelartikel-Ebene. Auffällige Ausreißer, ungewöhnliche Nullphasen und abrupte Niveauverschiebungen sind ohne statistische Methoden erkennbar und geben bereits klare Hinweise auf die Hauptprobleme. 

Bereinigung: Stockouts markieren, Promotions kennzeichnen 

Bereinigung bedeutet nicht Löschen, sondern Markieren. Stockout-Perioden werden als solche gekennzeichnet, damit das Modell statt der Null eine modellierte Nachfrageschätzung verwenden kann. Promotionszeiträume werden mit einer Aktionsflag versehen, damit die Spitze aus der regulären Basislinie herausgerechnet wird. 

Als Prozessmaßnahme lohnt es sich, Promotionkennzeichnung als Pflichtfeld in der Aktionsplanung einzuführen: Jede geplante Aktion erhält beim Einpflegen ein Startdatum, ein Enddatum und ein Aktionskennzeichen. Damit entsteht das historische Gedächtnis, das jedes KI-Modell braucht. 

Wann externe Daten den Aufwand rechtfertigen 

Externe Signale rechtfertigen den Integrationsaufwand dann, wenn externe Faktoren in mehr als 20 Prozent der Prognosefehler nachweisbar ursächlich sind. Dieser Schwellenwert lässt sich ermitteln, indem Perioden mit hohem MAPE mit bekannten externen Ereignissen abgeglichen werden: Wetterextreme, Feiertage, Konjunkturveränderungen. 

Als einfacher Einstieg, bevor eine vollständige Datenpipeline aufgebaut wird, eignen sich Feiertagskalender und einfache Wetterindizes. Sie sind kostengünstig verfügbar, einfach zu integrieren und liefern für saisonale Produkte häufig einen messbaren Beitrag zur Prognosegenauigkeit. BCG (2026) beschreibt, dass die Entscheidung für externe Signale immer von der Qualität der internen Datenbasis abhängt: Externe Daten verbessern ein gutes Modell. Sie retten kein schlechtes. 

Fazit 

KI macht aus schlechten Daten keine guten Prognosen. Was sie kann: Aus guten Daten deutlich bessere Muster erkennen als klassische Methoden. Der erste Schritt ist kein KI-Projekt, er ist ein Datenaudit. 

Drei Sofortmaßnahmen: Abverkaufsdaten der letzten 24 Monate für die A-Artikel auf Lücken und Strukturbrüche prüfen. Promotions und Sonderaktionen rückwirkend kennzeichnen, als einmalige Bereinigung. Und den MAPE der aktuellen Prognose messen, als Baseline für jeden weiteren Schritt. Wer diese drei Maßnahmen abgeschlossen hat, weiß, ob das Problem in den Daten liegt. Und erst dann ist die Frage nach der richtigen KI-Methode sinnvoll zu stellen. Welche SCM-Prozesse von gut aufgebauten KI-Prognosen am stärksten profitieren, beschreibt der Artikel zu KI in SCM-Prozessen


Weiterführende Quellen 

  1. Fraunhofer IML: Optimierung der Bedarfsprognose  

  2. Fraunhofer IML: Machine Learning: Potenziale und Vorteile in der Bedarfsprognose 

  3. BCG (2026): Supply Chain Planning 2026: Why AI Alone Isn't Enough 

  4. McKinsey: AI-Driven Operations Forecasting in Data-Light Environments 

  5. PWC (2025): Digital Trends in Operations Survey 

FAQs

Wie viele Jahre Absatzhistorie braucht ein KI-Modell?

Als Richtwert gilt: mindestens zwei bis drei Jahre bereinigte Absatzdaten auf SKU-Ebene. Zwei vollständige Jahreszyklen sind nötig, damit das Modell saisonale Muster statistisch zuverlässig erkennen kann. Bei stark saisonalen Artikeln sind drei bis vier Jahre ideal. Wichtiger als die Datenmenge ist die Datenqualität: 24 Monate bereinigte Daten liefern zuverlässigere Prognosen als 48 Monate mit unmarkierten Stockouts und Promotions. Bei Artikeln mit weniger als 12 Monaten eigener Absatzhistorie sind Cross-Learning-Methoden oder Analogieartikel die pragmatischeren Alternativen zur Einzelartikel-Zeitreihenprognose.

Was passiert, wenn meine Verkaufsdaten durch einen ERP-Wechsel gebrochen sind?

Ein ERP-Wechsel unterbricht Zeitreihen fast immer. Drei Ansätze helfen: Erstens prüfen, ob Altdaten aus dem Vorsystem migriert wurden und ob sie im gleichen Format und auf gleicher Granularität vorliegen. Zweitens den Wechselzeitraum als Strukturbruch kennzeichnen, damit das Modell ihn separat behandelt und nicht als reguläre Nachfrageschwankung interpretiert. Drittens für Artikel mit kurzer Post-Migration-Historie zunächst konservative Prognosemethoden mit explizit höherer Unsicherheitsmarge verwenden. Ein KI-Modell, das ohne diese Behandlung auf Daten vor und nach einem ERP-Wechsel trainiert wird, lernt aus zwei strukturell verschiedenen Datensätzen gleichzeitig, was zu systematisch verzerrten Prognosen führt.

Sind externe Daten wie Wetter oder Markttrends notwendig für KI-Prognosen?

Notwendig sind sie nicht, aber für bestimmte Branchen wertvoll. FMCG, Getränke, Gartencenter, Baumärkte: Hier hat Wetter nachweisbaren Einfluss auf die kurzfristige Nachfrage. Für Industriegüter oder B2B-Artikel mit stabiler Nachfrage ist der externe Datenaufwand selten gerechtfertigt. Die entscheidende Frage ist nicht, ob externe Daten generell nützlich sind, sondern ob sie für das eigene Sortiment nachweisbar Prognosefehler erklären. McKinsey zeigt in seiner Analyse zu KI-Prognosen, dass externe Datensignale besonders in datenärmeren Umgebungen einen Mehrwert liefern, aber erst dann, wenn die interne Datenbasis sauber ist.

Was ist Sparse Data, und wie gehe ich damit um?

Sparse Data bezeichnet die Situation, in der zu wenige historische Datenpunkte für einen Artikel vorliegen, um ein statistisch zuverlässiges Muster zu berechnen. Typisch bei C-Artikeln mit sporadischer Nachfrage, Neuartikeln oder Saisonartikeln im ersten Verkaufsjahr. Der häufige Irrtum: KI löst das Sparse-Data-Problem. In Wahrheit braucht auch ein ML-Modell ausreichend Datenpunkte. Für diese Artikel empfehlen sich Proxy-Methoden: Analogieartikel aus derselben Kategorie, Kategoriedurchschnittsmuster oder externe Referenzdaten als Ersatz für fehlende eigene Historie.

Wie erkenne ich, ob meine Datenbasis für KI-Prognosen ausreicht?

Vier Prüffragen helfen bei der Einschätzung: Sind für mindestens 80 Prozent der A-Artikel zwei Jahre lückenlose Absatzdaten auf SKU-Ebene vorhanden? Sind Promotions und Aktionszeiträume in den Daten als solche gekennzeichnet? Gibt es bekannte Strukturbrüche, die noch nicht bereinigt sind? Und wie hoch ist der aktuelle MAPE? Liegt er über 25 Prozent und werden mehr als 30 bis 40 Prozent der Prognosen manuell angepasst, ist das ein starkes Signal für ein Datenbasis-Problem. Ein seriöser KI-Anbieter führt vor Projektstart eine Datenanalyse durch und benennt diese Lücken explizit.

Was unterscheidet Datenqualität von Datenmenge?

Datenmenge beschreibt, wie viele Datenpunkte vorhanden sind. Datenqualität beschreibt, wie verlässlich und konsistent diese Datenpunkte die Realität abbilden. Beides ist wichtig, aber Qualität ist entscheidender. Eine große Menge an verzerrten Daten, mit unmarkierten Promotions, nicht bereinigten Stockouts und Strukturbrüchen, liefert schlechtere Prognosen als eine kleinere Menge sauber bereinigter Daten. Der häufige Fehler: Unternehmen investieren in KI-Technologie, weil sie viele Daten haben, ohne zu prüfen, ob diese Daten die Realität korrekt abbilden.