Blogartikel

Wann Excel in der Logistik zum Risiko für die Lieferkette wird

Durch die zunehmende strukturelle Volatilität in den Lieferketten ist die Abhängigkeit von Excel-Sheets zu einem kritischen Flaschenhals geworden. Obwohl Tabellenkalkulationen seit vielen Jahrzehnten zum absoluten Standard-Werkzeug in jedem Büro gehören und mit einem großen Funktionsumfang auch viele Probleme lösen können, ist die Komplexität moderner FMCG-Bedarfsprognosen inzwischen um ein Vielfaches zu hoch. Mathematische Grenzen und systemische Risiken machen den Umstieg auf KI-gestützte Systeme heute unumgänglich.

Über viele Branchen hinweg wurde über Jahrzehnte ein Fundament auf Microsoft Excel errichtet. Schätzungen gehen auch heute noch davon aus, dass über 70 % der Supply-Chain-Manager ihre tägliche Planung in Tabellenkalkulationsprogrammen durchführen. Was jedoch vor vielen Jahren ein Werkzeug mit flexiblen Anwendungsbereichen war, hat sich in der Zeit von Big Data und globalen Disruptionen zu einem systemischen Risiko entwickelt. Tausende mögliche SKU-Kombinationen, Abhängigkeiten von Saisonalität, volatilen Lieferketten und zahlreichen Einflüssen auf Absatz, wie Aktionen oder Wetter potenzieren die Anforderungen an eine präzise Absatzplanung.  

Mehrere aktuelle Studien führen manuelle Fehler durch eine hohe Komplexität in Tabellen als Grund für jährliche Milliardenverluste auf Basis von Fehlbeständen oder Überbevorratung an. 

Was Excel mathematisch und systemisch überfordert 

Trotz der umfassenden Möglichkeiten von Excel scheitert es als deterministische Anwendung an den stochastischen Anforderungen einer modernen Logistik. In vielen unserer Projekte äußert sich das einfach durch fehlende Datenquellen, wie zum Beispiel Aktionen von Produkten der Mitbewerber. 

Panko´s Law: Die Fehlerquote in komplexen Modellen 

Laut Raymond Panko, Professor an der University of Hawaii, zeigen Forschungen durchgehend, das circa 88 % der komplexen Tabellenkalkulationen maßgebliche Fehler enthalten(1). So können in der Lieferketten Planung, wo einzelne Formeln über tausende Zeilen zur Berechnung von Sicherheitsbeständen kopiert werden, bereits kleine Fehler in der Referenz große Auswirkungen auf die Berechnung der Fill-Rate haben. Gerade in der Lebensmittelbranche, die mit geringen Margen auskommen muss, kann dieser Fehler direkt zu Verderb und Umsatzeinbußen führen. Panko stellt zu dem Fest, dass Nutzer von Tabellenkalkulationen in der Regel eine Fehlerrate von etwa 0,5 % bis 5 % pro Handlung aufweisen. Das würde bei einer Eingabe von 100 Formeln statistisch gesehen zumindest eine falsche Eingabe bedeuten. Wird eine Matrix von mehreren tausend Artikeln über mehrere Zeilen und Blätter hinweg verknüpft, sinkt die Wahrscheinlichkeit einer fehlerfreien Tabelle gegen null. Dies wird nur dadurch verstärkt, dass es oft keine mehrfache Kontrolle durch andere Personen oder Abteilungen gibt.  

In zahlreichen Gesprächen mit unseren Kunden haben wir dieses Feedback auch aus der Praxis erhalten - Nutzer sind frustriert von der manuellen Pflege der Tabellen, den Fehlern, die dadurch entstehen und der Abhängigkeit von Personen, die auf den Inhalt warten. 

Dimensionalität und Skalierbarkeit von Planungstabellen 

Ein grundlegendes Problem der Tabellenkalkulation ist die Begrenzung auf zwei Dimensionen. So können Daten ausschließlich in Zeilen und Spalten erfasst werden und sind so grundsätzlich limitiert. Moderne Bedarf Prognosen setzen jedoch primär auf multidimensionale Analysen, wie zum Beispiel Zeitreihen, Filialen, Warengruppen, Wetter oder Aktionsdaten, welche in Korrelation gesetzt werden müssen. Die Rechenleistung von Excel stößt üblicherweise bei einem Umfang von etwa 10.000 SKUs an seine Grenzen. Die Folge sind exponentiell steigende Ladezeiten sowie eine erhöhte Wahrscheinlichkeit eines Absturzes bei komplexen Matrixoperationen. Die Folge sind Datenverluste und Frust bei den Nutzern.(2) 

Manuelle Planung & das Effizienz-Paradoxon 

Ein großer Nachteil von Planung mit Tabellenprogrammen ist die Notwendigkeit der permanenten manuellen Pflege. Forecasting benötigt hochqualifizierte und erfahrene Mitarbeiter. Die Nutzung manueller Systeme bindet diese an repetitive Aufgaben und nimmt ihnen den Raum für strategische Entscheidungen. 

In einer Studie von Gartner zum „Thema Supply Chain Planning Technology“ aus dem Jahr 2023 (3) zeigt sich, dass Mitarbeiter in Unternehmen mit geringem Automatisierungsgrad bis zu 60 % ihrer Zeit damit verbringen Daten manuell aufzubereiten, Tabellen Fehler zu bereinigen, und Dateien zu konsolidieren. Die eigentliche Analyse und Szenarien Planung reduziert sich dabei auf einen Bruchteil der Zeit. 

Forschungen im Bereich des Digital Supply Chain Management beschreiben das so genannte „No-Touch-Planning“. Dabei werden Routine Dispositionen für bis zu 90 % des Sortiments von der KI übernommen. Dies betrifft insbesondere stabile Artikel. Mitarbeiter greifen bei diesem Konzept (Management by Exception) nur in Ausnahmefällen ein.  

Da in Excel jede Änderung eines Parameters, wie zum Beispiel von Lieferterminen oder Preisanpassungen, manuell in alle verknüpften Zellen übertragen werden müssen, führt dies zu einer Reaktionslatenz. Während eine direkte Anbindung Marktveränderungen in Echtzeit berücksichtigen kann, hängt die manuelle Excel-Planung oft Tage oder manchmal sogar Wochen hinterher. 

Single Point of Failure und mangelnde Revisionssicherheit 

Viele Tabellen, welche über Jahre aufgebaut wurden, sind Wissensinseln, die oftmals von einzelnen Personen oder Abteilungen abhängen. Wird die Logik eines Vorhersagemodells nur von einzelnen Disponenten verstanden, entsteht durch diese so genannte „Expert Dependency" ein operatives Risiko für das Unternehmen. Excel Dateien bieten im Gegensatz zu SaaS-Lösungen keine native Versionen Kontrolle, keinen Audit-Log und keine detaillierte Rechteverwaltung. Diese wäre allerdings nach ISO 9001 eine Compliance-Anforderung an moderne Unternehmen. (4) 

Warum klassische Statistik in Excel heute versagt 

Aufgrund der hohen Dynamik eines modernen FMCG-Marktes reichen häufig angewendete Methoden, welche in Excel gängig sind, wie gleitende durchschnitte oder einfache exponentielle Glättung, nicht mehr aus. Diese sind eindimensional und bilden die Realität nicht genau genug ab. 

Einschränkungen bei nicht-linearen Trends und Saisonalität 

Der überwiegende Teil von Excel-Modellen basiert auf linearer Regression. Das Konsumverhalten im FMCG-Bereich ist allerdings hochgradig nicht-linear und wird stark von externen Signalen bestimmt. Doch gerade komplexe Muster, wie sie KI-Modelle, insbesondere Gradient Boostet Trees oder LSTM-Netzwerke erkennen können, werden von Excel oft geglättet und dadurch ignoriert. Daraus resultiert der so genannte Bullwhip-Effekt, da die Prognose die realen Marktumstände permanent zeitversetzt abbildet. (5) 

Unzureichende Berücksichtigung externer Faktoren 

Stützt man sich in einer moderne Prognose ausschließlich auf historische Absatzzahlen, hat das Modell einen toten Winkel, der die Genauigkeit stark beeinflusst. Modernes Forecasting erfordert z.B. die Berücksichtigung von Wetter, Konstellationen von Feiertagen oder Aktionsdaten. Müssen diese Faktoren manuell in Tabellen überführt werden, so ist das zeitaufwändig und eine massive Quelle für Fehler. Moderne Lösungen nutzen APIs, um diese Daten automatisiert zu verarbeiten und können laut McKinsey ihre Prognosegenauigkeit und bis zu 20 % steigern. (6)

Keine Möglichkeit für Echtzeit-Daten und Kollaboration 

Tabellen sind statische Momentaufnahmen. Eine resiliente Supply Chain ist jedoch auf den bi-direktionalen Informationsfluss angewiesen. So müssen zum Beispiel Aktionen, welche vom Vertrieb geplant werden unmittelbar im Forecast der Produktion sichtbar sein. Manuelle Lösungen in Excel Tabellen führen jedoch oft zu Problemen bei Versionierung und landen im Anhang einer E-Mail. Untersuchungen zu Collaborative Planning, Forecasting and Replenishment (CPFR) zeigen, dass eine Single Source of Truth, also ein zentralisierter Ansatz, die Synchronisation der Parteien Bestände signifikant sinken lässt. Eine Funktion die Tabellenkalkulationssysteme nicht haben. (7) 

Fazit: Zeit für den technologischen Quantensprung 

Die Abhängigkeit von Excel in der Logistik ist heute oft ein Indikator für technologische Altlasten, die echtes Wachstum bremsen. Studien zeigen eindeutig, dass Unternehmen, die den Übergang zu spezialisierter Planungssoftware vollziehen, nicht nur ihre Fehlerquoten senken, sondern ihre operative Agilität massiv steigern. Angesichts der steigenden Volatilität und des Margendrucks im FMCG-Sektor ist der Abschied von der "Excel-Krücke" kein optionales IT-Projekt mehr, sondern eine strategische Notwendigkeit zur Sicherung der Wettbewerbsfähigkeit. 

Quellen:

  1. Panko, R. R. (2016). What we know about spreadsheet errors. Journal of End User Computing

  2. Powell, S. G., et al. (2009). Errors in Operational Spreadsheets. Management Science

  3. Gartner (2023): Predicts 2024: Supply Chain Planning Strategy. / Bhatia, M., et al. (2021): Autonomous Supply Chain Planning

  4. Caulkins, J. P., et al. (2007). Excel's Issues: Modeling vs. Calculating. Interfaces

  5. Fildes, R., & Goodwin, P. (2021). The Success and Failure of Forecasting in Practice. International Journal of Forecasting

  6. McKinsey & Company (2023). AI-driven supply chain management

  7. Wiengarten, J., et al. (2010). Collaborative supply chain practices and performance. International Journal of Production Economics

Weiterführende Quellen:

FAQs

Ist Excel für kleine Sortimente noch sinnvoll?

Für Kleinstmengen kann Excel ausreichen, doch sobald Saisonalität und mehr als 50 Artikel im Spiel sind, übersteigen die Risiken durch Rechenfehler schnell den Nutzen.

Wie hoch ist die Zeitersparnis beim Umstieg auf SaaS?

Laut Anwenderberichten reduziert die Automatisierung den manuellen Planungsaufwand um bis zu 60 %, da manuelle Datenaufbereitung und Korrekturläufe entfallen.

Kann eine KI wirklich externe Faktoren wie das Wetter besser berechnen?

Ja, da Machine-Learning-Modelle im Gegensatz zu Excel-Formeln Korrelationen zwischen Wetterdaten und Absatzmengen über Jahre hinweg statistisch signifikant lernen können.