Zeitreihen begegnen uns im Controlling täglich: Absatzkurven, Umsatzentwicklung, Kapazitätsauslastung, Retourenquoten oder externe Treiber wie Inflations- und Wechselkurse. Sie alle verändern sich über die Zeit und enthalten damit mehr als Historie. Sie tragen Information über mögliche zukünftige Entwicklungen in sich. Wer diese Signale sauber extrahiert, gewinnt Handlungsspielräume. Konkret lassen sich so z. B. Budgets proaktiver steuern, Bestände gezielter planen, Kampagnenzeitpunkte präziser wählen.

Von der vagen Vorhersage zum belastbaren Forecast

Der Forecast ist die betriebswirtschaftlich relevante Form der Vorhersage: datenbasiert, modellgestützt, wiederholbar. Entscheidend ist nicht nur die Präzision, sondern die Verwendbarkeit im jeweiligen Entscheidungskontext. Ein guter Forecast macht Annahmen transparent, liefert eine nachvollziehbare Logik und zahlt auf eine konkrete Managementfrage ein – etwa „Wie staffeln wir Werbedruck und Personal in den nächsten acht Wochen filial- bzw. kanalgenau?“.

Woran erkennt man einen brauchbaren Forecast?

  • Präzision: geringe Abweichung zu Vergleichsdaten und der späteren Realität
  • Validität: realistische Größenordnung und realistische Annahmen.
  • Nützlichkeit: klare Übergabe an Planung/Steuerung (z. B. Budget, Personal, Bestände).
  • Transparenz: Annahmen, Treiber und Grenzen sind erklärbar.

Bausteine einer Zeitreihe – und warum sie praktisch zählen

Eine Zeitreihe lässt sich idealtypisch in drei Komponenten zerlegen. Der Trend zeigt die Richtung (z. B. Wachstum eines Segments). Saisonalität repräsentiert wiederkehrende Muster – wöchentlich, monatlich, jährlich. Zufallskomponenten stehen für Zufälle und Einmaleffekte. Diese Trennung ist keine Theorie-Spielerei: Sie bestimmt die geeignete Modellfamilie und die sinnvolle Granularität: z. B. Tag vs. Woche.

Praxisbeispiel

In Retail-Daten führen Ladenschlusszeiten, Feiertage und saisonale Peaks zu regelmäßigen „Zacken“; auf Tagesebene kann die Streuung hoch sein. Eine Aggregation auf Wochenebene glättet Zufälligkeit und erhöht häufig die Prognosequalität – bei gleichzeitig höherer Steuerbarkeit im Controlling.

Baselines zuerst: Warum einfache Methoden sinnvoll sind

Viele Teams starten mit Excel – und das ist gut so. Ein Baseline-Forecast (z. B. „Vorjahr fortschreiben“, „gleitender Mittelwert“, „naive Saisonkurve“) ist schnell erstellt und liefert einen wichtigen Referenzpunkt.

Zwei Effekte sind dabei zentral:

  1. Benchmarking: Komplexere Modelle müssen zeigen, dass sie die Baseline zuverlässig schlagen.
  2. Kommunikation: Einfache Regeln sind für Stakeholder unmittelbar nachvollziehbar und schaffen Akzeptanz.

In einfachen und wenig schwankenden Zeitreihen erreichen naive saisonale Verfahren oft bereits einstellige prozentuale Abweichungen. Das genügt nicht immer – aber es ist eine solide Unterkante.

Mehr Präzision mit Statistik – direkt im BI-Kontext

Wo Muster stabil sind und Saisonalität dominiert, leisten statistische Verfahren (z. B. exponentielle Glättung) hervorragende Dienste. In BI Tools wie  Power BI lassen sich automatische Forecasts unmittelbar auf Visualisierungen anwenden: Parameter wie Horizont, Saisonalität (z. B. 52 Wochen, 364 Tage), Konfidenzintervalle und Backtest-Fenster machen Effekte sichtbar. Die Stärke liegt in der Interaktivität – Filialen, Segmente, Kanäle lassen sich „on the fly“ vergleichen.

Wo liegt die Grenze?

Viele BI-Forecasts existieren primär im Diagramm. Für Summenbildung, KPI-Vergleiche oder MAPE*-Berechnung braucht es einen Export oder einen modellierten Datenpfad, der die Vorhersagewerte als Datensätze verfügbar macht.

Wenn’s komplex wird: Machine Learning, Python und Fabric

Sobald mehrere Treiber interagieren (Preis, Rabattierungen, Wetter, Kampagnen, Kanäle), spielt Machine Learning seine Stärke aus. Mit Python-Notebooks lassen sich Explorationsschritte, Feature-Engineering und Modellierung transparent dokumentieren und versionieren. AutoML-Ansätze (z. B. in Microsoft Fabric) testen mehrere Modellfamilien, wählen hyperparametrisiert die beste Variante und erzeugen reproduzierbare Pipelines – inklusive Backtests und Qualitätsmetrik.

Das verschiebt den Fokus: weniger manuelle Modellpflege, mehr Augenmerk auf Datenqualität, Feature-Design und die Übersetzung der Ergebnisse in Steuerungslogik (z. B. „Wie viele FTE-Stunden verschieben wir pro Woche je Filiale?“).

Qualität messen – ohne Matheballast

Zur Einordnung der Vorhersagequalität hat sich im Controlling der MAPE (Mean Absolute Percentage Error)* bewährt. Er drückt die mittlere prozentuale Abweichung aus. Der macht es für Stakeholder leicht verständlich und über Perioden vergleichbar.

Daumenregel für die Einordnung:

  • < 10 %: sehr gute Qualität
  • 10 – 20 %: gut/zweckmäßig
  • 20 – 50 %: begrenzt nutzbar, modellieren oder granularitätsseitig neu denken

Wichtig: Den MAPE immer konsequent out-of-sample (auf Testfenstern) bestimmen und im Betrieb laufend überwachen.

Praxisnahe Erkenntnis: Granularität schlägt Feintuning

In Retail-Zeitreihen mit Sonn- und Feiertagseffekten führt die Tagesebene häufig zu schwankenden Abweichungen. Eine Aggregation auf Wochenebene glättet Ausreißer und erhöht die Prognosequalität sichtbar (z. B. von ~8 % auf ~6 % MAPE). Gleichzeitig ist die Wochenebene näher an vielen Steuerungsrhythmen (Personalplanung, Kampagnentaktung, Warenverfügbarkeit).

Statt ein Tagesmodell immer weiter zu „feintunen“, ist die sauber begründete Granularitätswahl oft der größere Hebel.

Grenzen anerkennen – und bewusst umgehen

Nicht jede Zeitreihe ist vorhersagbar. Märkte, die einem Random-Walk ähneln (z. B. kurzfristige Kursbewegungen), lassen sich mit Standardverfahren kaum treffsicher prognostizieren. Tests auf Stationarität (z. B. Augmented Dickey-Fuller) helfen bei der Einordnung. Der Punkt ist operativ: Ressourcen dorthin lenken, wo Vorhersagefähigkeit und Entscheidungnutzen hoch sind. Bei chaotischen Reihen stattdessen mit Szenarien, Schwankungsbreiten und Risikobudgets arbeiten.

Vom Modell zum Management-Instrument

Ein Forecast entfaltet seinen Wert erst im Prozess. Das erfordert drei Dinge:

  1. einen klaren Zweck,
  2. robuste Datenpfade
  3. und sichtbare Verantwortung.

Minimal-Checkliste für Business-Analysten

  • Purpose klar? Welche Entscheidung wird mit dem Forecast getroffen – und auf welcher Ebene (Tag/Woche/Monat)?
  • Datenbereitstellung robust? Fehlende/ausreißende Werte, Kalenderlogik, Feiertage, Promotions, Preisänderungen – alles im Griff?
  • Qualität im Betrieb sichtbar? MAPE/MAE je Segment, Drift-Erkennung, Alarmierung bei Qualitätsabfall.
  • Persistenz & Reproduzierbarkeit? Versionierte Modelle, Trainingsdaten-Stände, Parameter-Historie, wiederholbare Pipelines.
  • Hand-off definiert? Schnittstellen zu Budget, Einsatzplanung, Einkauf, Kampagnenmanagement.

Werkzeugwahl pragmatisch treffen

Es gibt nicht das eine „richtige“ Tool – es gibt den passenden Stack für euren Reifegrad und Anwendungsfall.

  • Excel: ideal für Baselines, schnelle Vergleichsrechnungen, Kommunikation mit Fachbereichen.
  • Power BI: interaktive Visual Analytics, schnelle statistische Forecasts, Storytelling mit Daten – mit Exportpfad für Weiterverarbeitung.
  • Python/Fabric: wiederholbare ML-Pipelines, AutoML, Skalierung über Workspaces, Integration mit Lakehouse/Data Warehouse.

Die sinnvolle Kombination sieht in vielen Organisationen so aus: Baselines und Visualisierung im BI, operative Forecasts und Qualitätsmonitoring in reproduzierbaren Pipelines – mit klaren Übergaben in die Planungs- und Steuerungsprozesse.

Fazit

Zeitreihenanalysen sind dann wertvoll, wenn sie Entscheidungen verändern. Eine solide Baseline schafft Transparenz. Statistik bringt Stabilität. Machine Learning erweitert das Vorhersagefenster – vorausgesetzt, Datenqualität, Granularität und Prozessintegration stimmen.

Wer den Forecast als iterativen Management-Prozess versteht, gewinnt nicht nur Genauigkeit, sondern vor allem Geschwindigkeit in der Steuerung. Oder kürzer: Jede Vorhersage ist eine Einladung, die Zukunft besser zu gestalten.

* MAPE steht für Mean Absolute Percentage Error, also den durchschnittlichen prozentualen Fehler einer Prognose. Er zeigt, wie weit Prognosen im Mittel von den tatsächlichen Werten abweichen, bezogen auf die Größe der Werte selbst. (Vgl. Wikipedia)

Alle Beiträge von Fabian Heidenstecker

Senior Manager Solutions bei Opitz Consulting - Business Intelligence Profi - CRM Experte - Power BI Award Winner - AI Enthusiast - Big Data Cruncher - Sales und Marketing Fachmann - Social Media Anhänger - Qlik Fan - Tableau Creator - Python Explorer

Schreibe einen Kommentar