Published on

KI Lieferkette: Planungs‑ und Logistikoptimierung für den Mittelstand

Authors

Warum jetzt – Business Value

Volatile Nachfrage, Lieferengpässe und steigende Kosten verlangen präzisere Planung. KI reduziert Sicherheitsbestände, vermeidet Out‑of‑Stocks und optimiert Touren.

  • 8–15% geringere Supply‑Chain‑Kosten (Bestand, Transport, Handling)
  • 10–20% weniger Out‑of‑Stocks / Backorders
  • +3–7pp Servicelevel (OTIF)
  • 10–25% weniger Expresstransporte

Weiterführend: /blog/ki-datenanalyse-business-intelligence-predictive-analytics und /blog/multimodale-ki-prozessautomatisierung.

Referenzarchitektur

graph LR
    subgraph "📊 Datenquellen"
        A[ERP System]
        B[WMS/TMS]
        C[POS/Shop]
        D[Kalender]
        E[Wetter]
    end

    subgraph "🔄 Pipeline"
        F[Data Lake]
        G[Feature Store]
    end

    subgraph "🤖 KI-Modelle"
        H[Prophet]
        I[XGBoost]
        J[LSTM]
    end

    subgraph "⚙️ Optimierung"
        K[Bestandsplanung]
        L[Routenplanung]
    end

    subgraph "📈 Output"
        M[Dashboards]
        N[Workflows]
    end

    A --> F
    B --> F
    C --> F
    D --> F
    E --> F

    F --> G
    G --> H
    G --> I
    G --> J

    H --> K
    I --> K
    J --> L

    K --> M
    L --> M
    M --> N

    classDef source fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
    classDef pipeline fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
    classDef ai fill:#e8f5e8,stroke:#388e3c,stroke-width:2px
    classDef opt fill:#fff3e0,stroke:#f57c00,stroke-width:2px
    classDef output fill:#fce4ec,stroke:#c2185b,stroke-width:2px

    class A,B,C,D,E source
    class F,G pipeline
    class H,I,J ai
    class K,L opt
    class M,N output
  1. Datenquellen: ERP (Bestände, Aufträge), WMS/TMS, POS/Shop, Kalender/Ereignisse, Wetter
  2. Ingestion & Storage: Batch + Streaming → Data Lake (Parquet), Feature Store (Artikel, Standort, Kalender‑Features)
  3. Forecasting: Modelle pro SKU×Standort (Prophet/XGBoost/LSTM), Hierarchische Aggregation
  4. Inventory‑Optimierung: Ziel‑Bestände, Reorder‑Points, Multi‑Echelon (MEIO)
  5. Routenplanung: Heuristiken/Metaheuristiken (VRP, Time Windows), CO₂‑/Kosten‑Ziele
  6. Serving & Workflow: API/Jobs, Reports/Dashboards, Ausnahme‑Handling (Manager‑Approval)

Beispiel‑Konfiguration (vereinfachtes Reorder‑Schema):

# inventory-policy.yml
sku_segment: A
service_level: 0.95
lead_time_days: 7
review_cycle_days: 1
safety_stock: 'z * sigma_demand * sqrt(lead_time_days)'
reorder_point: 'mean_demand * lead_time_days + safety_stock'
order_up_to: 'reorder_point + mean_demand * review_cycle_days'

KPIs & ROI

KPIZielwertNutzen
Bestandstage (DOI)−10–20%Kapitalbindung runter
Servicelevel (OTIF)+3–7ppGeringere Abwanderung
Expedite‑Anteil−10–25%Weniger Eilkosten
Prognose‑MAPE<15%Stabilere Planung
ROI6–12 MonateSchnelle Amortisation

90‑Tage‑Plan

  • Woche 1–2: Dateninventur, KPI‑Baseline, ABC/XYZ‑Segmentierung
  • Woche 3–5: Forecast‑Baseline pro SKU×Standort, Feature‑Store aufsetzen
  • Woche 6–7: Inventory‑Policy (MEIO light), What‑if‑Simulation
  • Woche 8–9: Pilot‑Rollout in 1 Region/Depot, Ausnahme‑Prozess
  • Woche 10–12: TMS‑Integration, Routen‑Optimierung, Monitoring/Dashboards

Technik‑Snippet: Forecast + Reorder (vereinfacht)

import pandas as pd
from prophet import Prophet

df = pd.read_parquet("s3://scm/sales/sku123_storeA.parquet")[["date","qty"]]
df = df.rename(columns={"date":"ds","qty":"y"})
m = Prophet(weekly_seasonality=True, yearly_seasonality=True)
m.fit(df)
future = m.make_future_dataframe(periods=28)
fcst = m.predict(future)
mean_demand = fcst.tail(7)["yhat"].mean()
sigma_demand = fcst.tail(28)["yhat"].std()
z = 1.645  # 95% Servicelevel
lead_time_days = 7
safety_stock = z * sigma_demand * (lead_time_days ** 0.5)
reorder_point = mean_demand * lead_time_days + safety_stock
print({"mean_demand":mean_demand, "reorder_point":reorder_point})

DSGVO & EU AI Act

  • Typisch keine personenbezogenen Daten – falls Kundendaten genutzt: Pseudonymisierung, Zweckbindung, Löschkonzept.
  • Transparenz: Modelle, Metriken, Datenquellen dokumentieren; Human‑in‑the‑Loop bei Ausnahmen.
  • Vendor‑Lock‑in vermeiden: Offene Formate (Parquet, ONNX), Export der Parameter.

FAQ

Wie starte ich ohne perfekten Datenhaushalt?
Mit Top‑SKU×Standort beginnen, Datenqualitäts‑Checks integrieren, Modell regelmäßig nachtrainieren.

Welche Modelle funktionieren robust?
Kombination aus Prophet/XGBoost mit Kalender‑Features; LSTM bei ausgeprägten Sequenzmustern.

Wie verbinde ich Planung und Routen?
Tägliche Replenishment‑Vorschläge + wöchentliche VRP‑Optimierung, Ausnahme‑Workflows für Spitzen.

Was ist organisatorisch wichtig?
S&OP‑Rituale, klare Verantwortlichkeiten, Ziel‑KPIs und Eskalationspfade.

CTA

Interesse an einem Pilot in einer Region/Warengruppe? Kontakt über /about.

📖 Verwandte Artikel

Weitere interessante Beiträge zu ähnlichen Themen