Published on

LangGraph Agenten: Mehrstufige Workflows bauen

Authors

TL;DR

LangGraph ermöglicht KI-Agenten, die mehrstufige Workflows mit Verzweigungen, Schleifen und Tool-Aufrufen ausführen. Statt einer einzigen LLM-Anfrage orchestriert der Agent 5–15 Schritte: Daten lesen, analysieren, entscheiden, handeln. Ein Mittelständler automatisierte damit die Angebotsbearbeitung: 12 Minuten statt 45 Minuten pro Anfrage, €38.000 Einsparung im Jahr.


Warum einfache LLM-Calls nicht reichen

Ein einzelner LLM-Call beantwortet eine Frage. Aber Geschäftsprozesse sind mehrstufig: Eine Kundenanfrage lesen, relevante Daten aus dem ERP ziehen, Verfügbarkeit prüfen, Preis kalkulieren, Angebot formulieren, zur Freigabe vorlegen.

Für solche Workflows brauchen Sie einen Agenten, der mehrere Schritte plant und ausführt – mit Entscheidungen zwischendrin. LangGraph ist das Framework dafür: Es modelliert Workflows als gerichtete Graphen mit Knoten (Aktionen) und Kanten (Übergänge).

LangGraph vs. LangChain: Der Unterschied

LangChain ist eine lineare Kette: Input → Schritt 1 → Schritt 2 → Output. Kein Verzweigen, kein Zurückspringen, kein bedingtes Ausführen.

LangGraph ergänzt LangChain um Graphen-Logik:

  • Bedingte Kanten: Nach Schritt 2 entscheidet das LLM, ob Schritt 3a oder 3b folgt
  • Schleifen: Schritt 4 prüft das Ergebnis. Wenn unbefriedigend, zurück zu Schritt 2
  • Parallele Ausführung: Schritt 3 und 4 laufen gleichzeitig, Schritt 5 wartet auf beide

Praxisbeispiel: Automatische Angebotsbearbeitung

Ein Großhändler für Industriebedarf (200 Mitarbeiter) erhält 80 Angebotsanfragen pro Tag per E-Mail. Der manuelle Prozess: Anfrage lesen, Artikel identifizieren, ERP prüfen, Preis kalkulieren, Angebot schreiben. Durchlaufzeit: 45 Minuten pro Anfrage.

Der LangGraph-Agent automatisiert 70 % der Anfragen vollständig:

# LangGraph Workflow: Angebotsbearbeitung
graph:
  nodes:
    - name: "email_parser"
      action: "E-Mail analysieren, Artikel und Mengen extrahieren"
      tool: "LLM (GPT-4o oder Llama 3.1)"
    - name: "erp_lookup"
      action: "Artikel im ERP suchen, Bestand und Preis abfragen"
      tool: "SAP/proALPHA API"
    - name: "verfuegbarkeit_check"
      action: "Liefertermin prüfen, Alternativ-Artikel vorschlagen"
      tool: "ERP Dispositions-API"
    - name: "kalkulation"
      action: "Preis kalkulieren (Rabattstaffel, Kundenkonditionen)"
      tool: "Preislisten-Datenbank"
    - name: "angebot_generieren"
      action: "Angebots-PDF erstellen"
      tool: "Template Engine + LLM"
    - name: "qualitaetspruefung"
      action: "Angebot auf Plausibilität prüfen"
      tool: "LLM + Regelwerk"
    - name: "routing"
      action: "Auto-Versand oder manuelle Freigabe?"
      tool: "Entscheidungslogik"
  edges:
    - email_parser -> erp_lookup
    - erp_lookup -> verfuegbarkeit_check
    - verfuegbarkeit_check -> kalkulation [wenn verfügbar]
    - verfuegbarkeit_check -> email_parser [wenn Rückfrage nötig: Schleife]
    - kalkulation -> angebot_generieren
    - angebot_generieren -> qualitaetspruefung
    - qualitaetspruefung -> routing [wenn OK]
    - qualitaetspruefung -> kalkulation [wenn Fehler: Schleife]
  ergebnis:
    auto_versand_prozent: 70
    manuelle_freigabe_prozent: 30
    durchlaufzeit_minuten: 12

State Management: Das Gedächtnis des Agenten

LangGraph verwaltet einen State (Zustand), der durch den Workflow fließt. Jeder Knoten liest den State, führt seine Aktion aus und schreibt das Ergebnis zurück. Das ermöglicht:

  • Kontext: Jeder Schritt kennt alle vorherigen Ergebnisse
  • Fehlerbehandlung: Bei einem Fehler springt der Graph zurück, der State enthält den Fehlergrund
  • Audit Trail: Der vollständige State wird gespeichert – jede Entscheidung ist nachvollziehbar

Für DSGVO-konforme KI-Systeme ist der Audit Trail besonders wertvoll: Sie können für jedes automatisierte Angebot zeigen, welche Daten der Agent verwendet und welche Entscheidungen er getroffen hat.

Tool-Integration: ERP, CRM und Datenbanken

LangGraph-Agenten werden mächtig durch Tool-Aufrufe. Statt nur Text zu generieren, können sie:

  • ERP abfragen: Artikelstamm, Bestand, Preise, Kundenkonditionen
  • CRM aktualisieren: Neuen Lead anlegen, Opportunity-Status ändern
  • Datenbank durchsuchen: Produktkatalog, technische Dokumentation
  • E-Mails senden: Automatische Antworten, Angebote, Status-Updates
  • Dateien erstellen: PDF-Angebote, Excel-Reports, Lieferscheine

Jedes Tool ist eine Python-Funktion, die der Agent aufrufen kann. Die Integration in bestehende IT-Systeme erfolgt über REST-APIs oder direkte Datenbankanbindungen. Der KI-Implementierungsguide beschreibt Integrationsmuster.

Kosten: Agent vs. Manuell

PositionManuell (80 Anfragen/Tag)LangGraph-Agent
Personalkosten€125.000/Jahr (2,5 Sachbearbeiter)€42.000/Jahr (0,75 für Ausnahmen)
LLM-API-Kosten€0€3.600/Jahr
Infrastruktur€0€2.400/Jahr
Entwicklung (einmalig)€0€25.000
Jährliche Kosten€125.000€48.000 + €25.000 (Jahr 1)
Einsparung ab Jahr 2€77.000/Jahr

Die Einsparung von €77.000/Jahr bei €25.000 Entwicklungskosten ergibt einen ROI nach 4 Monaten. Details im ROI-Rechner.

Human-in-the-Loop: Wann der Mensch entscheidet

Nicht jede Entscheidung sollte automatisch sein. LangGraph unterstützt Human-in-the-Loop nativ: An definierten Knoten pausiert der Workflow und wartet auf menschliche Bestätigung.

Typische Breakpoints:

  • Angebote über €10.000: Manuelle Freigabe durch Vertriebsleiter
  • Unbekannte Artikel: Rückfrage an Produktmanagement
  • Sonderkondition: Genehmigung durch Geschäftsführung

Der KI-Leitfaden für Unternehmen empfiehlt: Starten Sie mit 30 % Automatisierung und erhöhen Sie schrittweise auf 70 %, sobald das Vertrauen wächst.

Häufige Fragen

Brauche ich Python-Kenntnisse für LangGraph?

Ja. LangGraph ist ein Python-Framework. Die Grundstruktur (Knoten und Kanten definieren) ist einfach, aber Tool-Integration und State Management erfordern solide Python-Kenntnisse.

Wie zuverlässig sind LLM-Agenten?

Bei klar strukturierten Workflows mit definierten Tools: 92–97 % Erfolgsrate. Bei offenen Aufgaben ohne klare Grenzen: 60–80 %. Der Schlüssel ist die Eingrenzung: Der Agent darf nur vordefinierte Tools nutzen und hat klare Abbruchbedingungen.

Kann ich auch lokale LLMs nutzen?

Ja. LangGraph funktioniert mit jedem LLM, das eine Chat-API bietet: OpenAI, Anthropic, Ollama (lokal), vLLM. Für einfache Workflows reicht Llama 3.1 8B. Für komplexe Tool-Aufrufe empfiehlt sich GPT-4o oder Claude Sonnet.

Wie teste ich LangGraph-Workflows?

Unit Tests für einzelne Knoten, Integration Tests für den gesamten Graphen. LangGraph hat einen eingebauten Testmodus, der LLM-Aufrufe durch deterministische Antworten ersetzt. So testen Sie die Graph-Logik ohne API-Kosten.

Was passiert bei einem LLM-Fehler mitten im Workflow?

LangGraph unterstützt Retry-Logik und Fallback-Modelle. Wenn GPT-4o nicht antwortet, wechselt der Agent auf Claude. Wenn auch das fehlschlägt, pausiert der Workflow und benachrichtigt einen Mitarbeiter.

📖 Verwandte Artikel

Weitere interessante Beiträge zu ähnlichen Themen

Bereit für KI im Mittelstand?

Nutzen Sie unsere 10 kostenlosen KI-Tools und Praxis-Guides – oder sprechen Sie direkt mit unseren Experten.

Pexon Consulting – KI-Beratung für den Mittelstand | Scaly Academy – Geförderte KI-Weiterbildung (KI-Spezialist, KI-Experte, Workflow-Automatisierung)