- Published on
n8n + Ollama: KI-Workflows automatisieren
- Authors

- Name
- Phillip Pham
- @ddppham
TL;DR
Mit n8n und Ollama automatisieren mittelständische Unternehmen Buchhaltungsprozesse komplett lokal – ohne Cloud-Abhängigkeit und ohne laufende API-Kosten. Rechnungserfassung, Kategorisierung und Kontierung laufen über selbst gehostete LLMs. Das spart 80 % manuelle Arbeitszeit bei der Belegverarbeitung und kostet in der Basisversion €0 an Softwarelizenzen.
Warum n8n und Ollama zusammen Sinn ergeben
Mittelständische Unternehmen stehen vor einem Dilemma: KI-gestützte Automatisierung verspricht massive Effizienzgewinne, doch Cloud-basierte LLM-APIs wie GPT-4 oder Claude kosten bei hohem Volumen schnell €500–€2.000 pro Monat. Gleichzeitig verbieten viele Datenschutzbeauftragte die Übermittlung von Rechnungsdaten an US-Server.
Die Kombination aus n8n (Open-Source Workflow-Automatisierung) und Ollama (lokaler LLM-Runner) löst beide Probleme. Alle Daten bleiben auf eigener Hardware. Die Softwarelizenzen kosten €0. Und die Einrichtung gelingt ohne Programmierkenntnisse.
n8n ersetzt dabei Tools wie Zapier oder Make.com – aber selbst gehostet und mit unbegrenzten Workflow-Ausführungen. Ollama stellt Modelle wie Llama 3, Mistral oder Phi-3 lokal bereit, mit einer REST-API, die n8n direkt ansprechen kann.
Wer den strategischen Rahmen für solche KI-Projekte sucht, findet im KI-Leitfaden für Unternehmen die passende Orientierung.
Technische Voraussetzungen
Für produktive Workflows mit Rechnungsverarbeitung benötigen Sie:
| Komponente | Minimum | Empfohlen |
|---|---|---|
| CPU | 8 Cores | 16 Cores |
| RAM | 16 GB | 32 GB |
| GPU | Nicht nötig (CPU-Inferenz) | NVIDIA mit 8 GB VRAM |
| Speicher | 50 GB SSD | 200 GB NVMe |
| OS | Ubuntu 22.04 / Debian 12 | Ubuntu 24.04 LTS |
| Modell | Phi-3 Mini (3,8B) | Llama 3 8B / Mistral 7B |
Mit CPU-Inferenz auf einem 16-Core-Server verarbeitet Llama 3 8B rund 15–20 Tokens pro Sekunde. Für Buchhaltungsaufgaben (kurze Prompts, strukturierte Ausgaben) reicht das für 200–400 Rechnungen pro Stunde.
Installation und Grundkonfiguration
Ollama einrichten
# docker-compose.yml – Ollama + n8n Stack
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- '11434:11434'
volumes:
- ollama_data:/root/.ollama
deploy:
resources:
reservations:
devices:
- capabilities: [gpu] # Optional: GPU-Support
restart: unless-stopped
n8n:
image: n8nio/n8n:latest
container_name: n8n
ports:
- '5678:5678'
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=${N8N_PASSWORD}
- GENERIC_TIMEZONE=Europe/Berlin
volumes:
- n8n_data:/home/node/.n8n
depends_on:
- ollama
restart: unless-stopped
volumes:
ollama_data:
n8n_data:
Nach docker compose up -d laden Sie das gewünschte Modell:
docker exec ollama ollama pull llama3:8b
# Alternativ für schwächere Hardware:
docker exec ollama ollama pull phi3:mini
Detaillierte Anleitungen zur Modelfile-Konfiguration finden Sie in unserem Ollama Modelfile Guide.
Workflow 1: Rechnungen automatisch erfassen und kontieren
Der häufigste Anwendungsfall im Mittelstand ist die automatische Rechnungsverarbeitung. Der n8n-Workflow funktioniert in 5 Schritten:
Schritt 1 – Trigger: E-Mail-Eingang oder Dateisystem-Watcher erkennt neue PDF-Rechnungen.
Schritt 2 – OCR: Der n8n-Node "Extract from File" oder ein externer OCR-Dienst (z. B. Tesseract lokal) extrahiert den Text aus dem PDF.
Schritt 3 – LLM-Analyse: Der extrahierte Text wird an Ollama gesendet. Das Modell identifiziert Rechnungsnummer, Datum, Nettobetrag, MwSt., Lieferant und Leistungsbeschreibung.
Schritt 4 – Kontierung: Basierend auf der Leistungsbeschreibung schlägt das LLM eine SKR03/SKR04-Kontierung vor. Bei trainierten Prompts liegt die Trefferquote bei 85–92 %.
Schritt 5 – Export: Die strukturierten Daten werden per API an DATEV, Lexoffice oder als CSV für den Steuerberater exportiert.
Beispiel-Prompt für die Rechnungsanalyse
Analysiere diese Rechnung und extrahiere die Daten im JSON-Format.
Felder: rechnungsnummer, datum, lieferant, nettobetrag, mwst_satz,
bruttobetrag, leistung, skr03_konto, skr03_gegenkonto.
Verwende deutsche Kontenrahmen (SKR03).
Rechnungstext:
{extracted_text}
Die Genauigkeit hängt stark vom Modell ab: Llama 3 8B erreicht 88 % korrekte Kontierungen, Mistral 7B liegt bei 82 %. Für den Produktivbetrieb empfiehlt sich eine manuelle Prüfung bei Rechnungen über €5.000.
Workflow 2: Eingangspost kategorisieren und weiterleiten
Neben Rechnungen verarbeiten mittelständische Unternehmen täglich 30–100 E-Mails und Briefe, die manuell sortiert werden. Ein n8n-Workflow mit Ollama kategorisiert eingehende Post in Sekunden:
- Rechnung → Buchhaltung
- Angebot → Einkauf
- Mahnung → Geschäftsführung
- Bewerbung → Personalabteilung
- Werbung → Papierkorb
Das LLM analysiert Betreff und ersten Absatz, klassifiziert mit 95 % Genauigkeit und leitet per n8n automatisch an die richtige E-Mail-Adresse oder den passenden Teams-Kanal weiter.
Kosten im Vergleich: Lokal vs. Cloud
| Kostenfaktor | n8n + Ollama (lokal) | Zapier + GPT-4 API |
|---|---|---|
| Software-Lizenz/Monat | €0 | €49–€299 (Zapier) |
| LLM-Kosten/Monat (500 Rechnungen) | €0 | €80–€150 (OpenAI) |
| Server-Hardware (einmalig) | €1.500–€3.000 | €0 |
| Server-Strom/Monat | €15–€30 | €0 |
| Jahreskosten | €1.680–€3.360 | €1.548–€5.388 |
| DSGVO-konform | Ja (On-Premise) | Prüfung nötig |
Ab 200 Rechnungen pro Monat ist die lokale Lösung günstiger. Ab 500 Rechnungen spart sie €2.000–€4.000 pro Jahr. Die KI-Budgetplanung hilft bei der Gesamtkalkulation.
Fortgeschrittene Konfiguration: RAG für Kontierungsregeln
Für höhere Kontierungsgenauigkeit können Sie eine RAG-Pipeline (Retrieval Augmented Generation) aufbauen. Dabei werden die individuellen Kontierungsregeln Ihres Unternehmens in einer Vektordatenbank gespeichert und dem LLM als Kontext mitgegeben.
n8n bietet native Nodes für Qdrant und Pinecone. In Kombination mit Ollama-Embeddings entsteht ein System, das unternehmensspezifische Buchungslogik lernt – ohne Feintuning.
Die technische Umsetzung einer solchen RAG-Pipeline beschreibt unser SAP-RAG-Integrationsleitfaden im Detail.
Typische Stolperfallen
Modell zu groß gewählt: Ein 70B-Modell auf Consumer-Hardware liefert zwar bessere Ergebnisse, braucht aber 45 Sekunden pro Rechnung. Für Buchhaltungsaufgaben reichen 7B–8B-Modelle.
Keine Validierung eingebaut: LLMs halluzinieren gelegentlich Rechnungsbeträge. Bauen Sie in n8n einen Validierungs-Node ein, der Nettobetrag + MwSt. = Bruttobetrag prüft.
Ollama-Timeout bei langen Texten: Setzen Sie OLLAMA_NUM_PARALLEL=2 und OLLAMA_MAX_LOADED_MODELS=1 als Umgebungsvariablen, um Speicherprobleme zu vermeiden.
n8n-Workflows nicht versioniert: Exportieren Sie Workflows regelmäßig als JSON und versionieren Sie sie in Git.
Skalierung und nächste Schritte
Nach erfolgreicher Pilotierung der Rechnungsverarbeitung bieten sich weitere Workflows an:
- Vertragsanalyse: LLM extrahiert Kündigungsfristen, Laufzeiten und Preisanpassungsklauseln
- Reisekostenabrechnung: Belege werden fotografiert, per OCR erfasst und automatisch kategorisiert
- Lieferantenbewertung: LLM aggregiert Qualitätsmeldungen und erstellt monatliche Reports
Für eine strukturierte Skalierung empfiehlt sich die Prozessautomatisierungs-Roadmap.
Häufige Fragen
Welche Hardware brauche ich für n8n und Ollama im Produktivbetrieb?
Ein dedizierter Server mit 16 GB RAM und 8 CPU-Cores reicht für 200–400 Rechnungen pro Tag. Mit einer NVIDIA RTX 4060 (8 GB VRAM) steigt der Durchsatz auf 800+ Rechnungen. Gesamtkosten für die Hardware: €1.500–€3.000 einmalig, €15–€30 monatliche Stromkosten.
Ist die lokale Verarbeitung von Rechnungsdaten mit Ollama DSGVO-konform?
Ja, da sämtliche Daten auf eigener Infrastruktur verbleiben und keine Übermittlung an Dritte stattfindet. Dokumentieren Sie die Verarbeitungstätigkeit im Verzeichnis nach Art. 30 DSGVO. Ein Auftragsverarbeitungsvertrag mit Drittanbietern entfällt bei On-Premise-Betrieb.
Wie genau kontiert das LLM Eingangsrechnungen nach SKR03?
Llama 3 8B erreicht bei Standardrechnungen (Büromaterial, IT-Dienstleistungen, Miete) eine Trefferquote von 88–92 %. Bei branchenspezifischen Buchungen (Zollgebühren, Leasingverträge) sinkt die Quote auf 70–75 %. Eine RAG-Erweiterung mit unternehmensspezifischen Kontierungsregeln hebt die Genauigkeit auf 93–96 %.
Kann n8n auch mit anderen LLM-Anbietern arbeiten?
Ja, n8n unterstützt über HTTP-Request-Nodes jede REST-API. Sie können Ollama als primäres Modell nutzen und bei komplexen Fällen auf OpenAI oder Anthropic als Fallback wechseln. Die Kosten bleiben niedrig, weil nur 5–10 % der Anfragen an die Cloud gehen.
Wie aufwendig ist die Wartung des Systems?
Der laufende Betrieb erfordert 2–4 Stunden pro Woche: Workflow-Monitoring, gelegentliche Prompt-Anpassungen und monatliche Modell-Updates. n8n bietet ein integriertes Monitoring-Dashboard. Ollama-Modelle werden mit einem einzigen Befehl (ollama pull) aktualisiert.
📖 Verwandte Artikel
Weitere interessante Beiträge zu ähnlichen Themen
KI für Reisekostenabrechnung: Belege scannen
KI automatisiert Reisekostenabrechnungen: Belege scannen, Beträge extrahieren, Buchungsvorschläge in 3 Sekunden – 75% weniger Bearbeitungszeit.
KI-Texte für Angebote: Vorlagen automatisieren
KI generiert individuelle Angebots-Texte aus ERP-Daten: 75% schnellere Angebotserstellung, konsistente Qualität, €28.000/Jahr Zeitersparnis.
Sage + KI: Buchhaltung automatisch kontieren
Sage 100 und Sage 50 mit KI verbinden: Automatische Kontierung, Rechnungsabgleich und Cashflow-Prognose sparen 18 Std./Woche.
Bereit für KI im Mittelstand?
Nutzen Sie unsere 10 kostenlosen KI-Tools und Praxis-Guides – oder sprechen Sie direkt mit unseren Experten.
Pexon Consulting – KI-Beratung für den Mittelstand | Scaly Academy – Geförderte KI-Weiterbildung (KI-Spezialist, KI-Experte, Workflow-Automatisierung)