- Published on
Edge AI Kamera: Qualitätsprüfung ohne Cloud
- Authors

- Name
- Phillip Pham
- @ddppham
TL;DR
Edge AI Kameras verarbeiten Bilddaten direkt an der Produktionslinie, ohne Daten an eine Cloud zu senden. Mit NVIDIA Jetson Orin und industriellen GigE-Vision-Kameras erreichen Mittelständler Prüfzyklen unter 8 ms, eine Defekterkennung von 97,3 % und sparen durchschnittlich 38.000 € Ausschusskosten pro Jahr. Die Gesamtinvestition von 14.800 € amortisiert sich in unter 5 Monaten.
Warum Qualitätsprüfung ohne Cloud?
Cloud-basierte Bildverarbeitung hat in der Fertigung drei fundamentale Probleme: Latenz, Datenschutz und Verfügbarkeit. Eine Anfrage an einen Cloud-Server dauert 80–250 ms, abhängig von Bandbreite und Serverauslastung. Bei einer Taktzeit von 2 Sekunden an einer Montagelinie ist das akzeptabel. Bei Hochgeschwindigkeits-Stanzprozessen mit 200 Takten pro Minute sind 250 ms eine Ewigkeit: Das Teil hat die Station längst verlassen, bevor das Ergebnis zurückkommt.
Hinzu kommt: Produktionsbilder enthalten proprietäre Geometrien. Ein Automobilzulieferer aus Schwaben, der Bremsscheiben fertigt, will keine hochauflösenden Bilder seiner Oberflächen über das Internet schicken. Edge AI Kameras lösen dieses Problem: Die gesamte Inferenz findet auf einem lokalen Gerät statt, direkt neben der Kamera. Keine Daten verlassen das Werk.
Ein Kunststoffspritzguss-Unternehmen mit 280 Mitarbeitern hat durch den Wechsel von manueller Sichtkontrolle auf Edge AI seine Ausschussquote von 2,1 % auf 0,4 % gesenkt. Das entspricht 38.000 € weniger Materialverlust pro Jahr, bei einer Investition von 14.800 €.
Hardware-Stack: Kamera, Edge-Device, Software
| Komponente | Empfehlung | Preis |
|---|---|---|
| Industriekamera | Basler ace 2 (GigE Vision, 5 MP) | 1.200 € |
| Objektiv | Kowa 12 mm C-Mount | 380 € |
| Beleuchtung | CCS LED Ringbeleuchtung | 650 € |
| Edge-Device | NVIDIA Jetson Orin NX 16 GB | 800 € |
| Gehäuse (IP65) | Industriegehäuse mit Kühlung | 450 € |
| Montage & Kabel | GigE-Kabel, Halterung, Trigger | 320 € |
| Software-Lizenz | NVIDIA DeepStream + eigenes Modell | 0 € (Open Source) |
| Gesamt pro Station | 3.800 € |
Für eine typische Linie mit 3–4 Prüfstationen rechnen Sie mit 11.400–15.200 € Hardwarekosten. Die Gesamtbudgetplanung für KI-Projekte zeigt, dass Edge AI zu den kosteneffizientesten KI-Investitionen gehört.
Funktionsweise: Vom Bild zum Prüfergebnis in 8 ms
Der Ablauf einer Edge AI Qualitätsprüfung folgt einem festen Zyklus:
Trigger (0 ms): Ein Lichtschranken-Signal oder SPS-Trigger löst die Aufnahme aus, sobald das Bauteil positioniert ist.
Bildaufnahme (1–2 ms): Die GigE-Vision-Kamera nimmt ein 5-Megapixel-Bild auf. Die LED-Beleuchtung sorgt für gleichmäßige Ausleuchtung unabhängig vom Umgebungslicht.
Vorverarbeitung (1 ms): Auf dem Jetson Orin wird das Bild zugeschnitten, normalisiert und in das Eingabeformat des Modells konvertiert.
Inferenz (4–5 ms): Ein YOLOv8-Modell, optimiert mit NVIDIA TensorRT, klassifiziert das Bild. TensorRT beschleunigt die Inferenz um den Faktor 3–5 gegenüber Standard-PyTorch.
Ergebnis & IO-Signal (1 ms): Das Ergebnis wird an die SPS gesendet. Bei Defekt wird eine Weiche angesteuert, die das Teil aussortiert.
# edge_ai_pipeline.yaml – DeepStream Konfiguration
pipeline:
source:
type: gige_vision
camera_ip: "192.168.1.10"
trigger: "hardware"
exposure_us: 800
preprocessing:
resize: [640, 640]
normalize: true
color_space: "RGB"
inference:
model: "./models/defect_yolov8n_tensorrt.engine"
backend: "tensorrt"
precision: "FP16"
batch_size: 1
confidence_threshold: 0.85
postprocessing:
classes: ["ok", "kratzer", "riss", "verfaerbung", "verzug"]
action_on_defect: "gpio_pin_7_high"
log_to: "./logs/pruefung.csv"
sps_interface:
protocol: "profinet"
plc_ip: "192.168.1.100"
Modell trainieren: Transfer Learning mit eigenen Bildern
Sie müssen kein ML-Team aufbauen. Transfer Learning mit einem vortrainierten YOLOv8-Modell erfordert lediglich 500–1.000 gelabelte Bilder Ihrer spezifischen Defektarten.
Datenbeschaffung: Sammeln Sie über 2–3 Wochen Bilder direkt an der Linie. Fotografieren Sie sowohl Gutteile als auch jede Defektart (Kratzer, Risse, Verfärbungen). Ziel: mindestens 200 Bilder pro Klasse.
Labeling: Tools wie Label Studio (Open Source) ermöglichen das Markieren von Defektzonen direkt im Browser. Rechnen Sie mit 2–3 Sekunden pro Bild, also 1–2 Stunden für 1.000 Bilder.
Training: Auf einer RTX 4090 dauert das Training 2–4 Stunden. Die Modellgröße beträgt nur 6 MB nach TensorRT-Konvertierung.
Validierung: Testen Sie das Modell mit 200 zurückgehaltenen Bildern. Erfahrungswerte zeigen 94–97 % Accuracy nach dem ersten Training, 97–99 % nach einer Iteration mit Fehlklassifikationen als zusätzliche Trainingsdaten.
Der KI-Komplett-Leitfaden beschreibt den gesamten Prozess von der Planung bis zum Go-Live.
ROI-Berechnung: Amortisation in 4,7 Monaten
| Position | Betrag |
|---|---|
| Hardware (4 Stationen) | 15.200 € (einmalig) |
| Modelltraining & Labeling (intern, 80 Std.) | 4.800 € |
| Integration SPS (Dienstleister, 3 Tage) | 3.600 € |
| Investition gesamt | 23.600 € |
| Ausschussreduktion (2,1 % → 0,4 %) | 38.000 €/Jahr |
| Einsparung manuelle Prüfer (1,5 FTE) | 22.500 €/Jahr |
| Einsparung gesamt | 60.500 €/Jahr |
| Amortisationszeit | 4,7 Monate |
Nutzen Sie unsere ROI-Excel-Vorlage für Ihre individuelle Berechnung. Edge AI Kameras zählen zu den KI-Anwendungen mit dem schnellsten Payback im Mittelstand.
Integration in bestehende Produktionslinien
Edge AI Kameras lassen sich in bestehende Linien nachrüsten, ohne die SPS-Programmierung komplett zu ändern. Die Kommunikation erfolgt über Profinet, EtherCAT oder einfache digitale IO-Signale. Wichtige Punkte bei der Integration:
- Mechanik: Kamera und Beleuchtung werden über eine Halterung oberhalb des Förderbands montiert. Arbeitsabstand 200–400 mm je nach Objektiv.
- Trigger: Die SPS sendet ein Hardware-Trigger-Signal an die Kamera. Alternativ kann ein Lichtschrankensignal genutzt werden.
- Ergebnis: Das Edge-Device gibt ein IO-Signal zurück (Gut/Schlecht). Die SPS steuert eine Aussortierweiche an.
- Datenspeicherung: Bilder werden lokal auf dem Edge-Device gespeichert (30 Tage Rolling). Kein Cloud-Upload, volle DSGVO-Konformität.
Typische Defektarten und Erkennungsraten
Die Erkennungsleistung variiert je nach Defektart und Material. Erfahrungswerte aus Pilotprojekten:
| Defektart | Material | Erkennungsrate | Bemerkung |
|---|---|---|---|
| Kratzer | Metall (blank) | 98 % | Hoher Kontrast, gut erkennbar |
| Risse | Kunststoff (schwarz) | 94 % | Durchlicht-Beleuchtung empfohlen |
| Verfärbungen | Keramik | 96 % | Farb-Kamera erforderlich |
| Grate | Aluminium | 91 % | Seitenbeleuchtung verbessert Erkennung |
| Maßabweichung > 0,5 mm | Alle | 89 % | Telezentrische Optik nötig |
| Fehlende Bohrungen | Stahl | 99 % | Binäre Entscheidung, sehr zuverlässig |
Bei transparenten oder hochglänzenden Materialien sinkt die Erkennungsrate um 10–15 %. Hier helfen spezielle Beleuchtungstechniken wie koaxiale Beleuchtung oder Dark-Field-Illumination. Die Zusatzkosten für Spezial-Beleuchtung liegen bei 800–1.500 € pro Station.
Wartung und Modellpflege
Edge AI Systeme laufen stabil, erfordern aber quartalsweise Überprüfung:
- Kamerareinigung: Wöchentlich Objektiv und Schutzglas reinigen
- Modell-Monitoring: Konfidenzwerte überwachen. Sinkt der Durchschnitt unter 90 %, ist ein Re-Training mit neuen Bildern nötig
- Hardware-Check: Jetson Orin Temperatur überwachen (max. 85 °C unter Last)
- Backup: Modell und Konfiguration monatlich sichern
FAQ
Funktioniert Edge AI auch bei variierenden Lichtverhältnissen? Ja, durch die dedizierte LED-Beleuchtung ist das System unabhängig vom Umgebungslicht. Die Belichtungszeit wird auf 800 Mikrosekunden fixiert, sodass auch bei wechselndem Tageslicht konsistente Bilder entstehen.
Wie viele Bilder brauche ich für das Training? Mindestens 500 Bilder insgesamt, davon 200 pro Defektklasse. Mit 1.000 Bildern erreichen Sie typischerweise 97 %+ Accuracy. Mehr Bilder bringen ab 2.000 nur marginale Verbesserungen.
Was passiert bei einem Ausfall des Edge-Devices? Konfigurieren Sie die SPS so, dass bei fehlendem Antwortsignal alle Teile als Schlecht markiert werden (Fail-Safe). Ein Ersatz-Jetson kann innerhalb von 30 Minuten getauscht werden, da das Modell von einer SD-Karte lädt.
Kann ich mehrere Kameras an ein Edge-Device anschließen? Ja, der Jetson Orin NX verarbeitet bis zu 4 GigE-Vision-Kameras parallel, wenn die Taktzeit pro Kamera über 50 ms liegt. Bei schnelleren Zyklen empfiehlt sich ein Device pro Kamera.
Welche Defektarten kann die KI erkennen? Jede visuell sichtbare Abweichung: Kratzer, Risse, Verfärbungen, Grate, Fehlstellen, Maßabweichungen. Für transparente Materialien oder innenliegende Defekte sind zusätzliche Beleuchtungstechniken (Durchlicht, UV) nötig.
📖 Verwandte Artikel
Weitere interessante Beiträge zu ähnlichen Themen
ChatGPT DSGVO-konform im Unternehmen einsetzen
ChatGPT rechtssicher im Mittelstand nutzen: Enterprise vs. Team vs. Plus im Vergleich, DSGVO-Checkliste und Prompt-Vorlagen fuer den Arbeitsalltag.
KI-Automatisierung: 20 Workflows sofort automatisieren
20 KI-Workflows sortiert nach Aufwand und ROI: von E-Mail-Routing ueber Rechnungspruefung bis Lieferschein-Automatisierung. Mit Kostenmatrix.
KI-Beratung im Mittelstand: Den richtigen Partner finden
5 Typen von KI-Beratern, typische Kosten (€800-€3.000/Tag) und Red Flags bei der Auswahl. Mit Checkliste fuer die Partnerwahl im Mittelstand.
Bereit für KI im Mittelstand?
Nutzen Sie unsere 10 kostenlosen KI-Tools und Praxis-Guides – oder sprechen Sie direkt mit unseren Experten.
Pexon Consulting – KI-Beratung für den Mittelstand | Scaly Academy – Geförderte KI-Weiterbildung (KI-Spezialist, KI-Experte, Workflow-Automatisierung)