Published on9. März 2026ONNX Export: 3-5x schnellere KI-InferenzonnxinferenzmodelloptimierungdeploymentperformancedeutschlandPyTorch-Modelle als ONNX exportieren: 3-5x schnellere Inferenz, 60 % weniger GPU-Kosten. BERT antwortet in 12 ms statt 45 ms.
Published on9. März 2026KI-Schweißnahtverfolgung: 94 % weniger NacharbeitschweissnahtverfolgungrobotikfertigungmittelstanddeutschlandKI-Nahtverfolgung korrigiert den Schweißroboter in Echtzeit per Kamera. 94 % weniger Nacharbeit, ISO 5817 Gruppe B. Nachrüstung ab 12.000 €.
Published on9. März 2026Ollama Ubuntu installieren: LLM lokal 15 Minollamaubuntuself-hostedllminstallationdeutschlandOllama auf Ubuntu installieren: Lokales LLM in 15 Minuten. Llama 3.1 auf eigenem Server, €0 API-Kosten, volle DSGVO-Kontrolle.
Published on9. März 2026Ollama Cluster: Load Balancing für 200+ Nutzerollamaclusterload-balancingself-hostedmittelstanddeutschlandOllama Cluster mit Load Balancing: 200+ Nutzer, automatisches Failover, horizontale Skalierung. Nginx-Setup für den Mittelstand.
Published on9. März 2026Ollama GPU CUDA Setup: Ubuntu Server Anleitungollamagpucudaubuntuself-hostedmittelstanddeutschlandOllama mit NVIDIA GPU und CUDA auf Ubuntu: 8x schneller als CPU. Anleitung für CUDA-Treiber, VRAM-Optimierung und Produktion.