Published on9. März 2026KI-Modell ONNX exportieren: Inferenz beschleunigenonnxinferenzmodelloptimierungdeploymentperformancedeutschlandKI-Modelle als ONNX exportieren: 3-5x schnellere Inferenz, plattformunabhängig deployen und GPU-Kosten um 60% senken.
Published on9. März 2026LocalAI auf Raspberry Pi: Edge-Inferenz Setuplocalairaspberry-piedge-aiinferenzself-hosteddeutschlandLocalAI auf Raspberry Pi 5: Kleine KI-Modelle lokal ausführen für €80 Hardware-Kosten. Setup-Anleitung für Textklassifikation und Embeddings.