Published on9. März 2026ONNX Export: 3-5x schnellere KI-InferenzonnxinferenzmodelloptimierungdeploymentperformancedeutschlandPyTorch-Modelle als ONNX exportieren: 3-5x schnellere Inferenz, 60 % weniger GPU-Kosten. BERT antwortet in 12 ms statt 45 ms.
Published on9. März 2026LocalAI auf Raspberry Pi: KI für €80 Hardwarelocalairaspberry-piedge-aiinferenzself-hosteddeutschlandLocalAI auf Raspberry Pi 5: Kleine KI-Modelle lokal ausführen für €80 Hardware. Setup für Textklassifikation und Embeddings.