Published on9. März 2026Ollama auf Ubuntu: LLM lokal in 15 Minutenollamaubuntuself-hostedllminstallationdeutschlandOllama auf Ubuntu installieren: Lokales LLM in 15 Minuten. Llama 3.1 auf dem eigenen Server für €0 API-Kosten und volle DSGVO-Kontrolle.
Published on9. März 2026Ollama mit GPU: CUDA-Setup auf Ubuntu Serverollamagpucudaubuntuself-hostedmittelstanddeutschlandOllama mit NVIDIA GPU und CUDA auf Ubuntu einrichten: 8x schneller als CPU. Anleitung für CUDA-Treiber, VRAM-Optimierung und Produktiv-Betrieb.