Oktober 1, 2025
@
19:00
–
22:00
🚀 Self-Hosted LLM Stack – Production-Ready AI ohne Vendor Lock-in
Cloud-Services sind bequem, aber bringen Datenschutz-, Kosten- und Abhängigkeitsrisiken mit sich. In meinem Talk zeige ich, wie man mit Open-Source-Tools wie Docker, Ollama und Open-WebUI aktuelle Modelle wie Gemma, Mistral oder Qwen3 komplett on-premises betreibt.
Von Hardware-Anforderungen bis zur Live-Demo: Installation, Konfiguration und produktiver Einsatz – ein praxisnaher Weg zu mehr Kontrolle und Freiheit in KI-Projekten.
Sprecher Florian Wolf:
https://www.linkedin.com/…