Hostinger VPS für KI-Workloads
Wer KI selbst hosten will — aus Datenschutz-, Mandats- oder Kostengründen — braucht Server. Hostinger ist für viele Mittelstandsanwendungen die richtige Wahl. Wir zeigen, welcher Plan zu welchem Modell passt.
Drei Szenarien, in denen wir Hostinger empfehlen
Lokale LLMs für Mittelstand
7B- bis 30B-Modelle ohne GPU, mit CPU-Inferenz. Reicht für interne Anwendungen, RAG, Chatbots mit moderatem Volumen. Kostenpunkt: 7–60 €/Monat statt fünfstellige Hardware.
DSGVO-sensitive Anwendungen
Deutsches Rechenzentrum, Daten verlassen die EU nicht. Für Kanzleien, Praxen, Beratungsunternehmen mit Mandats- oder Schweigepflicht ein wichtiger Pluspunkt gegenüber US-Cloud-KI.
Pilot-Projekte und Prototypen
Schnell aufgesetzt, monatlich kündbar, skalierbar. Wer einen KI-Use-Case erst validieren will, bevor er auf große Cloud-Rechnungen geht, fährt mit Hostinger gut.
Welche VPS für welches Modell?
Faustregeln aus unserer Praxis. Quantisierung (Q4, Q5, Q8) reduziert RAM-Bedarf — wir nutzen meist Q5_K_M als guten Kompromiss zwischen Qualität und Größe.
KVM 1 — 8 GB RAM
Einsteiger für 7B-Modelle (Llama 3.1 8B Q4, Mistral 7B Q5). Reicht für RAG-Demos, Dev-Setups, kleine Teams. Ab ~7 €/Monat. CPU-Inferenz, kein GPU.
KVM 2 — 16 GB RAM
Sweet Spot für produktive 7B-Setups inklusive Embedding-Modell und Vektordatenbank. Auch 13B-Modelle in 4-Bit-Quantisierung möglich.
KVM 4 — 32 GB RAM
Für 13B+ Modelle (Llama 4 Scout in Q5, Qwen 3 14B). Mehrere parallele Sessions, kleinere RAG-Pipelines mit umfangreicher Wissensbasis.
KVM 8 — 64 GB RAM
Für 30B-Modelle in Q4 oder mehrere parallele 13B-Sessions. Produktive Multi-Tenant-Setups für mittelständische Teams.
Tipp: Ollama lädt Modelle lazy — du kannst auch auf einem KVM 4 verschiedene Modelle vorhalten und bei Bedarf wechseln. Die meisten unserer Kunden starten mit KVM 2 und skalieren bei Bedarf.
Was du auf einer Hostinger-VPS sinnvoll betreibst
Lokale KI-Demo & Entwicklung
Du willst Llama oder Mistral testen, ohne lokal aufzurüsten. KVM 1 reicht für erste Erkundung. Aufsetzen mit Ollama oder llama.cpp in 30 Minuten.
RAG-Pipeline für interne Wissensbasis
Dokumente vektorisieren, lokales LLM darauf antworten lassen. KVM 2 mit pgvector und 7B-Modell deckt 50–500 Dokumente locker ab.
Privater ChatGPT-Klon für Mitarbeiter
Open-WebUI oder LibreChat als Frontend, lokales LLM dahinter. KVM 4 reicht für Teams bis 20 Personen mit moderater Nutzung.
Self-hosted n8n + KI-Automationen
n8n als Orchestrierung, lokales oder gemischtes LLM-Setup. KVM 2 oder höher, je nach Workflow-Volumen.
Was wir bei der Einrichtung gelernt haben
- Ubuntu 24.04 LTS als Basis. Stabil, viele Pakete, gute Dokumentation. Bei Hostinger per One-Click-Installer verfügbar.
- SSH-Key statt Passwort. Beim ersten Login Key hochladen, Passwort-Login deaktivieren. Standard, aber wird oft vergessen.
- Firewall mit ufw. Nur 22 (SSH), 80, 443 öffnen. Alles andere intern via Reverse-Proxy.
- Reverse-Proxy mit Caddy. Caddy macht TLS automatisch und ist einfacher als nginx für die meisten Setups. Fritz, fertig, sicher.
- Ollama für Modell-Management.
ollama pull llama3.1:8b-instruct-q5_K_Mund du hast einen lokalen LLM-Endpunkt. Open-WebUI als Frontend. - Backups. Hostinger bietet Snapshots. Wöchentlich automatisiert reicht für die meisten KI-Workloads — die Modelldateien sind reproduzierbar, nur Datenbank und Konfiguration müssen sauber im Backup liegen.
- Monitoring. Netdata oder Uptime Kuma als Self-hosted-Monitoring. Bei produktiven Setups ergänzt um Langfuse für LLM-spezifisches Tracing.
Ehrliche Einschränkungen
- GPU-Inferenz. Hostinger hat keine GPU-VPS-Pakete. Wer 70B-Modelle in akzeptabler Geschwindigkeit braucht, geht zu OVHcloud (A100/H100), Lambda, RunPod oder DigitalOcean GPU Droplets.
- Sehr hohe Last. Wenn dein KI-Service hunderte Anfragen pro Sekunde verarbeiten muss, lohnt sich ein dedizierter Server (Hetzner) oder eine Cloud mit Autoscaling (AWS, Azure).
- Komplexe Multi-Region-Setups. Hostinger hat begrenzte Regionen. Für globale Roll-outs sind die großen Hyperscaler effizienter.
- Streng regulierte Branchen mit speziellen Compliance-Anforderungen. BSI-Grundschutz, ISO 27001 mit eigenem Auditoren-Zugang, BaFin-Anforderungen — hier ist Hostinger meist nicht zertifiziert genug.
Unser Rat: Wenn du nicht sicher bist, ob Hostinger passt — frag uns. Wir nehmen 15 Minuten und schauen mit dir auf den Use-Case. Lieber kein Setup als das falsche.
Affiliate-Link
Hostinger-VPS-Pakete ansehen
Aktuelle Preise und Pakete direkt bei Hostinger. Du zahlst nichts extra.

Patrick — Senior Social Media & GEO Manager
Patrick ist dein erster Ansprechpartner für KI-Beratung, Workshops und Implementierung. Er hört zu, fragt nach — und sortiert für dich, was wirklich Hebel hat.
30 Min · kostenfrei · unverbindlich