Zum Inhalt springen
KI KI für UN
Menü
Tools · Hosting

Hostinger VPS für KI-Workloads

Wer KI selbst hosten will — aus Datenschutz-, Mandats- oder Kostengründen — braucht Server. Hostinger ist für viele Mittelstands­anwendungen die richtige Wahl. Wir zeigen, welcher Plan zu welchem Modell passt.

Wann passt Hostinger?

Drei Szenarien, in denen wir Hostinger empfehlen

Lokale LLMs für Mittelstand

7B- bis 30B-Modelle ohne GPU, mit CPU-Inferenz. Reicht für interne Anwendungen, RAG, Chatbots mit moderatem Volumen. Kostenpunkt: 7–60 €/Monat statt fünfstellige Hardware.

DSGVO-sensitive Anwendungen

Deutsches Rechenzentrum, Daten verlassen die EU nicht. Für Kanzleien, Praxen, Beratungs­unternehmen mit Mandats- oder Schweigepflicht ein wichtiger Pluspunkt gegenüber US-Cloud-KI.

Pilot-Projekte und Prototypen

Schnell aufgesetzt, monatlich kündbar, skalierbar. Wer einen KI-Use-Case erst validieren will, bevor er auf große Cloud-Rechnungen geht, fährt mit Hostinger gut.

Plan-Auswahl

Welche VPS für welches Modell?

Faustregeln aus unserer Praxis. Quantisierung (Q4, Q5, Q8) reduziert RAM-Bedarf — wir nutzen meist Q5_K_M als guten Kompromiss zwischen Qualität und Größe.

Einstieg

KVM 1 — 8 GB RAM

Einsteiger für 7B-Modelle (Llama 3.1 8B Q4, Mistral 7B Q5). Reicht für RAG-Demos, Dev-Setups, kleine Teams. Ab ~7 €/Monat. CPU-Inferenz, kein GPU.

Sweet Spot

KVM 2 — 16 GB RAM

Sweet Spot für produktive 7B-Setups inklusive Embedding-Modell und Vektordatenbank. Auch 13B-Modelle in 4-Bit-Quantisierung möglich.

KVM 4 — 32 GB RAM

Für 13B+ Modelle (Llama 4 Scout in Q5, Qwen 3 14B). Mehrere parallele Sessions, kleinere RAG-Pipelines mit umfangreicher Wissensbasis.

KVM 8 — 64 GB RAM

Für 30B-Modelle in Q4 oder mehrere parallele 13B-Sessions. Produktive Multi-Tenant-Setups für mittelständische Teams.

Tipp: Ollama lädt Modelle lazy — du kannst auch auf einem KVM 4 verschiedene Modelle vorhalten und bei Bedarf wechseln. Die meisten unserer Kunden starten mit KVM 2 und skalieren bei Bedarf.

Use-Cases

Was du auf einer Hostinger-VPS sinnvoll betreibst

Lokale KI-Demo & Entwicklung

Du willst Llama oder Mistral testen, ohne lokal aufzurüsten. KVM 1 reicht für erste Erkundung. Aufsetzen mit Ollama oder llama.cpp in 30 Minuten.

RAG-Pipeline für interne Wissensbasis

Dokumente vektorisieren, lokales LLM darauf antworten lassen. KVM 2 mit pgvector und 7B-Modell deckt 50–500 Dokumente locker ab.

Privater ChatGPT-Klon für Mitarbeiter

Open-WebUI oder LibreChat als Frontend, lokales LLM dahinter. KVM 4 reicht für Teams bis 20 Personen mit moderater Nutzung.

Self-hosted n8n + KI-Automationen

n8n als Orchestrierung, lokales oder gemischtes LLM-Setup. KVM 2 oder höher, je nach Workflow-Volumen.

Setup-Tipps

Was wir bei der Einrichtung gelernt haben

  1. Ubuntu 24.04 LTS als Basis. Stabil, viele Pakete, gute Dokumentation. Bei Hostinger per One-Click-Installer verfügbar.
  2. SSH-Key statt Passwort. Beim ersten Login Key hochladen, Passwort-Login deaktivieren. Standard, aber wird oft vergessen.
  3. Firewall mit ufw. Nur 22 (SSH), 80, 443 öffnen. Alles andere intern via Reverse-Proxy.
  4. Reverse-Proxy mit Caddy. Caddy macht TLS automatisch und ist einfacher als nginx für die meisten Setups. Fritz, fertig, sicher.
  5. Ollama für Modell-Management. ollama pull llama3.1:8b-instruct-q5_K_M und du hast einen lokalen LLM-Endpunkt. Open-WebUI als Frontend.
  6. Backups. Hostinger bietet Snapshots. Wöchentlich automatisiert reicht für die meisten KI-Workloads — die Modelldateien sind reproduzierbar, nur Datenbank und Konfiguration müssen sauber im Backup liegen.
  7. Monitoring. Netdata oder Uptime Kuma als Self-hosted-Monitoring. Bei produktiven Setups ergänzt um Langfuse für LLM-spezifisches Tracing.
Wann Hostinger NICHT die richtige Wahl ist

Ehrliche Einschränkungen

  • GPU-Inferenz. Hostinger hat keine GPU-VPS-Pakete. Wer 70B-Modelle in akzeptabler Geschwindigkeit braucht, geht zu OVHcloud (A100/H100), Lambda, RunPod oder DigitalOcean GPU Droplets.
  • Sehr hohe Last. Wenn dein KI-Service hunderte Anfragen pro Sekunde verarbeiten muss, lohnt sich ein dedizierter Server (Hetzner) oder eine Cloud mit Autoscaling (AWS, Azure).
  • Komplexe Multi-Region-Setups. Hostinger hat begrenzte Regionen. Für globale Roll-outs sind die großen Hyperscaler effizienter.
  • Streng regulierte Branchen mit speziellen Compliance-Anforderungen. BSI-Grundschutz, ISO 27001 mit eigenem Auditoren-Zugang, BaFin-Anforderungen — hier ist Hostinger meist nicht zertifiziert genug.

Unser Rat: Wenn du nicht sicher bist, ob Hostinger passt — frag uns. Wir nehmen 15 Minuten und schauen mit dir auf den Use-Case. Lieber kein Setup als das falsche.

Affiliate-Link

Hostinger-VPS-Pakete ansehen

Aktuelle Preise und Pakete direkt bei Hostinger. Du zahlst nichts extra.

Patrick — Senior Social Media & GEO Manager
Master of Contact

Patrick — Senior Social Media & GEO Manager

Patrick ist dein erster Ansprechpartner für KI-Beratung, Workshops und Implementierung. Er hört zu, fragt nach — und sortiert für dich, was wirklich Hebel hat.

30 Min · kostenfrei · unverbindlich

30 Min buchen