Der KI-Stack, den wir empfehlen
Diese Liste ist kein Marktforschungsbericht, sondern ein Auszug aus unserer täglichen Praxis. Was wir bei Mittelstandskunden tatsächlich einsetzen — mit ehrlicher Einordnung, wofür sich was eignet und wofür nicht.
Server für lokale KI und produktive Stacks
Wer KI nicht nur in der Cloud nutzen will, braucht Hardware oder VPS. Drei Optionen, die wir kennen und die im Mittelstand sinnvoll sind.
Hostinger VPS
Günstige VPS mit deutschem Rechenzentrum. KVM 1 mit 8 GB RAM für 7B-Modelle, KVM 4 für 13B+. Erste Wahl für Self-Hosted-LLMs im Mittelstand.
Mehr lesenHetzner Dedicated
Dedizierte Server in Falkenstein und Nürnberg. Stärker als VPS, aber weniger flexibel. Für GPU-Inferenz nicht erste Wahl — nur RTX-Server vereinzelt.
OVHcloud
Französischer Anbieter, EU-Souveränität. GPU-Instanzen mit A100/H100 verfügbar, dann aber preislich oben.
LLMs für den produktiven Einsatz
Anbieter und Modelle, mit denen wir aktuell arbeiten. Auswahl hängt vom Use-Case ab — Genaueres in unserem LLM-Vergleich im Blog.
Anthropic Claude
Claude Opus 4.7 / Sonnet 4.6 — starke Modelle für komplexe Aufgaben, langes Reasoning. API mit AVV verfügbar, EU-US-Datenrahmen aktiv.
OpenAI
GPT-5, GPT-5-mini, o-Modelle. Breite Verfügbarkeit, viele Integrationen. ChatGPT Team/Enterprise sind DSGVO-konform einsetzbar.
Mistral
Französischer Anbieter, EU-Souveränität. Mistral Large 2 und Codestral für Code. Gute Wahl für DSGVO-sensitive Use-Cases.
Llama 4 (selbst gehostet)
Open-Weight-Modell von Meta. Variablen von 8B bis 405B. Ideal für lokale KI auf Hostinger-VPS oder eigener Hardware.
Detaillierter Vergleich aktueller Modelle: LLM-Vergleich 2026
Workflows und Glue-Code zwischen Systemen
KI ohne Anbindung an deine Systeme bleibt ein Spielzeug. Diese Plattformen verbinden LLMs mit CRM, Mail, Kalender, Tickets.
n8n
Open-Source-Automatisierungsplattform. Self-hosted oder Cloud. Stark für KI-Workflows: API-Calls an OpenAI/Claude, RAG-Pipelines, Webhooks. Wir nutzen n8n bei vielen Mittelstandskunden.
Make (ehem. Integromat)
Visuelle Automatisierung, große Integrationsbibliothek. Cloud-only, US-Anbieter — DSGVO-Setup mit AVV nötig.
Zapier
Marktführer bei No-Code-Automatisierung. Stärkste Integrationsbreite, höhere Preise. KI-Funktionen integriert, aber Daten landen in den USA.
Speicher für RAG, Embeddings und Telemetrie
Für Retrieval-Augmented-Generation brauchst du eine Vektordatenbank. Für Analytics einen schnellen Spaltenstore. Hier unsere Favoriten.
Supabase
Open-Source-Postgres mit Auth, Storage und Realtime. Self-hosted oder Cloud (EU-Region verfügbar). Erste Wahl für RAG-Anwendungen mit pgvector.
Tinybird
Real-Time-Analytics auf ClickHouse-Basis. Stark für KI-Telemetrie und große Event-Streams. Pay-per-Query, EU-Region möglich.
Plausible Analytics
DSGVO-konformes Web-Analytics aus der EU. Keine Cookies, keine personenbezogenen Daten. Self-hosted-Option vorhanden.
Wenn die KI in Produktion ist, willst du wissen, was sie tut
LLM-Calls sind teuer und können falsch sein. Tracing, Logs, Evals sind keine Luxusausstattung.
Langfuse
Open-Source-Observability für LLM-Apps. Self-hosted in der EU möglich. Tracing, Evals, Prompt-Versioning. Wir nutzen es in den meisten unserer Implementierungen.
Helicone
LLM-Logging und -Analytics. Cloud oder self-hosted. Stark für Cost-Tracking und Debugging.

Patrick — Senior Social Media & GEO Manager
Patrick ist dein erster Ansprechpartner für KI-Beratung, Workshops und Implementierung. Er hört zu, fragt nach — und sortiert für dich, was wirklich Hebel hat.
30 Min · kostenfrei · unverbindlich