Zum Inhalt springen
KI KI für UN
Menü
Tools & Stack

Der KI-Stack, den wir empfehlen

Diese Liste ist kein Marktforschungsbericht, sondern ein Auszug aus unserer täglichen Praxis. Was wir bei Mittelstands­kunden tatsächlich einsetzen — mit ehrlicher Einordnung, wofür sich was eignet und wofür nicht.

Hosting & Infrastruktur

Server für lokale KI und produktive Stacks

Wer KI nicht nur in der Cloud nutzen will, braucht Hardware oder VPS. Drei Optionen, die wir kennen und die im Mittelstand sinnvoll sind.

Empfehlung · Affiliate

Hostinger VPS

Günstige VPS mit deutschem Rechenzentrum. KVM 1 mit 8 GB RAM für 7B-Modelle, KVM 4 für 13B+. Erste Wahl für Self-Hosted-LLMs im Mittelstand.

Mehr lesen

Hetzner Dedicated

Dedizierte Server in Falkenstein und Nürnberg. Stärker als VPS, aber weniger flexibel. Für GPU-Inferenz nicht erste Wahl — nur RTX-Server vereinzelt.

OVHcloud

Französischer Anbieter, EU-Souveränität. GPU-Instanzen mit A100/H100 verfügbar, dann aber preislich oben.

Sprachmodelle

LLMs für den produktiven Einsatz

Anbieter und Modelle, mit denen wir aktuell arbeiten. Auswahl hängt vom Use-Case ab — Genaueres in unserem LLM-Vergleich im Blog.

Anthropic Claude

Claude Opus 4.7 / Sonnet 4.6 — starke Modelle für komplexe Aufgaben, langes Reasoning. API mit AVV verfügbar, EU-US-Datenrahmen aktiv.

OpenAI

GPT-5, GPT-5-mini, o-Modelle. Breite Verfügbarkeit, viele Integrationen. ChatGPT Team/Enterprise sind DSGVO-konform einsetzbar.

EU-Anbieter

Mistral

Französischer Anbieter, EU-Souveränität. Mistral Large 2 und Codestral für Code. Gute Wahl für DSGVO-sensitive Use-Cases.

Open Source

Llama 4 (selbst gehostet)

Open-Weight-Modell von Meta. Variablen von 8B bis 405B. Ideal für lokale KI auf Hostinger-VPS oder eigener Hardware.

Detaillierter Vergleich aktueller Modelle: LLM-Vergleich 2026

Automatisierung

Workflows und Glue-Code zwischen Systemen

KI ohne Anbindung an deine Systeme bleibt ein Spielzeug. Diese Plattformen verbinden LLMs mit CRM, Mail, Kalender, Tickets.

Open Source

n8n

Open-Source-Automatisierungsplattform. Self-hosted oder Cloud. Stark für KI-Workflows: API-Calls an OpenAI/Claude, RAG-Pipelines, Webhooks. Wir nutzen n8n bei vielen Mittelstandskunden.

Make (ehem. Integromat)

Visuelle Automatisierung, große Integrationsbibliothek. Cloud-only, US-Anbieter — DSGVO-Setup mit AVV nötig.

Zapier

Marktführer bei No-Code-Automatisierung. Stärkste Integrationsbreite, höhere Preise. KI-Funktionen integriert, aber Daten landen in den USA.

Datenbanken & Vektoren

Speicher für RAG, Embeddings und Telemetrie

Für Retrieval-Augmented-Generation brauchst du eine Vektordatenbank. Für Analytics einen schnellen Spaltenstore. Hier unsere Favoriten.

Open Source

Supabase

Open-Source-Postgres mit Auth, Storage und Realtime. Self-hosted oder Cloud (EU-Region verfügbar). Erste Wahl für RAG-Anwendungen mit pgvector.

Tinybird

Real-Time-Analytics auf ClickHouse-Basis. Stark für KI-Telemetrie und große Event-Streams. Pay-per-Query, EU-Region möglich.

DSGVO-friendly

Plausible Analytics

DSGVO-konformes Web-Analytics aus der EU. Keine Cookies, keine personenbezogenen Daten. Self-hosted-Option vorhanden.

Observability

Wenn die KI in Produktion ist, willst du wissen, was sie tut

LLM-Calls sind teuer und können falsch sein. Tracing, Logs, Evals sind keine Luxusausstattung.

Open Source

Langfuse

Open-Source-Observability für LLM-Apps. Self-hosted in der EU möglich. Tracing, Evals, Prompt-Versioning. Wir nutzen es in den meisten unserer Implementierungen.

Helicone

LLM-Logging und -Analytics. Cloud oder self-hosted. Stark für Cost-Tracking und Debugging.

Patrick — Senior Social Media & GEO Manager
Master of Contact

Patrick — Senior Social Media & GEO Manager

Patrick ist dein erster Ansprechpartner für KI-Beratung, Workshops und Implementierung. Er hört zu, fragt nach — und sortiert für dich, was wirklich Hebel hat.

30 Min · kostenfrei · unverbindlich

30 Min buchen