Was ist Cloud-KI
Cloud-KI bedeutet: Die Modelle und die Rechenleistung laufen bei einem Cloud-Anbieter (Microsoft Azure, Amazon Web Services, Google Cloud), und du greifst per API darauf zu. Du musst keine eigenen GPUs anschaffen, keine Modelle herunterladen, keine Skalierung selbst orchestrieren. Du zahlst pro Token oder pro Aufruf.
Drei Anbieter dominieren den deutschen Mittelstand:
- Microsoft Azure OpenAI Service — bietet GPT-4o, GPT-4o mini und neuere OpenAI-Modelle in EU-Regionen. Tief in M365 integriert.
- AWS Bedrock — bündelt Claude (Anthropic), Llama (Meta), Mistral, Cohere und Amazons eigene Titan-Modelle unter einer API.
- Google Cloud Vertex AI — Hauptmodelle sind Gemini 2.5 (Google), Claude 4 (Anthropic) und Llama 4 (Meta). Stark in EU-Regionen mit Frankfurt und Brüssel.
Wo Cloud-KI lohnt — Use-Cases im Mittelstand
Häuser mit Microsoft-Stack (M365, Sharepoint, Teams): Azure OpenAI ist hier oft der Weg des geringsten Widerstands. Vertragslandschaft passt, Identitäten sind über Entra ID schon da, Sharepoint-Indexierung läuft mit Copilot direkt.
Schnelle Pilotierung ohne Infrastruktur-Aufwand: Cloud-KI startest du innerhalb von Stunden. Self-Hosting braucht Wochen. Für Pilotprojekte, bei denen Time-to-Value wichtig ist, ist Cloud die richtige Wahl.
Variable Last: Wenn deine KI-Workload stark schwankt (z.B. Mail-Triage mit Peaks am Montag), ist Cloud effizient — du zahlst nur, was du nutzt. Self-Hosting würde bedeuten, immer für den Peak zu dimensionieren.
Multimodale Aufgaben: Bild- und Audio-Verarbeitung läuft auf Cloud-Modellen (GPT-4o, Claude 4) deutlich runder als im Self-Hosting, wo zusätzliche Modelle und Pipelines nötig sind.
Geschäftsleitungen ohne dedizierte IT-Abteilung: Cloud-KI ist auch ohne tiefes ML-Know-how nutzbar. Ein erfahrener Solution Architect reicht meist aus.
Wo Cloud-KI nicht lohnt — Limitationen
Hochsensible Datenschutz-Lagen: Selbst mit AVV und EU-Region bleibt eine theoretische Restunsicherheit beim Drittland-Transfer (US-Cloud Act). Häuser mit Gesundheits-, Personalakten- oder Finanzdaten mit Drittbezug entscheiden sich häufig für Self-Hosting. Mehr auf Lokale KI.
Sehr hohes Volumen: Bei über 50 Millionen Tokens pro Monat wird Self-Hosting auf eigener Hardware oder VPS oft günstiger. Die Tipping-Point-Berechnung machen wir gerne im Rahmen einer KI-Beratung.
Vendor-Lock-In-Sorgen: Wer langfristig flexibel bleiben will, baut von Anfang an mit Abstraktions-Layern (z.B. LangChain, Vercel AI Gateway), damit Modelle austauschbar bleiben.
Offline-Anforderungen: Wenn KI auch ohne Internet laufen muss (z.B. Produktion auf einer Insel-Anlage), ist Cloud keine Option.
Datenschutz und Compliance
Für DSGVO-konforme Cloud-KI brauchst du:
- Auftragsverarbeitungsvertrag (AVV) mit dem Anbieter. Standardisiert verfügbar bei Microsoft, AWS und Google.
- EU-Region — Frankfurt (Azure, AWS), Amsterdam (AWS, GCP), Zürich (GCP). Wichtig: Manche Modelle sind nicht in allen Regionen verfügbar — vorab prüfen.
- Standardvertragsklauseln (SCC) für theoretische Drittland-Transfers (US-Cloud Act). Bei Cloud-Anbietern in Standard-Verträgen enthalten.
- Datenklassifikation: Was darf in welche Cloud? Wir empfehlen, das in einer Daten-Ampel zu dokumentieren — grün/gelb/rot.
Den AI Act betrifft Cloud-KI weniger als die Anwendung, die du damit baust. Wer Cloud-LLMs als reines Werkzeug für Niedrigrisiko-Use-Cases nutzt (Mail-Vorlagen, interne Suche), ist weitgehend frei. Wer Hochrisiko-Systeme baut (Personalentscheidungen, Kreditvergabe), trägt die Compliance-Pflicht — egal ob Cloud oder lokal. Mehr unter /recht-ethik/ai-act.
Self-hosted vs. Cloud — Vergleichstabelle
| Aspekt | Cloud-KI | Self-Hosting |
|---|---|---|
| Time-to-First-Use | Stunden | Wochen |
| Datenschutz-Kontrolle | Mittel (mit AVV+EU) | Hoch (volle Kontrolle) |
| Skalierung | Automatisch | Manuell, Hardware-abhängig |
| Kosten bei niedrigem Volumen | Günstig | Teuer (Fixkosten VPS/HW) |
| Kosten bei hohem Volumen | Teuer | Günstig |
| Modell-Vielfalt | Hoch (alle State-of-the-Art) | Mittel (nur Open Source) |
| Multimodal (Bild, Audio) | Gut | Ausreichend, mit Aufwand |
| Vendor-Lock-In | Mittel | Niedrig |
| IT-Skills nötig | Mittel | Hoch |
| Compliance-Aufwand | Mittel | Niedrig (intern) |
Kosten-Größenordnungen 2026
Für einen typischen Mittelstands-Use-Case (z.B. Mail-Triage und automatische Erstantwort, ~5.000 Mails pro Tag):
- Azure OpenAI GPT-4o: 280–420 €/Monat reine API-Kosten, plus ~80 € für Azure AI Search (RAG-Vector-DB)
- AWS Bedrock Claude 4 Sonnet: 250–380 €/Monat reine API-Kosten, plus ~70 € für OpenSearch
- GCP Vertex AI Gemini 2.5: 200–340 €/Monat reine API-Kosten, plus ~80 € für Vector Search
- Self-Hosted Llama 4 70B auf Hetzner GPU-VPS: 380–650 €/Monat fix für GPU-VPS, plus internen Betriebsaufwand
Bei niedrigerem Volumen (z.B. 10–20 Mitarbeitende mit Copilot-Zugang) zahlst du eher Lizenzpauschalen — Microsoft Copilot for M365 kostet aktuell 28 €/Nutzer/Monat. ChatGPT Enterprise und Claude Teams liegen ähnlich bei 25–35 €/Nutzer/Monat.
Wie wir helfen
Bei der Cloud-KI-Auswahl machen wir das, was wir immer machen: zuhören, sortieren, konkret werden. Drei typische Wege:
- KI-Audit für die saubere Bestandsaufnahme bestehender Cloud-Tools im Haus
- KI-Beratung für die strategische Cloud-Entscheidung (Azure vs. AWS vs. GCP, Hybrid-Konzepte)
- KI-Implementierung für den konkreten Aufbau eines Cloud-KI-Stacks mit Vector-DB, RAG-Pipeline und Monitoring
Verwandte Themen
- Lokale KI / On-Premise — Alternative zur Cloud
- Large Language Models — welche Modelle in welcher Cloud
- Embeddings & RAG — was du in der Cloud zusätzlich brauchst
- /recht-ethik/datenschutz — DSGVO-Anforderungen
