Tech-USP: Alle KI-Aufrufe gehen durch einen OpenAI-kompatiblen Adapter. Anthropic, OpenAI, Llama via Ollama, vLLM, On-Prem-Setups — austauschbar über Konfigurations-Variablen, kein Code-Change.
Drei Modi
| Modus | Wann | Setup |
|---|---|---|
| Cloud-API | kumiko.so Hosted-Default | Anthropic-API mit Plattform-Schlüssel |
| BYOK Cloud | Power-User mit eigenem Anthropic/OpenAI-Account | Konfigurations-Variablen (LLM_ENDPOINT / LLM_API_KEY / LLM_MODEL) |
| Lokales Modell | DACH-Mittelstand On-Prem | Ollama / vLLM auf eigenem GPU-Server |
Killer-Argument für DACH
„Eure Daten und Eure KI verlassen Euer Rechenzentrum nie.”
Kein anderer AI-Builder am Markt liefert das. Lovable, v0, Bolt, Retool-AI sind alle US-Cloud-only.
Architektur-Tiefendoku
../roadmapArchitektur-Decision #3 (OpenAI-Compat-Adapter)../roadmapI10/I11/I14 — LLM-Gateway, BYOK, Local-LLM-Doku
Wo das im Pitch landet
- DACH-Sales: Top-Argument #2 „Daten und KI bleiben bei Euch” — eigener Server, eigenes Modell
- Indie-Hacker: Sub-Argument „switch providers anytime, no lock-in”