KI-Integration in Prozesse
KI wird produktiv, wenn sie an echte Daten, Rollen und Prozesse angeschlossen ist. Wir integrieren Multi-Provider-LLMs, MCP-Tools, RAG-Wissenssuche und Workflow-Automatisierung — provider-unabhängig und nachweisbar.
Provider, Gateway & Stack
Provider-unabhängigAnthropicClaude, MCP, Computer Use
OpenAIGPT, Codex, Embeddings
Mistral AIEU-LLM, Function Calling
Google AI StudioGemini, Vertex AI
Google Vertex AIDSGVO-Layer, EU-Region, CMEK
OpenRouterProvider-Gateway
- BBifrostProvider-Proxy, Routing & Caching
n8nWorkflow-Automatisierung
PostgreSQLVector + Hybrid Search
ElasticsearchVolltextsuche, RRF
GitHubGitHub Actions, Codex/Copilot



Konkrete Use-Cases
Hybrid Search über Confluence, Paperless-ngx, Sharepoint oder eigene Wissensbasis — Antworten mit Quellenangabe und Rollenfilterung.
Eingehende Rechnungen, Verträge und Tickets werden automatisch getaggt, zugeordnet und an die richtige Rolle gemeldet — Beispiel: Paperless-AI-Tagger im produktiven Betrieb.
Datenbank-Tools, Branchenlogik, Webhooks als MCP-Tools — nutzbar mit Claude Code, Codex, Cursor und eigenem Agenten.
n8n-Flows mit LLM-Stufe für Mailrouting, Reklamations-Klassifikation, Vorgangs-Eskalation und Reporting.
Bifrost/OpenRouter als Vermittler — ein Endpunkt für viele Modelle, Logging, Budget und Failover. Lock-in-frei.
Eigener Daytrader-Stack mit Claude/GPT-Preprocessing zeigt: produktiver Multi-Provider-Betrieb funktioniert auch unter Latenz-Druck.
README
- Multi-Provider-LLMs: Anthropic Claude, OpenAI, Mistral AI, Google AI Studio, OpenRouter, lokale Modelle
- Google Vertex AI als DSGVO-konformer Layer mit EU-Region und Enterprise-Datenkontrolle
- MCP-Server für eigene Daten und Werkzeuge
- RAG mit Hybrid Search & Quellenangaben
- Workflow-Automatisierung über n8n, Webhooks, GPT Actions
- AI-Agents mit klaren Rollen und Audit-Spur
Wann lohnt sich das?
- Mitarbeitende nutzen ChatGPT, aber ohne Anbindung an interne Daten
- Wissens- und Dokumentensuche kostet täglich Zeit
- Wiederkehrende Routinen sollen mit LLM-Schritt automatisiert werden
- Eigene Daten/Werkzeuge sollen für Claude/Codex/Copilot via MCP nutzbar werden
Einstiegspakete
Festpreis-Bewertung: Was ist heute machbar, wo lauert Risiko, was zuerst pilotieren.
Lauffähiger Pilot über 4–8 Wochen — Quellen, Rollen, Citations, Pilotnutzer.
Rollout, Governance, Schulung, Betrieb — mit klarem Wartungsvertrag.
Für wen
- Mittelstand mit ERP, Office 365, Ticket- und Dokumenten-Stack
- Unternehmen, die ChatGPT bereits nutzen, aber Datenkontrolle und Quellen brauchen
- Behörden und KMU mit eigenen Wissens- und Verfahrensdaten
Typische Projekte
- Interner Assistent mit RAG über Confluence/Paperless/Sharepoint
- Dokumentenklassifikation und automatisches Tagging in Paperless-ngx
- Eigener MCP-Server für Datenbank- oder Branchenlogik
- n8n-Workflows mit LLM-Schritten für Mailrouting, Reporting, Eskalation
- Provider-Gateway via Bifrost/OpenRouter für Kosten- und Modell-Steuerung
Lieferumfang
- KI-Use-Case-Check mit Risiko/Nutzen-Bewertung
- Provider-Auswahl und Architektur-Skizze
- Funktionierender RAG/MCP/Agent-Pilot
- Betriebsdoku, Richtlinie und Schulung
Was wir brauchen
- Beschreibung des Use-Cases in eigenen Worten
- Zugang zu relevanten Daten- und Tool-Quellen
- Datenschutz-/Compliance-Ansprechpartner
Risiken & Rechtliches
- Halluzinationen ohne Quellen-Bezug — wir lösen das mit RAG + Citations
- Datenschutz bei Cloud-LLMs — DSGVO-Layer über Google Vertex AI (EU-Region) oder lokale Modelle
- EU-KI-VO Art. 4 Schulungspflicht — wir liefern AI-Literacy mit
Wartung & Betrieb
- Provider-Gateway mit Logging und Kostenbudget pro Tool
- Update-Strategie für Modelle und Prompts
- Monitoring von Antwortqualität, Latenz und Fehlerrate
Ablauf
- Schritt 1Use-Case-Check
Anwendungsfälle, Datenquellen, Risiken, Erfolgsmaß.
- Schritt 2Architektur
Provider-Auswahl, Gateway, RAG/MCP, Datenfluss, Compliance.
- Schritt 3Pilot
Pilotnutzer, Iteration, Bewertung gegen Erfolgsmaß.
- Schritt 4Rollout
Schulung, Richtlinie, Monitoring, Betrieb.
Referenzprojekte
Multi-Site-Plattformbetrieb über zwei Rechenzentren (OVH Frankfurt + Hetzner Falkenstein) mit High-Performance-DB-Cluster, optimierten Server-Komponenten, Container-Stack und kontinuierlicher Betriebsbetreuung.
Steuerungs-Stack mit zentralem Inhalts-Push, Monitoring und Hardware-Pflege.
FAQ
Wir sind provider-unabhängig: Anthropic Claude, OpenAI, Mistral AI, Google AI Studio, OpenRouter und lokale Modelle. Für DSGVO-sensitive Workloads setzen wir auf Google Vertex AI mit EU-Region und Enterprise-Datenkontrolle. Auswahl je Use-Case nach Kosten, Datenschutz, Latenz und Qualität.
Model Context Protocol — ein offener Standard, mit dem LLMs sicher auf Tools, Daten und Aktionen zugreifen. Wir bauen eigene MCP-Server für Branchenlogik (z. B. Deribit, GST-spezifische Tools) und integrieren MCP-Clients wie Claude Code, Codex und Cursor.
Konfigurationssache. Für vertrauliche Daten setzen wir auf Google Vertex AI mit EU-Region und Customer-Managed Encryption Keys, datenschutzkonforme APIs mit Zero Data Retention oder lokale Modelle. Architektur und Verträge wählen wir gemeinsam.
Ja. Wir liefern AI-Literacy-Schulungen, KI-Inventur und Governance-Dokumente. Bei Bedarf übernehmen wir die Rolle des externen AI-Officers.