Ausgewählte Projekte
n8n-Hackathon: Prozessautomatisierung & Belegabgleich Kreditkartenabrechnung
Ziel des Projekts war es, gemeinsam mit dem Kunden im Rahmen eines mehrtägigen n8n-Hackathons konkrete Geschäftsprozesse zu identifizieren und in produktionsnahe Automatisierungslösungen zu überführen. Im Fokus standen Use Cases aus den Bereichen Finance und HR sowie der Aufbau interner Kompetenz im Umgang mit n8n, Microsoft Graph und KI-gestützten Workflows. Parallel wurde die strategische Roadmap des Kunden für den weiteren Ausbau einer Enterprise-GenAI-Plattform geschärft und das bestehende Setup aus OpenWebUI, n8n und Qdrant in den Use-Case-Kontext eingebettet.
Ich war als KI-Consultant in die Konzeption und prototypische Umsetzung mehrerer Use Cases eingebunden. Schwerpunkt war die Realisierung eines automatisierten Belegabgleichs für Firmenkreditkarten: von der Anbindung eines Outlook-Postfachs über die OCR-basierte Extraktion eingehender Rechnungsbelege via Azure AI Document Intelligence, die strukturierte Ablage auf einem SMB-Fileserver bis hin zum Abgleich mit den monatlichen Kreditkartenabrechnungen in einer dedizierten PostgreSQL-Datenbank. Auf dieser Datenbasis wurde ein Reconciliation-Workflow umgesetzt, der fehlende Belege je Karteninhaber identifiziert und personalisierte Erinnerungs-Mails als HTML-Dashboard automatisiert versendet. Ergänzend habe ich die Teilnehmenden im 1:1-Coaching bei der Umsetzung weiterer Use Cases unterstützt – darunter ein Ticketing-Bot, eine SAP-Anbindung über das Model Context Protocol (MCP) inklusive Custom Node sowie verschiedene Workflow-Patterns rund um Approval- und Eskalationsmechanismen.
Als Ergebnis entstand ein produktionsnaher End-to-End-Workflow für den Belegabgleich, der den manuellen Aufwand der Finance-Abteilung deutlich reduziert und die Compliance-Quote bei der Belegrückführung messbar erhöht. Weitere Use Cases wurden bis zum funktionsfähigen Prototyp gebracht und die fachliche Basis für deren Produktivsetzung im Rahmen eines bereits beauftragten Beratungskontingents gelegt. Begleitend wurden Best Practices zu modularen Workflows, Drill-Down-Strukturen, Dokumentation und Debugging mit den Teilnehmenden erarbeitet, sodass die interne Taskforce eigenständig weitere Use Cases umsetzen kann.
Der Kunde gewann damit unmittelbar nutzbare Automatisierungen für wiederkehrende Finance-Prozesse, eine erweiterte interne KI- und n8n-Kompetenz sowie eine belastbare Grundlage für den weiteren Ausbau der Plattform – mit klarer Anschlussfähigkeit für SAP-Integration, MCP-basierte Agentenfunktionen und ein zentrales Enterprise-GPT.
Eingesetzte Technologien: n8n, Workflow-Automatisierung, Microsoft Graph API, Azure AI Document Intelligence, OCR, PostgreSQL, Docker, SMB/CIFS-Integration, SQL, Reconciliation-Workflows, HTML-E-Mail-Templates, Model Context Protocol (MCP), SAP-Anbindung, Custom n8n Nodes, OpenWebUI, Qdrant, RAG-Architekturen, Large Language Models (LLM), Prompt Engineering
MLOps Framework – Azure ML Pipelines & Model Lifecycle Management
Aufbau wiederverwendbarer Azure ML Pipelines (SDK v2) zur Standardisierung des ML-Lebenszyklus von Training bis Produktion. Implementierung modularer Pipeline-Komponenten für Datenvalidierung, Feature Engineering und automatisiertes Hyperparameter-Tuning (HyperDrive). MLflow-basiertes Experiment-Tracking mit Modell-Signatur-Validierung und Versionierung über die Azure ML Model Registry. Bereitstellung von Modellen über Managed Online Endpoints inkl. Blue-Green-Deployment-Strategie für unterbrechungsfreie Updates. Integration von Responsible-AI-Dashboards zur Sicherstellung der Modellfairness und Erklärbarkeit. Monitoring über Azure Application Insights mit Schwellwert-basierter Drift-Erkennung.
Eingesetzte Technologien: Azure Machine Learning (SDK v2), MLflow, HyperDrive, Python, Azure DevOps, CI/CD, Azure Container Registry, Azure Application Insights, Managed Online Endpoints, Responsible AI
Enterprise SAP-GenAI-Integration via Model Context Protocol (MCP)
Ziel des Projekts war die technische Konzeption und prototypische Umsetzung einer Schnittstelle zwischen SAP S/4HANA und einer Enterprise-LLM-Plattform (Nele AI, OpenWebUI) für einen mittelständischen Industriekonzern (Schleifmittelherstellung, 1.500+ Mitarbeitende, globaler Vertrieb). Kern des Vorhabens war ein self-hosted Model Context Protocol (MCP) Server, der SAP-Geschäftsdaten – insbesondere Auftragsauskunft, Lieferstatus, kundenspezifische Preise und Materialverfügbarkeit – über Custom OData-Services (ZWWW_SD_WEBSHOP_SRV) abrufbar macht und per natürlichsprachlicher Chat-Interaktion nutzbar stellt. Parallel wurde die Architektur für eine vollständige End-to-End-Identitätsweiterleitung (Principal Propagation) erarbeitet, um SAP-seitige Berechtigungen auch im LLM-gestützten Zugriff durchzusetzen.
Ich war verantwortlich für die technische Umsetzung des MCP-Servers sowie die Architektur des OAuth 2.0 SAML Bearer Assertion Flows zur Integration des bestehenden Identity Providers (miniOrange) mit SAP NetWeaver. Schwerpunkt meiner Arbeit war die Entwicklung produktiver MCP-Tools gegen die SAP-OData-Schnittstelle: Implementierung der HTTP-Client-Logik mit Authentifizierung, Error-Handling und Response-Parsing, Definition der Tool-Parameter und -Beschreibungen für das LLM sowie die containerisierte Bereitstellung über Docker/Podman. Ergänzend arbeitete ich die technischen Anforderungen für die SAML-basierte Token-Weiterleitung (OpenWebUI → MCP-Server → SAP OAuth-Server) aus und dokumentierte die erforderliche SAP-seitige Konfiguration (Transaktionen SOAUTH2, STRUST, SAML2, USREXTID-Mapping).
Als Ergebnis entstand ein lauffähiger MCP-Server mit sechs produktiven Tools (Kundendetails, Auftragsauskunft, Lieferstatus, Bestandsabfrage, Preisermittlung, generisches OData-Query), der die Anbindung an das SAP-System erfolgreich validiert und erste Use Cases im Kundendienst-Kontext demonstriert. Parallel wurde ein technisches Feinkonzept inklusive detaillierter Arbeitspaketplanung, Aufwandsschätzung und Budgetanalyse erarbeitet, das die Grundlage für die Pilotphase sowie die spätere Vollversion mit Principal Propagation bildet. Zusätzlich erfolgte die Ausarbeitung eines zweistufigen Implementierungsansatzes (Light-Version mit technischem User für schnelle Demo-Readiness, Vollversion mit SAML-basierter Identitätsweiterleitung für produktiven Betrieb) sowie die Dokumentation offener Fragestellungen zur miniOrange-IDP-Konfiguration.
Der Kunde gewann damit einen unmittelbar nutzbaren Prototypen zur Validierung der Machbarkeit, technische Klarheit über Authentifizierungs- und Autorisierungsoptionen (Basic Auth, X.509, OAuth SAML Bearer) sowie eine fundierte Entscheidungsgrundlage für die nächste Projektphase. Das Projekt lieferte kurzfristigen Nutzen durch konkrete Demonstration der SAP-LLM-Integration und etablierte zugleich eine belastbare technische Basis für den skalierbaren, sicherheitskonformen Einsatz von Generative AI in SAP-zentrierten Enterprise-Umgebungen.
Eingesetzte Technologien: Model Context Protocol (MCP), FastMCP, SAP S/4HANA OData, OAuth 2.0 SAML Bearer Assertion, SAML 2.0, Identity Federation, Principal Propagation, miniOrange IDP, OpenWebUI, Nele AI, SAP NetWeaver Auth (SOAUTH2, STRUST, SAML2), REST APIs, Python, TypeScript, Docker, IAM, Feinkonzeptionierung
Voice-AI & CRM-Integration: Automatisierung des Kundenservice (PoC)
Konzeption und Implementierung eines Proof of Concept (PoC) zur Automatisierung von Kundenservice-Prozessen für die ALBA Group. Ziel des Projekts war die Schaffung eines KI-gestützten Voice-Assistenten (Mindsquare Voicy auf Basis von VIER AI Studio), der komplexe Backend-Abfragen in Echtzeit durchführt und fallabschließende Bearbeitungen im CRM- und ERP-System ermöglicht.
Durch die nahtlose Integration von Telefonie (Voice) und Backend-Systemen (SAP C4C / SAP CPI) wurden folgende Use-Cases automatisiert:
Automatisierte Identifikation: Identifizierung von Anrufern via Inbound-Webhook und Echtzeit-Lookup im CRM.
Self-Service Terminauskunft: Dynamische Abfrage von Entsorgungs- und Leerungsterminen aus dem ERP-System.
Order Management: Automatisierte Anlage von Abrufaufträgen direkt aus dem KI-Dialog heraus.
Digitales Ticket-Management: Automatisierte Suche nach bestehenden Service-Fällen sowie die KI-gestützte Erstellung neuer Cases (Tickets) im CRM inkl. dynamischer Betreffzeilen-Generierung.
Eingesetzte Technologien: VIER AI Studio, Mindsquare Voicy (Conversational AI); SAP Cloud for Customer (C4C), SAP Cloud Platform Integration (CPI); REST-API Integration (GET/POST), bidirektionaler Datenaustausch; Dynamische JSON-Payloads & Parameter-Mapping; OData Filter-Logiken ($filter, $select); Security: OAuth 2.0, Basic Auth (Base64).
Enterprise GenAI Architektur – Aufbau einer skalierbaren Azure-basierenden RAG-Lösung
Aufbau einer Enterprise-GenAI-Plattform als zentrale KI-Infrastruktur für mehrere Geschäftsbereiche. Konzeption und Implementierung eines modularen RAG-Frameworks auf Azure (OpenAI, AI Search), das strukturierte und unstrukturierte Daten aus verschiedenen Quellen konsolidiert. Integration bestehender Tools (OpenWebUI, interne Fachanwendungen) über eine API-Integrationsschicht. Schwerpunkt auf Governance: Kostenkontrolle, Rollenmodelle, Sicherheitsrichtlinien und Produktbetrieb nach DevOps-/MLOps-Prinzipien. Durchführung von Enablement-Trainings für Fachbereiche und IT zur nachhaltigen Nutzung und Weiterentwicklung der Plattform.
Eingesetzte Technologien: Azure AI, Azure OpenAI, Azure Search, Python, Docker, OpenWebUI, DevOps, Identity Management, CI/CD
Microsoft Copilot Rollout – Einführung ALM, Governance & Betriebsmodell
Zur Unternehmensweit-Einführung von Microsoft Copilot wurde ein strukturiertes Rollout-Projekt initiiert, das sämtliche organisatorischen, technischen und sicherheitsrelevanten Aspekte abdeckt. Als Projektleitung verantwortete ich die Entwicklung eines Governance-Modells, das klare Richtlinien für Lizenzierung, Berechtigungen, Datenschutz und Usage Policies definiert. Parallel dazu wurde ein technisches Betriebsmodell aufgebaut, das die Verwaltung über das Power Platform Admin Center ermöglicht. Dabei wurden Prozesse zur Überwachung, Incident-Steuerung und Weiterentwicklung der KI-Funktionen entwickelt.
Ein besonderer Fokus lag auf Change Management und Enablement, einschließlich Trainings, Use-Case-Definitionen und dem Aufbau eines internen Copilot-Kompetenzcenters. Durch die enge Zusammenarbeit mit Security, Compliance und Fachbereichen konnte eine sichere und nachhaltige Einführung gewährleistet werden. Das Ergebnis ist eine vollständig implementierte, revisionssichere Copilot-Landschaft (Application Lifecycle Management, die Produktivitätssteigerungen ermöglicht und neue KI-Potenziale im gesamten Unternehmen erschließt.
Eingesetzte Technologien: Microsoft 365 Copilot, Power Platform Admin Center, Azure AD, SMicrosoft 365 Copilot, Power Platform Admin Center, Azure AD, Security & Compliance Center, PowerShell, Governance Frameworksecurity & Compliance Center, PowerShell, Governance Frameworks
Entwicklung und produktive Einführung eines KI-gestützten Vertriebsassistenten mit PIM-Anbindung auf Basis von Microsoft Copilot
Ziel des Projekts war es, für den Vertriebsinnendienst eines mittelständischen Großhandelsunternehmens einen KI-gestützten Assistenten zu entwickeln, der Vertriebsanfragen in natürlicher Sprache beantwortet und den Zugriff auf über 92.000 Produkte in Sekunden ermöglicht. Parallel wurde ein belastbares Fundament für den skalierbaren Einsatz generativer KI im Vertrieb geschaffen, um Folgeinitiativen – etwa die Internationalisierung oder die Integration in bestehende Shop-Systeme – strategisch und technisch vorzubereiten.
Ich war von der Konzeption bis zum produktiven Rollout eingebunden und verantwortete die technische Realisierung der RAG-basierten Lösung. Schwerpunkt war der Aufbau einer Zwei-Index-Architektur: Ein Index für Produktstammdaten aus dem PIM-System, ein zweiter für technische Dokumente wie Sicherheitsdatenblätter und technische Merkblätter. Ergänzend konzipierte und implementierte ich die automatisierte ETL-Pipeline mit Delta- und Full-Runs zur konsistenten Datenaktualisierung sowie einen Konverter-Agenten zur Übersetzung herstellerspezifischer Artikelnummern in das interne Produktsortiment.
Als Ergebnis entstand ein produktiv eingesetzter Vertriebsassistent, der Artikelinformationen, Variantenvergleiche, Cross-Referenzen, technische Spezifikationen und Dokumentenzugriffe zentral bereitstellt und von über 80 Anwendern genutzt wird. Zusätzlich wurden erste Bausteine eines Multi-Agenten-Systems umgesetzt und die Basis für weitere Ausbaustufen geschaffen. Gemeinsam mit dem Kunden wurden die wichtigsten Folgethemen priorisiert und ein Change-Management-Konzept zur nachhaltigen Steigerung der Nutzeradoption erarbeitet.
Der Kunde gewann damit einen unmittelbar wertschöpfenden Assistenten im Vertriebsalltag, erhöhte Transparenz über das Potenzial von KI für die Reduktion technischer Rückfragen sowie eine fundierte Entscheidungsgrundlage für den weiteren Ausbau – inklusive Internationalisierung, Onlineshop-Integration und Erweiterung um zusätzliche Produktlogiken und Datenquellen.
Eingesetzte Technologien: Microsoft Copilot Studio, Retrieval-Augmented Generation (RAG), Azure AI, Azure AI Search, Vektordatenbanken, Python, PIM-Integration, REST APIs, Azure DevOps, ETL-Pipelines, Multi-Agent-Architektur, Prompt Engineering, KI-Orchestrierung, Wissensmanagement mit KI
Azure Sandbox – Cloud-Infrastruktur für Prototyping & GenAI-Services
Für die schnelle Validierung neuer GenAI-Services wurde eine modulare Sandbox-Umgebung in Azure aufgebaut. Die Umgebung umfasst WebApp-Instanzen, Container-basierte Microservices und Docker Deployments für Tools wie Neo4j, Qdrant, n8n und OpenWebUI. Ziel war, neue KI- und Architekturkonzepte ohne Risiko für Produktivsysteme evaluieren zu können. Die Sandbox ermöglicht die schnelle Bereitstellung neuer Prototypen, die automatische Skalierung und die Integration externer Datenquellen. Zudem wurden DevOps-Prozesse für automatisierte Deployments, Log-Analysen und Systemüberwachung implementiert. Die Umgebung dient seither als Innovationsplattform für KI-, Automatisierungs- und Datenprojekte.
Eingesetzte Technologien: Azure WebApps, Docker, Neo4j, Qdrant, n8n, OpenWebUI, Azure DevOps, Container Registry
Tender AI – Automatisierte Angebotsanalyse & Compliance-Validierung
KI-basierter Prototyp zur automatisierten Analyse von Ausschreibungsunterlagen (300+ Seiten) im Tender Management. RAG-Lösung mit OCR und intelligentem Chunking zur positionsweisen Extraktion von Anforderungen aus Leistungsverzeichnissen. Automatisiertes Mapping jeder Position gegen einen internen Produktindex mittels Hybrid Search (Keyword + Vektor). Übergabe der gematchten Daten über SAP BTP (iFlow) als XML-Export inkl. Validierung und Einspeisung in eine Queue zur Weiterverarbeitung im Produktkonfigurator. Zusätzlich AGB-Compliance-Check zur automatisierten Prüfung vertraglicher Rahmenbedingungen.
Eingesetzte Technologien: RAG, Azure AI, Azure AI Search, Python, Embeddings, OCR, SAP BTP, iFlow, XML, Hybrid Search
GenAI Adoption Programm – Use-Case-Strategie & Enablement
Durchführung eines GenAI-Enablement-Programms: Ableitung einer unternehmensspezifischen GenAI-Strategie, Priorisierung von Use Cases nach Business Value und technischem Aufwand sowie Hands-on-Workshops für Fachbereiche, IT und Management. Methoden zur Potenzialanalyse und Wirtschaftlichkeitsbetrachtung eingesetzt, um konkrete Handlungsempfehlungen für die KI-Einführung abzuleiten.
Eingesetzte Technologien: Azure AI, OpenAI, PowerPoint, Miro, Python-Demos
Document Intelligence – KI-gestützte Verarbeitung von Belastungsanzeigen & Preisdifferenzprüfung
Konzeption und Pilotierung eines mehrstufigen KI-Workflows zur automatisierten Verarbeitung von ca. 100 täglichen Belastungsanzeigen (PDF) im SAP-Eingangsprozess. Der Workflow umfasst: (1) LLM-gestützte Datenextraktion (Azure OpenAI) mit strukturiertem JSON-Output inkl. automatischer Klassifizierung nach Reklamationstyp (Preisdifferenz, Fehlmenge, Transportschaden etc.), (2) automatisierte Kundenzuordnung über normalisierte Fuzzy-Suche gegen eine SQLite-Stammdatenbank, (3) Preislistenabgleich mit dynamischer SQL-Query-Generierung pro Position gegen kundenspezifische Preislisten, (4) regelbasierte Entscheidungslogik (AKZEPTIEREN/ABLEHNEN/MANUELLE_PRÜFUNG) durch einen spezialisierten Entscheidungs-Agenten mit Structured Output, (5) automatisierter E-Mail-Versand an Kunde oder internes Team inkl. PDF-Anhang. Die Lösung wurde als n8n-basierter Multi-Agent-Workflow mit zwei Azure OpenAI Agenten umgesetzt.
Eingesetzte Technologien: n8n, Azure OpenAI (GPT), SQLite, Python/JavaScript, REST APIs, Prompt Engineering, Structured Output Parsing, SMTP, PDF-Extraktion
RAG-basierte Wissensdatenbank – Automatisiertes Knowledge Retrieval
Entwicklung eines lizenzsensitiven KI-Wissensassistenten auf Basis einer RAG-Architektur (Azure AI Foundry, Azure AI Search). Der Workflow validiert Nutzeranfragen dynamisch gegen API-basierte Kursberechtigungen der Learning Suite und filtert Video-Transkripte mittels Hybrid Search granular nach Zugriffsrechten. Unberechtigte Anfragen werden automatisch in kontextsensitive Upselling-Impulse transformiert. Die Lösung nutzt eigene LLM-Endpoints für Textgenerierung und Embeddings sowie Blob Storage als skalierbares Dokumentenrepository.
Eingesetzte Technologien: Azure AI Foundry, Azure OpenAI, Azure AI Search, Blob Storage, Python, REST-APIs, Embeddings, Learning Suite API
Aktivierung & Governance-Beratung für Microsoft 365 Copilot
Steuerung der initialen Einführung von Microsoft 365 Copilot: Lizenzaktivierung und Konfiguration im Admin Center für ausgewählte Pilotnutzer in Teams, Outlook und Word. Beratung zu Governance-Fragestellungen inkl. Datenzugriffsrechte, Compliance-Vorgaben und Berechtigungsmanagement nach Microsoft-Best-Practices. Erarbeitung von Handlungsempfehlungen und Governance-Richtlinien als Grundlage für den unternehmensweiten Roll-out.
Eingesetzte Technologien: Microsoft 365 Copilot, Microsoft 365 Admin Center, Entra ID, Governance & Compliance, Change Management
Strategische KI-Adoption: Befähigung & Potenzialanalyse in Marketing, Vertrieb, Supply Chain und Finance
Mehrstufiges KI-Enablement-Programm für über 50 Mitarbeitende in Marketing, Vertrieb, Supply Chain und Finance. Durchführung interaktiver Aufbruchsevents mit praxisnahen Übungen zu LLM-Technologien und Automatisierung. Anschließende Interviews mit Abteilungsleitenden zur Identifikation fachbereichsspezifischer Automatisierungspotenziale, resultierend in einer strukturierten Potenzialanalyse mit 15+ identifizierten KI-Use-Cases. Moderation eines Ideation-Workshops im Bereich Marketing mit Priorisierung realisierbarer Use Cases. Ergebnisse als Management-Präsentation und Entscheidungsgrundlage für die KI-Roadmap aufbereitet.
Eingesetzte Technologien: Azure OpenAI, GPT-4, RAG-Demos, PowerPoint, Miro, KI-Use-Case-Canvas
Intelligente Prozessautomatisierung – Document Intelligence & Workflow-Orchestrierung
Entwicklung einer prototypischen Document-Intelligence-Demo zur KI-gestützten Verarbeitung von Eingangsrechnungen. Kombination aus OCR, LLM-basierter Datenextraktion und n8n-Workflow-Orchestrierung zur automatisierten Klassifizierung, Positionsextraktion und regelbasierter Validierung. Der PoC diente als technischer Proof-of-Concept und Entscheidungsgrundlage für eine mögliche Vollintegration in die bestehende ERP-Landschaft des Kunden.
Eingesetzte Technologien: n8n, OCR, Python, LLMs, API-Integration, Webhooks
Grape Fruit | Object Detection YOLOv5
Training eines YOLOv5-Modells zur automatischen Bestimmung des Reifegrads von Weintrauben. Eigenständige Datenannotation, Modelltraining und Evaluation als Studienprojekt im Bereich Computer Vision.
Eingesetzte Technologien: YOLOv5, PyTorch, Computer Vision, Python
Conversation Amplification through Language-based Reasoning and Generative Visual Content Creation
Konzeption und Implementierung eines multimodalen Echtzeit-Systems zur kontextbasierten Bildgenerierung aus gesprochener Sprache (Masterarbeit, Note 1.3). Orchestrierung einer Ende-zu-Ende-Pipeline aus Speech-to-Text (FastWhisper), LLM-basierter Reasoning-Komponente (Llama) und Image Generation (Stable Diffusion XL / Flux). Implementierung eines skalierbaren Backends mit Flask und einer plattformübergreifenden App mit Flutter.
Eingesetzte Technologien: Python, PyTorch, Flask, Flutter, Llama, FastWhisper, Stable Diffusion XL, Flux, LangChain, Prompt Engineering, REST APIs