Ausgewählte Projekte
KI-gestützte E-Mail-Klassifikation und automatische Weiterleitung
Ziel des Projekts war es, bei JAB den manuellen Aufwand für die Sichtung und Weiterleitung eingehender E-Mails zu reduzieren, indem Nachrichten automatisiert klassifiziert und abhängig von Inhalt und Kontext an definierte Empfänger geroutet werden. Grundlage war eine fachliche Prozesslogik mit klaren Fallunterscheidungen – etwa „Kategorisierung möglich/nicht möglich“, die Weiterleitung in Bereiche wie Buchhaltung, Stammdatenänderung, interne Mails oder Bewerbungen sowie zusätzliche Verzweigungen für Bestellungen (z. B. Stoffe vs. Flooring/Atelier) und Auslandsfälle inklusive Sonderfällen wie Südtirol.
Ich habe dazu ein Python-Skript entwickelt, das EML-Mails technisch bereinigt und in ein modellierbares Format überführt: Header- und HTML-Artefakte wurden entfernt, Quoted-Printable-Codierungen dekodiert, Metadaten wie Absender/Empfänger/Betreff/Datum konsistent normalisiert und der eigentliche Nachrichtentext als durchgehender Fließtext strukturiert bereitgestellt. Auf Basis dieser aufbereiteten Daten habe ich ein Azure-Modell gezielt feinjustiert, sodass es die relevanten Informationen zuverlässig extrahiert und eine belastbare Klassifikation im Sinne der Prozesslogik liefern kann. Abschließend habe ich einen n8n-Workflow umgesetzt, über den Anwender Dokumente bzw. Maildateien hochladen: Der Flow extrahiert den Text, lässt ihn vom feinjustierten Azure-Modell analysieren, schreibt die strukturierten Felder in ein einheitliches JSON-Schema und triggert anschließend das Routing an den passenden E-Mail-Empfänger gemäß Kategorie und Fallunterscheidung.
Als Ergebnis entstand ein lauffähiger End-to-End-Prototyp, der die technische Machbarkeit inklusive Datenaufbereitung, Modellintegration und Workflow-Orchestrierung demonstriert und zugleich als saubere Ausgangsbasis für die Weiterentwicklung im Team dient. Der unmittelbare Mehrwert liegt in einer deutlich schnelleren, konsistenteren Zuordnung eingehender Mails, weniger Medienbrüchen und einem skalierbaren Fundament, um die Prozesslogik iterativ zu erweitern und produktionsreif zu machen.
Eingesetzte Technologien: Python, EML-Parsing, Quoted-Printable-Decoding, Text-Cleaning/Normalisierung, Datenvorverarbeitung fürs Fine-Tuning, Azure OpenAI Fine-Tuning, Prompt Engineering (System Prompt), Structured Output Parsing (JSON Schema), n8n Workflow Automation, Webhook-Integration, File/Text Extraction, Dokumenten-/E-Mail-Klassifikation, Regelbasiertes Routing, JSON-basierte Schnittstellenintegration, Low-Code Orchestrierung (n8n), End-to-End Prototyping
Automatisierte Speditionskostenprüfung & Rechnungsvalidierung mit SAP Anbindung
Ziel des Projekts war es, die bislang manuell und nur stichprobenartig durchgeführte Speditionsrechnungskontrolle zu automatisieren und damit Frachtkosten über alle Länder und Zonentarife hinweg transparent, reproduzierbar und vollständig zu validieren. Ausgangspunkt war eine hohe fachliche und datenbezogene Komplexität: monatlich gehen zahlreiche Rechnungen als Excel-Dateien mit vielen Lieferpositionen ein, deren Abgleich mit SAP-Lieferinformationen (u. a. PLZ, Gewicht, Zone, Kundendaten) bislang zeitintensiv und fehleranfällig war. Das Zielbild sah daher einen regelbasierten, nachvollziehbaren Prüfprozess vor, der die eingehenden Abrechnungsdaten mit den hinterlegten Tarifen abgleicht, Sonderfälle berücksichtigt und das Ergebnis als strukturierten Excel-Report für die Fachbereiche bereitstellt.
Ich verantwortete die technische Umsetzung und erstellte das Feinkonzept als belastbare Grundlage für Entwicklung und Betrieb. Dabei habe ich den End-to-End-Prüfablauf detailliert konzipiert – von der Initialisierung über das robuste Einlesen von Abrechnungs-/Spezifikationsdateien, Tariftabellen und optionalen Sondertarifen bis hin zur Vorverarbeitung mit konfigurierbarem Spaltenmapping, PLZ-Normalisierung und der Identifikation zusätzlicher Kostenarten. In der Berechnungslogik habe ich die Tarifermittlung über PLZ-Präfix und Gewichtsstaffeln, die Zuschlagsberechnung (Diesel/Maut) sowie Sonderlogiken für definierte Ausnahmen (z. B. spezielle PLZ-Regelungen über Distanz- und Gewichtsbereiche) strukturiert und in eine klar getrennte Modularchitektur überführt. Ergänzend habe ich die Validierungs- und Klassifikationsregeln spezifiziert – inklusive Duplikaterkennung, sauberem Fehler- und Ausnahmehandling sowie der gezielten Aussteuerung von Klärfällen in „Manual Checks“ – und daraus ein Reporting-Format abgeleitet, das Abweichungen, manuelle Prüfungen und Statistiken nachvollziehbar getrennt ausgibt. Für die Zielarchitektur habe ich zudem die Bereitstellung als Web-Anwendung im Docker-Betrieb (VM, Reverse Proxy, Persistenz, Netzwerkshare-Anbindung) sowie Optionen zur SAP-Anbindung (dateibasierter Export als Zielvariante bzw. OData über BTP als Ausbaupfad) konzeptionell abgesichert.
Als Ergebnis entstand ein umsetzungsreifes, technisch durchdachtes Konzept für eine zentrale Prüfapplikation, die Speditionskosten automatisiert kalkuliert, Abweichungen systematisch markiert und die Ergebnisse in einem standardisierten Excel-Workbook mit dedizierten Sheets für Abweichungen, Klärfälle und Kennzahlen bereitstellt. Dadurch kann KRAUSE sämtliche Rechnungen regelbasiert prüfen, statt nur Stichproben zu ziehen, reduziert den monatlichen Prüfaufwand deutlich und erhöht gleichzeitig Transparenz und Prüfqualität, weil Abweichungen, Ursachenklassen und Nacharbeiten konsistent dokumentiert und weiterverarbeitet werden können.
Eingesetzte Technologien: Regelbasierte Speditionskostenprüfung, Tarifermittlung, Zuschlagsberechnung, Datenvalidierung, Abweichungsanalyse, Duplikaterkennung, Ausnahme- und Sonderfalllogik, Konfigurierbares Spaltenmapping, Datenbereinigung und Normalisierung, Excel-Import/Export, Fehlerhandling und Logging, Modularer Aufbau, Schichtenarchitektur, Web-Anwendung, Docker-Containerisierung, Deployment auf VM, Reverse Proxy, Netzwerkshare-Integration, SAP-Dateischnittstelle, OData-Integration, SAP BTP
Einführung eines VoiceBots für den Krankmeldeprozess
Für Hörmann wurde ein eigener VoiceBot auf Basis einer eigen entwickelten VoiceAI-Plattform eingeführt, um den Krankmeldeprozess zu standardisieren, die Meldefrist der Frühschicht zuverlässig abzudecken und die bis dahin notwendigen, personalintensiven Telefonbereitschaften in den frühen Morgenstunden deutlich zu reduzieren. Da sich Mitarbeitende der Frühschicht nur bis 06:00 Uhr krankmelden können, musste zuvor durchgehend eine telefonische Erreichbarkeit sichergestellt werden – diese Aufgabe übernimmt der VoiceBot nun automatisiert und rund um die Uhr.
Ich verantwortete die Mitentwicklung des VoiceBots für die telefonische Krankmeldung sowie der mehrsprachigen Ausgestaltung, sodass Anrufer den Ablauf in Deutsch und weiteren relevanten Sprachen wie Türkisch, Rumänisch, Polnisch oder Russisch sicher durchlaufen können. Parallel dazu setzte ich die Datenschutz- und Compliance-Anforderungen technisch um, indem die Lösung DSGVO-konform in der EU gehostet wurde und die Verarbeitung inklusive Protokollierung und Speicherung der Gesprächsdaten entsprechend abgesichert wurde.
Als Ergebnis steht Hörmann ein jederzeit verfügbarer, konsistenter Meldekanal zur Verfügung, der Krankmeldungen telefonisch automatisiert entgegennimmt, die relevanten Informationen strukturiert bereitstellt und die Frühschichten spürbar entlastet. Der personelle Aufwand für Telefonannahmen in den frühen Schichten wurde deutlich reduziert, während die Akzeptanz bei den Mitarbeitenden insbesondere durch die einfache Bedienung und die breite Sprachunterstützung nachhaltig gesteigert werden konnte.
Eingesetzte Technologien: SIP/VoIP, Asterisk ARI/AMI, Echtzeit-Audio-Streaming, Azure OpenAI Realtime API, Audio-Transcoding/-Processing, FastAPI, PostgreSQL + SQLAlchemy, Alembic, Qdrant Vector Database, LangChain, Docker, Docker-Compose, Nginx, Prometheus-Client, JWT/OAuth, DSGVO-konformes EU-Hosting
KI-Architektur- und n8n-Automatisierungsberatung auf Microsoft Azure
Ziel des Projekts war es, eine zukunftsfähige KI- und Automatisierungsarchitektur auf Basis von n8n und Microsoft Azure aufzubauen, um kundenbezogene Informationen aus unterschiedlichen Quellen effizient zusammenzuführen, strukturiert aufzubereiten und für die Bestell- und Auftragsverarbeitung KI-gestützt nutzbar zu machen. Im Mittelpunkt standen dabei sowohl die Etablierung einer RAG-Architektur (Retrieval Augmented Generation) mit Qdrant als auch die nachhaltige Stabilisierung und Optimierung der bestehenden n8n-Workflows, damit die Lösung skalierbar, wartbar und zuverlässig betrieben werden kann.
In meiner Rolle fungierte ich als zentraler fachlicher Ansprechpartner des Kunden und verantwortete die inhaltlich-technische Beratung rund um n8n, KI-Architektur und Azure-nahe Integrationsmuster. Ich analysierte konkrete Schwachstellen in vorhandenen Workflows, leitete Best Practices für Struktur, Konfiguration und Betrieb ab und setzte diese gemeinsam mit dem Kunden in eine belastbare Zielarchitektur um. Ein wesentlicher Schwerpunkt lag auf Fehlertoleranz und Robustheit: Ich definierte und implementierte Mechanismen für saubere Fehlerbehandlung, Wiederanläufe, Timeouts und Ausnahmefälle, etablierte nachvollziehbare Logging- und Diagnosepfade und sorgte dafür, dass Prozesse auch bei instabilen Schnittstellen oder unvollständigen Eingangsdaten kontrolliert weiterlaufen oder gezielt eskalieren. Parallel konzipierte ich die Datenverarbeitungskette, in der Daten über n8n aus Datenbanken und angebundenen Systemen extrahiert, transformiert und in konsistente Strukturen überführt werden, um sie für nachgelagerte Prozesse und KI-Anwendungen bereitzustellen. Dazu gehörte insbesondere die automatisierte Transformation eingehender E-Mails, die strukturierte Extraktion relevanter Inhalte sowie die anschließende API-Kommunikation mit einem internen Schnittpunkt, um Kundendaten abzurufen, anzureichern und für die weitere Verarbeitung der Bestellung bereitzustellen.
Darüber hinaus erarbeitete ich gemeinsam mit dem Kunden konkrete RAG-Strategien für den Einsatz von Qdrant, einschließlich der sinnvollen Strukturierung von Wissensquellen, geeigneter Abruf- und Filterlogiken sowie praktischer Leitplanken, wie sich Kontextqualität, Aktualität und Relevanz der Treffer in produktionsnahen Szenarien absichern lassen. Ergänzend entwickelte ich mit dem Kunden eine Roadmap für potenzielle KI- und Automatisierungs-Use-Cases, priorisierte sinnvolle Weiterentwicklungen entlang des operativen Nutzens und schuf damit eine klare Grundlage, wie sich die Lösung iterativ ausbauen lässt – ohne die Stabilität des laufenden Betriebs zu gefährden.
Als Ergebnis entstand eine robuste End-to-End-Automatisierung, die E-Mail-basierte Anfragen standardisiert in verarbeitbare Datenobjekte überführt, interne Systeme über APIs zuverlässig integriert und eine RAG-fähige Wissensbasis bereitstellt, die kontextbezogene Auskünfte und Folgeprozesse ermöglicht. Durch die verankerten Best Practices in n8n, die optimierten Konfigurationen und die konsequent umgesetzten Fehlertoleranz-Mechanismen stiegen Transparenz, Stabilität und Erweiterbarkeit der Workflow-Landschaft spürbar.
Der Kunde profitiert dadurch von kürzeren Durchlaufzeiten in der Auftragsbearbeitung, höherer Datenqualität und einer belastbaren Architektur, die neue KI-Innovationen schnell integrierbar macht – bei gleichzeitig reduziertem Fehleraufkommen und geringerem Betriebsaufwand.
Eingesetzte Technologien: n8n, Microsoft Azure, KI-Architektur, Qdrant, RAG (Retrieval Augmented Generation), Vektordatenbank, ETL/ELT, Datenintegration, Data Transformation, Datenbanken, E-Mail-Parsing, API-Integration, Workflow-Orchestrierung, Fehlerbehandlung, Retry-Strategien, Timeouts, Logging/Monitoring, Use-Case-Roadmap, Best Practices, Prozessautomatisierung
Leadgenerierung durch KI-gestützte Internetrecherche
Im Rahmen des Projekts wurde ein automatisierter Workflow zur KI-gestützten Leadgenerierung entwickelt, dessen Ziel es war, qualifizierte Geschäftskontakte anhand definierter Kriterien effizient zu identifizieren. Dafür wurde ein Prozess realisiert, der mithilfe von KI-Algorithmen Internetrecherchen durchführt und potenzielle Leads ermittelt. Anschließend werden zu den gefundenen Kontakten strukturierte Informationen wie Unternehmensadressen, Telefonnummern, E-Mail-Adressen sowie relevante Ansprechpartner automatisch aus öffentlich zugänglichen Quellen extrahiert.
Meine Aufgabe bestand darin, diesen End-to-End-Workflow technisch umzusetzen. Dazu entwickelte ich eine Python-basierte Lösung, die auf modernen KI-Technologien wie OpenAI und n8n aufbaut und durch effiziente Datenverarbeitung mit pandas ergänzt wird. Die Implementierung berücksichtigte den modularen Einsatz verschiedener Bibliotheken, darunter os, time und dotenv, um Prozessautomatisierung, Stabilität und Wiederverwendbarkeit sicherzustellen. Durch den Einsatz von Rapid Engineering und Tools wie Cursor und Claude Code konnte die Lösung iterativ optimiert und nahtlos in bestehende Systeme integriert werden. Alle recherchierten Daten werden in einer strukturierten Datenbank abgelegt und stehen dem Vertriebsteam in aufbereiteter Form für die direkte Weiterverarbeitung zur Verfügung.
Das Ergebnis ist ein vollautomatisierter Recherche- und Datenanreicherungsprozess, der eine konsistente Qualität der Leads gewährleistet und dem Vertrieb erhebliche Zeitvorteile verschafft. Dadurch konnte der manuelle Aufwand für die Leadgenerierung deutlich reduziert und die Effizienz in der Akquise spürbar gesteigert werden.
Eingesetzte Technologien: Python, KI über OpenAI, n8n, Datenverarbeitung über pandas, os, time, dotenv, Rapid Engineering, Cursor, Claude Code
Workshop zur Erstellung eines RAG-Chatbots mit Anbindung an ein MediaWiki
Im Unternehmen wurde ein Hackathon zur Entwicklung eines Retrieval-Augmented Generation (RAG) Chatbots, der Informationen aus einem MediaWiki-System abruft und intelligente Antworten generiert, durchgeführt. Ziel war es, die praktische Anwendung von RAG-Architekturen auf Basis von Azure-Diensten zu demonstrieren und das Kundenteam aktiv in die Umsetzung einzubinden. Zusätzlich wurden theoretische Grundlagen zu RAG-Techniken und möglichen Systemarchitekturen vermittelt.
Das Team wurde durch die Planung und Implementierung eines Workflows geleitet: Ein Chatbot verarbeitet Benutzeranfragen über eine Open WebUI-Oberfläche, die über ein Flask-Backend an die notwendigen Azure Services angebunden wurde. Eine Suche in Azure AI Search identifiziert relevante Informationen aus der unternehmenseigenen MediaWiki-Wissensdatenbank. Diese Daten werden dem Azure OpenAI Service übergeben, um relevante und präzise Antworten zu generieren.
Durch meine beratende Rolle im Hackathon befähigte ich das Kundenteam maßgeblich zum Aufbau eigener Kompetenzen in der Implementierung von RAG-basierten KI-Lösungen. Die gemeinsame Entwicklung eines funktionsfähigen Chatbots vermittelte den Teammitgliedern ein tiefgreifendes, praxisorientiertes Verständnis für die Integration von Wissensdatenbanken in KI-Modelle und die Planung sowie Bereitstellung der notwendigen Infrastruktur. So ist das Team nun befähigt fortschrittliche KI-Anwendungen eigenständig zu entwickeln und zu optimieren.
Eingesetzte Technologien: Azure AI Search, Azure OpenAI Service (Chat-Completion & Embedding Modelle), Open WebUI, n8n, Flask, FastAPI, Django, Python, n8n
Ausbildungsprogramm „KI-Ingenieur“ – Vom Fundament zur produktiven Lösung
Ziel des Programms war es, Fach- und IT-Teams in die Lage zu versetzen, produktionsreife KI-Lösungen eigenständig zu konzipieren und umzusetzen.
Ich verantwortete die Ende-zu-Ende-Konzeption des Curriculums, definierte Lernziele und Kompetenzstufen und entwickelte aufeinander aufbauende Trainingspfade von den Grundlagen generativer KI über RAG-Architekturen und Agenten-Design bis hin zu LLM-Ops, Governance und Erfolgsmessung. Dazu entwarf ich praxisnahe Hands-on-Labs und Capstone-Aufgaben, bereitete Referenzarchitekturen und bewährte Patterns auf und richtete die benötigte Tool- und Lab-Umgebung mit Azure OpenAI und n8n ein. Die Teilnehmenden setzten die erlernten Konzepte in funktionsfähige Prototypen um, validierten Qualität, Kosten und Latenzen mit geeigneten Metriken und überführten die Lösungen mithilfe klarer Betriebs-, Sicherheits- und Compliance-Leitlinien in einen produktionsnahen Reifegrad.
Das Ergebnis ist ein skalierbares Enablement-Programm mit wiederverwendbaren Bausteinen und Musterlösungen, das den Aufbau interner KI-Kompetenzen messbar beschleunigt. So reduziert das Unternehmen Abhängigkeiten, verkürzt die Time-to-Value für KI-Use-Cases und erhöht die Qualität sowie Betriebssicherheit der entwickelten Lösungen.
Eingesetzte Technologien: n8n, Retrieval-Augmented Generation (RAG), SQL, Gemini API, Google APIs, Azure OpenAI, Agenten-Design, Prompt Engineering, LLM-Ops, Governance Frameworks
Hackathon RAG Chatbot und Rechnungsassistent
Ziel des Projekts war es, gemeinsam mit dem Kunden Helmut Hechinger in einem mehrtägigen KI-Hackathon konkrete Einsatzmöglichkeiten von generativer KI zu identifizieren und diese prototypisch umzusetzen. Im Fokus stand die Entwicklung eines funktionalen Chatbot-Prototyps, der auf unternehmensinternen Dokumenten basiert und Mitarbeitende bei der Beantwortung fachlicher Fragen unterstützt. Gleichzeitig sollte durch den praxisnahen Ansatz ein fundiertes Verständnis für Large Language Models, Retrieval-Augmented-Generation-Architekturen sowie KI-gestützte Automatisierungen aufgebaut werden, um eine belastbare Grundlage für weiterführende KI-Initiativen zu schaffen.
Ich konzipierte und leitete den Hackathon inhaltlich sowie methodisch und verantwortete die fachliche Steuerung aller Workshop-Phasen von der theoretischen Einführung bis zur praktischen Umsetzung. Dabei vermittelte ich die relevanten Grundlagen zu LLMs, Prompt-Design, Embeddings und Vektordatenbanken und übersetzte diese gezielt in umsetzbare technische Architekturen. In der Praxisphase entwickelte ich gemeinsam mit den Teilnehmenden einen Chatbot-Prototypen inklusive RAG-Mechanismus, angebundener Dokumentenquellen und einer workflowbasierten Orchestrierung über n8n. Ergänzend steuerte ich die Konzeption und Umsetzung eines File- und Web-Crawlers zur strukturierten Aufbereitung von Wissensbeständen sowie die Integration unterschiedlicher KI-Frontends für Chat- und Coding-Use-Cases. Während des gesamten Hackathons stellte ich die technische Funktionsfähigkeit, die Nachvollziehbarkeit der Lösungen und den konsequenten Prototypencharakter sicher.
Als Ergebnis entstand ein lauffähiger KI-Chatbot, der interne Dokumente kontextbezogen auswertet und präzise Antworten auf Fachfragen liefert, ergänzt um einen separaten Coding-Assistenten sowie erste automatisierte Workflows zur Prozessunterstützung. Darüber hinaus wurden gemeinsam mit dem Kunden priorisierte KI-Use-Cases ausgearbeitet und ein klarer Ausblick auf eine skalierbare Enterprise-GPT-Architektur inklusive möglicher Ausbaustufen definiert.
Der Kunde profitierte unmittelbar von einem greifbaren Prototypen, einem deutlich gesteigerten KI-Verständnis in den Fachbereichen und einer fundierten Entscheidungsgrundlage für die strategische Weiterentwicklung von KI-Lösungen. Der Hackathon schuf damit sowohl kurzfristigen Mehrwert durch konkrete Ergebnisse als auch eine nachhaltige Basis für den strukturierten Einsatz von KI im Unternehmen.
Eingesetzte Technologien: Large Language Models (LLM), Generative AI, Retrieval-Augmented Generation (RAG), Prompt Engineering, Embeddings, Chunking-Strategien, Vektorsuche, Vektordatenbanken, Qdrant, Wissensmanagement mit KI, Dokumentenbasierte Chatbots, Prototyping von KI-Anwendungen, KI-Architekturdesign, API-Integration (REST, OAuth2), Workflow-Automatisierung, n8n, KI-Orchestrierung, Agentenbasierte Workflows, LangChain-basierte Flows, LangChain, Python File-Crawling, Datenaufbereitung für KI, Metadatenanreicherung
KI-gestützter Excel-Workshop zur datengetriebenen Analyse und Automatisierung
Ziel des Projekts war es, Key User der Sund Group gezielt dazu zu befähigen, generative KI sinnvoll und produktiv in ihrem bestehenden Excel-Arbeitsalltag einzusetzen. Der Fokus lag darauf, klassische Excel-Anwendungsfälle wie Datenanalyse, Reporting und Controlling durch den strukturierten Einsatz von ChatGPT und Office Scripts deutlich effizienter, robuster und transparenter zu gestalten und gleichzeitig ein fundiertes Verständnis für die zugrunde liegenden Methoden zu vermitteln.
Im Rahmen des zweitägigen Workshops übernahm ich die Projektleitung und konzipierte und gestaltete ich die inhaltliche Ausrichtung und führte die Teilnehmenden praxisnah durch alle relevanten Themenfelder. Ich vermittelte fortgeschrittene Prompting-Techniken für Excel-Anwendungsfälle, leitete die KI-gestützte Erstellung, Prüfung und Optimierung von Formeln sowie bedingten Formatierungen an und zeigte, wie ChatGPT gezielt zur Datenanalyse, Bereinigung und zur Erstellung von Management-Summaries eingesetzt werden kann. Darüber hinaus verantwortete ich die Einführung in Office Scripts, inklusive der automatisierten Erstellung von KPI-Tabellen, Pivot-Auswertungen, Dashboards und wiederverwendbaren Controlling-Skripten, ergänzt um strukturierte Debugging-Ansätze und Best Practices für den produktiven Einsatz.
Als Ergebnis entstand ein durchgängiges Enablement-Konzept, das die Teilnehmenden in die Lage versetzte, komplexe Excel-Auswertungen schneller zu erstellen, Fehler systematisch zu identifizieren und wiederkehrende Analyse- und Reporting-Prozesse weitgehend zu automatisieren. Die im Workshop entwickelten Lösungen reichten von datengetriebenen Marketing- und Vertriebsanalysen über dynamische Dashboards bis hin zu standardisierten KPI-Reports mit klar definierten Qualitäts- und Kontrollmechanismen.
Der Mehrwert für den Kunden lag in einer spürbaren Effizienzsteigerung bei Analyse- und Reporting-Aufgaben, einer nachhaltig verbesserten Datenqualität sowie in der Befähigung der Key User, KI eigenständig und zielgerichtet als festen Bestandteil ihrer täglichen Excel-Arbeit einzusetzen.
Eingesetzte Technologien: Projektmanagement, Microsoft Excel, ChatGPT, Generative AI (GenAI), Prompt Engineering, Advanced Prompting (Shot Prompting, Chain-of-Thought), Office Scripts, TypeScript, JavaScript, Excel Formeln, Bedingte Formatierung, Datenanalyse, Datenbereinigung, KPI-Reporting, Dashboarding, Pivot-Tabellen, Diagrammerstellung, Automatisierung, Debugging, Management Reporting
KI-Strategieworkshop: Aufbau AI Transformation Office (TFO)
Ziel des Projekts war es, für die GWH eine belastbare Grundlage für die unternehmensweite KI-Transformation zu schaffen und den Aufbau eines AI Transformation Office (TFO) als zentrale Steuerungsinstanz zu definieren, damit das strategische Ziel einer jährlichen Produktivitätssteigerung von 2% über alle Bereiche hinweg strukturiert erreicht werden kann. Im Mittelpunkt stand dabei, KI nicht als isolierte Einzellösungen zu denken, sondern als skalierbares Programm aus Governance, Enablement, Plattform-Fundament und wertorientiert priorisierten Use Cases, das Mitarbeitende befähigt und gleichzeitig Risiken sowie regulatorische Anforderungen konsequent adressiert.
Ich konzipierte und moderierte den KI-Strategieworkshop und leitete die anschließende Ausarbeitung der Ergebnisse in ein umsetzungsorientiertes Zielbild für das GWH AI TFO. Dabei erarbeitete ich gemeinsam mit den relevanten Stakeholdern Vision und Mission des TFO, definierte das Mandat entlang der sechs Kernleistungsfelder (Strategie & Vision, Governance/Responsible AI inkl. EU-AI-Act-Konformität, Technologie/Daten/Infrastruktur-Enablement, Koordination & Kollaboration, Kultur/Kompetenzen/Change sowie Wertrealisierung & Erfolgsmessung) und überführte diese in ein Operating Model inklusive Schnittstellen zu KI-Steering-Committee und PMO. Ergänzend entwickelte ich einen klaren Demand- und Governance-Prozess mit definierten Entscheidungspunkten von der Ideeneinreichung über Machbarkeitscheck, Business Case und Pilotierung bis hin zu Rollout, Monitoring und Hypercare, um Geschwindigkeit und Kontrolle in Balance zu halten.
Als Ergebnis liegt ein konsistentes Umsetzungssetup für die KI-Transformation vor: ein organisatorisch verankertes TFO mit Rollen- und Kommunikationslogik, ein End-to-End-Vorgehensmodell von Strategie über Plattformaufbau bis zu Rollout und Skalierung sowie eine konkrete Roadmap, die kurzfristige Quickwins und nachhaltige Plattforminvestitionen verbindet. Dazu gehört die Konzeption einer GWH-weiten KI-Plattform auf Microsoft-Azure-Basis (inkl. stufenweisem Ausbau von KI-Frontend/Azure OpenAI über RAG-Datenintegration bis zu Agenten-Workflows), der unternehmensweite Rollout eines KI-Assistenten (z. B. LibreChat + Azure AI) sowie ein Enablement-Ansatz mit KI-Führerschein, Schulungsformaten und KI-Champions als Multiplikatoren. Parallel wurden priorisierte Use Cases als wertorientierter Startpunkt herausgearbeitet, u. a. ein GWH-spezifischer FAQ-/Wissens-Chatbot, ein Voicebot im Kundenservice, ein SAP-RAG-Chatbot zur Unterstützung in der SAP-Navigation, KI-gestützte Datenpflege (z. B. Mietspiegel/technische Gebäudedaten), Meeting-Protokollierung sowie Assistenzfunktionen rund um Nebenkostenabrechnungen.
Für die GWH entsteht damit ein klar steuerbares Transformationsprogramm, das KI-Initiativen strategisch bündelt, sicher und compliant skaliert und die Umsetzungsgeschwindigkeit durch standardisierte Entscheidungs- und Umsetzungswege deutlich erhöht. Der Mehrwert liegt in schneller realisierbaren Effizienzgewinnen durch priorisierte Low-Hanging-Fruits, reduzierten Risiken durch verbindliche Governance sowie einer Plattform- und Befähigungsbasis, die KI dauerhaft im Arbeitsalltag verankert und messbaren Nutzen über die gesamte Organisation hinweg ermöglicht.
Eingesetzte Technologien: Strategieworkshop-Design, Stakeholder-Management, Zielbild- und Operating-Model-Design (TFO), KI-Governance & Responsible AI, Demand- & Use-Case-Intake-Prozess, Use-Case-Priorisierung (Value/Feasibility), Business-Case-Methodik, PoC-/Pilotierungsansatz, Rollout- & Skalierungsplanung, Roadmapping, KPI-/Value-Tracking, Change-Management & Enablement (Trainings/KI-Führerschein), Microsoft Azure, Azure OpenAI, Retrieval-Augmented Generation (RAG), Wissensmanagement/Knowledge Base Integration, Agente
Entwicklung und Optimierung von Web-Apps und Prozessautomatisierungen unter Verwendung von n8n
Ziel des Projekts war die durchgängige Digitalisierung und Automatisierung interner Abläufe an der TU Darmstadt, um manuelle Prozesse abzulösen, Datentransparenz zu erhöhen und benutzerfreundliche Web-Anwendungen für verschiedene Fachbereiche bereitzustellen. Im Mittelpunkt stand die Entwicklung einer modularen Plattform auf Basis von n8n, die sowohl Workflow-Automation als auch moderne UI-Komponenten vereinte.
Ich verantwortete die technische Umsetzung mehrerer Web-Apps und Prozessintegrationen in n8n - von API-Anbindung bis zur Realisierung der Frontends. Dazu gehörte unter anderem die Entwicklung zweier Chat-basierter Web-Anwendungen mit interaktiver Benutzerführung zur Prozess- und FAQ-Abbildung. Diese nutzten jeweils eigene Vektordatenbanken in Qdrant und wurden vollständig in n8n gehostet. Ein weiteres Teilprojekt umfasste die Erstellung eines webbasierten ERP-Dashboards, das über eine Anbindung an Microsoft SQL eine transparente Übersicht über ERP-Prozesse und Transporte ermöglichte. Zudem ersetzte ich das bisher Excel-basierte Reporting zum Projektstatus durch eine rollenbasierte Web-App mit Benutzeridentifizierung, die sowohl Bearbeitungs- als auch Lesezugriffe gezielt steuerte. Ein komplexes Abstimmungstool, das zuvor in Excel abgebildet war, wurde in eine browserbasierte Voting-Lösung überführt und direkt in n8n integriert.
Alle Anwendungen wurden containerisiert in Docker betrieben.
Die Integration moderner KI-Technologien – darunter Azure OpenAI, ChatGPT, Claude sowie Embedding- und Chunking-Verfahren – ermöglichte fortschrittliche Datenanalysen und intelligente Interaktionen. Die technische Umsetzung umfasste unter anderem API- und HTTP-Requests, Anbindungen an Kanbanize und Meistertask, sowie die Entwicklung performanter HTML-basierter Frontends.
Das Ergebnis war eine skalierbare, automatisierte Plattform, die Fachbereiche bei der digitalen Transformation unterstützte, redundante Prozesse eliminierte und die Transparenz sowie Effizienz der internen Abläufe signifikant erhöhte.
Eingesetzte Technologien: n8n, Docker, Docker Compose, Apache, nginx, Azure OpenAI, ChatGPT, Claude, AI, KI, Qdrant, Embedding, Chunking, REST APIs, Webhooks, HTTP Requests, SQL, Microsoft SQL Server, ETL, Kanbanize, Meistertask, API Requests, WebApp-Entwicklung, HTML, JavaScript, Role-Based Access Control (RBAC), Single Page Apps, Prompt Engineering
KI-Hackathon: Entwicklung eines RAG-basierten Wissenschatbots mit n8n
Ziel des Projekts war die Konzeption und Durchführung eines praxisorientierten KI-Hackathons an der Technischen Universität Darmstadt, mit dem Ziel, Studierenden und Teilnehmenden den strukturierten Aufbau moderner KI-gestützter Automatisierungs- und Wissenssysteme näherzubringen. Im Fokus stand die Entwicklung eines funktionsfähigen Prototyps auf Basis von n8n, der Web-Crawling, Vektordatenbanken und Retrieval-Augmented-Generation zu einer durchgängigen KI-Lösung kombiniert und theoretisches Wissen unmittelbar in praktische Anwendung überführt.
In meiner Rolle habe ich den Hackathon fachlich konzipiert, inhaltlich geleitet und technisch verantwortet. Ich habe die inhaltliche Agenda entwickelt, die Grundlagen zu n8n-Workflows, Vektordatenbanken, Embeddings und RAG-Architekturen vermittelt und diese Themen anhand realitätsnaher Use Cases vertieft. Darüber hinaus habe ich komplexe n8n-Workflows entworfen und live demonstriert, darunter modulare Automatisierungen für Web-Crawling, Datenaufbereitung, Chunking und Vektorisierung sowie die Anbindung externer KI-Services. Während der Praxisphasen habe ich die Teilnehmenden aktiv durch Architekturentscheidungen, Debugging-Strategien und Best Practices geführt und gezielt darauf hingearbeitet, dass aus einzelnen Bausteinen ein konsistenter End-to-End-Flow entsteht. Die technische Verantwortung umfasste dabei sowohl die methodische Strukturierung der Workflows als auch die Sicherstellung lauffähiger Prototypen innerhalb des begrenzten Zeitrahmens.
Als Ergebnis des Hackathons entstand ein funktionierender KI-Prototyp, der Inhalte automatisiert aus Web- und Wiki-Quellen extrahiert, semantisch aufbereitet, in einer Vektordatenbank speichert und über einen Chat-Agent kontextbezogen zugänglich macht. Die Teilnehmenden konnten nachvollziehen, wie sich aus Rohdaten eine skalierbare Wissensbasis aufbauen lässt und wie moderne KI-Architekturen in der Praxis umgesetzt werden – von der Datengewinnung über die Indizierung bis hin zur dialogbasierten Nutzung.
Der zentrale Mehrwert für die Teilnehmenden und die Universität lag in der konsequenten Verbindung von Theorie und Praxis: komplexe KI-Konzepte wurden nicht nur erklärt, sondern in lauffähige Lösungen überführt, wodurch nachhaltiges Verständnis, hohe Lernkurven und ein realitätsnaher Einblick in moderne KI- und Automatisierungsprojekte geschaffen wurden.
Eingesetzte Technologien: KI-Hackathon, n8n, Workflow-Automatisierung, Generative KI, Retrieval-Augmented Generation, RAG, Vektordatenbanken, Embeddings, Web Crawling, Wissensdatenbank, Chatbot-Entwicklung, KI-Architektur, Prototyping, Low-Code-Automatisierung, API-Integration, Datenaufbereitung, Semantic Search, Prompt Engineering.
Document Intelligence Demo (RAG)
Ziel des internen Projekts war es, eine durchgängige RAG-Demo aufzubauen, mit der sich interne Dokumente komfortabel hochladen, vektorbasiert durchsuchen und anschließend in einer Chat-Oberfläche (OpenWebUI) gezielt zu Inhalten befragen lassen, um den praktischen Nutzen von dokumentenbasierter Wissensabfrage greifbar zu machen.
Ich habe die komplette Lösung eigenständig konzipiert und in n8n als zusammenhängende Workflow-Kette umgesetzt: von einer webbasierten Upload- und Verwaltungsoberfläche inklusive Metadaten-Erfassung und „Delete all“-Funktion über die PDF-Extraktion, das robuste Chunking mit stabiler Identifikation je Dokument/Seite/Chunk sowie das Embedding und Upsert in eine Qdrant-Collection bis hin zum Search-Workflow, der Suchanfragen in Embeddings überführt und die relevantesten Treffer samt Payload zurückliefert. Ergänzend habe ich einen Chat-Workflow mit Agent-Logik und Session-Memory erstellt, der die Suche als einziges Tool kapselt und die Antwort strikt auf gefundene Dokumentpassagen begrenzt.
Als Ergebnis steht eine lauffähige End-to-End-Demo mit klar getrennten Bausteinen (Ingestion, Verwaltung, Suche, Chat) und wiederverwendbaren Schnittstellen. Zusätzlich habe ich eine MCP-Anbindung in n8n eingerichtet, sodass der Search Qdrant Workflow per MCP aufrufbar ist und sich in jede MCP-kompatible Oberfläche integrieren lässt. Damit entsteht ein schnell adaptierbarer Blaupausen-Ansatz, der Teams eine belastbare Grundlage bietet, um dokumentenbasierte Assistenzfunktionen zu evaluieren und zielgerichtet in eigene Use Cases zu überführen.
Eingesetzte Technologien: n8n, Qdrant, OpenWebUI, RAG, MCP, Vektordatenbank, Embeddings, Retrieval, LLM-Integration, Workflow-Automation, Dokumentenverarbeitung, PDF-Parsing, Chunking, Semantic Search, API-Integration
KI-gestützter Dublettencheck im SAP-Artikelstamm
Ziel des Proof of Concept bei Westfleisch war es, die grundsätzliche Machbarkeit eines automatisierten Dubletten-Checks für eine SAP-Artikelaufstellung zu zeigen und damit eine belastbare Entscheidungsgrundlage für eine spätere produktive Implementierung zu schaffen. Im Fokus stand, doppelt angelegte Artikel frühzeitig zu erkennen, die Ursachen transparent zu machen und einen Prozess zu skizzieren, der sich perspektivisch in die Stammdatenqualitätssicherung integrieren lässt.
Ich habe dafür einen Python-basierten Analyse-Workflow aufgebaut, der den Excel-Export automatisiert verarbeitet und die Daten zunächst gezielt normalisiert, um unterschiedliche Schreibweisen vergleichbar zu machen. Dazu gehörten unter anderem das Vereinheitlichen von Texten und Nummernformaten, das Bereinigen typischer Excel-Artefakte sowie das Standardisieren relevanter Merkmale wie Materialkurztext, Lieferant, Lieferantenmaterialnummer und Herstellerinformationen. Auf dieser Basis habe ich eine mehrstufige Dublettenlogik umgesetzt: Zunächst wurden Kandidatenpaare über harte Regeln (z. B. Übereinstimmungen auf Artikelnummern-bezogenen Attributen) und ergänzend über Ähnlichkeitsvergleiche auf Textfeldern gebildet, um die Menge der relevanten Treffer einzugrenzen. Für die so identifizierten Paare wurden Match-Gründe und Rückverweise auf die Ursprungszeilen mitgeführt, sodass jede Empfehlung nachvollziehbar und fachlich prüfbar blieb. Im letzten Schritt ließ ich die Kandidaten durch ein in Azure bereitgestelltes KI-Modell verifizieren, das die Paare semantisch bewertet und damit die regelbasierte Vorselektion plausibilisiert, insbesondere zur Reduktion von Fehlalarmen bei rein oberflächlicher Ähnlichkeit.
Als Ergebnis entstand eine POC-Ergebnisdatei, die Dubletten-Kandidaten mit Begründung, KI-Validierung und einer nachvollziehbaren Bereinigungsentscheidung je Gruppe ausweist und damit demonstriert, wie sich aus einem großen Artikel-Export effizient eine priorisierte Liste für die Stammdatenprüfung ableiten lässt.
Der Mehrwert lag darin, den Ansatz inklusive Datenaufbereitung, Kandidatenbildung und KI-gestützter Verifikation konkret nachzuweisen und so die Grundlage für eine spätere Produktivierung zu legen.
Eingesetzte Technologien: Python, Pandas, Excel-Parsing (XLSX), Datenbereinigung, Daten-Normalisierung, String-Normalisierung, Groß-/Kleinschreibung vereinheitlichen, Trimmen/Whitespace-Handling, Sonderzeichenbereinigung, Dublettenprüfung, regelbasierte Matching-Logik, Schlüsselbildung (Composite Keys), Fuzzy Matching, Text-Ähnlichkeitsvergleich, Candidate Generation, Scoring/Confidence, KI-gestützte Verifikation, Azure AI/ML Modell-Inferenz, Ergebnisaufbereitung, Rückverfolgbarkeit (RowId/Traceability), POC/Prototyping
SUND GmbH + Co. KG [KI] Basisschulung KI
Ziel der Key-User-Schulung bei der SUND Group war es, ausgewählte Mitarbeitende zu befähigen, KI als „Botschafter und Multiplikator“ in die Fachbereiche zu tragen, Unsicherheiten im Umgang mit generativer KI abzubauen und gleichzeitig strukturiert KI-Potenziale in den Abteilungen zu identifizieren, zu bewerten und in konkrete, wertstiftende Use Cases zu überführen. Im Mittelpunkt stand dabei ein praxisnaher Fahrplan, der die Key User als erste Ansprechpartner positioniert und ihre Rolle als Potenzial-Scout, Business-Value-Treiber und Use-Case-Entwickler klar verankert.
Ich habe die Schulung inhaltlich konzipiert und durchgeführt und dafür einen roten Faden aus Grundlagenverständnis, Governance und unmittelbarer Anwendung aufgebaut. Dazu habe ich die Teilnehmenden entlang der relevanten GenAI-Grundlagen und Grenzen (Einsatzbereiche vs. Nicht-Eignung) in ein belastbares Arbeitsmodell geführt und anschließend Prompt Engineering systematisch als Kernkompetenz verankert – inklusive Prompt-Bausteinen, Zero-/Few-Shot-Ansätzen und Chain-of-Thought als Methode für nachvollziehbare Ergebnisse. Ergänzend habe ich den sicheren und regelkonformen Einsatz im Unternehmenskontext konkretisiert, insbesondere durch die Einordnung der genutzten Modelle und die klare Abgrenzung, welche Daten in einem Unternehmens-GPT zulässig sind und welche zu anonymisieren bzw. zu vermeiden sind. Auf dieser Basis habe ich die Tool-Nutzung (z. B. Websuche, Deep Research, Reasoning, Bilderstellung) als „Erweiterung der LLM-Funktionen“ vermittelt, damit die Key User Anfragen sauber klassifizieren und zielgerichtet mit dem passenden Werkzeug lösen können. Ein weiterer Schwerpunkt lag auf Custom GPTs und System-Prompts, um wiederverwendbare, qualitätsgesicherte Assistenten für wiederkehrende Aufgaben im Arbeitsalltag aufzusetzen.
Die Umsetzung erfolgte konsequent hands-on: An praxisorientierten Übungen haben die Teilnehmenden die Prompt-Qualität iterativ verbessert und in realitätsnahen Aufgabenstellungen messbare Outputs erzeugt (z. B. strukturierte Auswertungen, Tabellen- und Diagramm-Erstellung sowie Extraktionsaufgaben aus unstrukturierten Eingaben). Als Abschluss habe ich einen Praxis-Workshop moderiert, in dem die Gruppen nach einem 4-stufigen Vorgehen ihren ersten KI-Assistenten als Prototyp entwickelt haben – inklusive Dokumentation von Problem/Ziel, Vorgehen, Ergebnis und Nutzen sowie einem validierten „Master-Prompt“ als direkt einsetzbares Asset.
Als Ergebnis steht der SUND Group ein vollständiges Enablement-Paket zur Verfügung: eine strukturierte Schulungsunterlage, ein konsistentes Vorgehensmodell zur Use-Case-Entwicklung und Prompt-Validierung sowie konkrete, im Training erarbeitete Master-Prompts und Templates, die in den Fachbereichen sofort weiterverwendet werden können. Zusätzlich habe ich die gesamte Schulung als Video aufgezeichnet, um sie als dauerhaftes Schulungsvideo für den Kunden bereitzustellen, und ein Handout für die Nachbereitung erstellt, das die wichtigsten Konzepte, Best Practices und Leitplanken kompakt zusammenführt.
Der Kundennutzen liegt in einer skalierbaren KI-Befähigung direkt in den Fachbereichen: Die Key User können KI sicher, zielorientiert und wertbeitragsorientiert in Prozesse übersetzen, Wiederholaufgaben mit hochwertigen Prompts standardisieren und als Multiplikatoren die Umsetzungsgeschwindigkeit im Unternehmen nachhaltig erhöhen.
Eingesetzte Technologien: Prompt Engineering, Zero-Shot Prompting, Few-Shot Prompting, Chain-of-Thought Reasoning, System Prompt Design, Custom GPT Erstellung, Use-Case-Identifikation, Use-Case-Bewertung, Use-Case-Priorisierung, Prototyping, Prompt-Iterationen und Qualitätsvalidierung, Governance und Responsible AI, Datenschutz und Datenklassifizierung, Tool-gestützte Recherche (Websuche/Deep Research), Wissensaufbereitung und Dokumentation, Schulungsdesign, Videoaufzeichnung, Handout-Erstellung
Zukunftssicherung und Optimierung eines kundenspezifischen Softwarepakets durch Clean Code-Ansätze
Projektziel: Zukunftssicherung und Wartungsfreundlichkeit eines komplexen, kundeneigenen Softwarepakets
Herausforderung: Hoher Anpassungsaufwand, komplexe Codebasis, Bedarf an externer Unterstützung im Ticket- und Change-Request-Handling
Umsetzung eines Änderungs- und Problemmanagementprozessen zur Entlastung der Entwicklungsabteilung
Maßnahmen, die dabei umgesetzt wurden, sind:
- Refaktorisierung bestehender Module nach Clean Code-Prinzipien
- Anpassung an moderne SAP-Entwicklungsstandards und Best Practices
- Durchführung systematischer Code-Reviews und Verbesserung der Modularität und Lesbarkeit
- Implementierung umfangreicher Tests zur Sicherstellung der Anwendungsstabilität
Das Projekt führte zu einer signifikanten Qualitätssteigerung der bestehenden Codebasis. Durch gezielte Refaktorisierung und die Anwendung moderner Entwicklungsstandards entstand eine robuste, fehlerarme und erweiterbare Softwarearchitektur. Insgesamt konnte die Wartbarkeit der Anwendung deutlich verbessert und die langfristige Zukunftsfähigkeit sichergestellt werden.
Eingesetzte Technologien: ABAP, ABAP OO, SAP RAP, Eclipse mit ADT, ABAP Cleaner, Teamscale, Azure Devops
Anpassungen Flexibler Bestellfreigabeworkflow in SAP S/4HANA
Ziel des Projekts war die funktionale und prozessuale Optimierung eines bestehenden Bestellfreigabeworkflows, um den spezifischen Anforderungen des Fachbereichs gerecht zu werden. Im Fokus stand dabei die Verbesserung der Transparenz und Effizienz innerhalb des Freigabeprozesses, insbesondere durch die gezielte Bereitstellung relevanter Informationen und die Automatisierung wiederkehrender Abläufe.
Im Rahmen der Umsetzung habe ich die Inbox-Detailansicht mithilfe des Key-User-Tools erweitert, sodass dem Freigabeverantwortlichen sämtliche entscheidungsrelevanten Daten direkt und übersichtlich zur Verfügung stehen. Ergänzend dazu entwickelte ich individuelle E-Mail-Templates, die in den automatisierten Benachrichtigungsprozess eingebunden wurden und situationsspezifische Inhalte klar strukturiert vermitteln. Zur weiteren Prozessentlastung implementierte ich eine automatisierte Logik, die leere Bestellungen systemseitig identifiziert und die zugehörigen Workitems selbstständig entfernt, um unnötige Systemlast zu vermeiden. Alle Änderungen wurden durch eine technische Dokumentation präzise festgehalten – inklusive detaillierter Konfigurationsübersichten und Schnittstellenbeschreibungen.
Durch die Anpassung des Freigabeworkflows konnte der Freigabeprozess signifikant beschleunigt und die Nutzerfreundlichkeit spürbar erhöht werden. Der Fachbereich profitiert nun von einer verbesserten Informationslage, einer höheren Prozessstabilität und einem geringeren manuellen Aufwand.
Eingesetzte Technologien: ABAP, Fiori,
PoC KI-Automatisierung des Access-Request-Prozesses mittels generativem Chatbot
Der Kunde wollte den internen IT-Support entlasten, indem der Access-Request-Prozess (ARP) automatisiert wird. Dazu wurde ein Proof of Concept aufgebaut, in dem sich neue User-Anfragen über einen KI-basierten Chatbot abwickeln, der über n8n-Workflows, Google-APIs und WebApps gesteuert wird und anschließend automatisch ein JIRA-Ticket erstellt.
Im Rahmen des PoC habe ich einen generativen Chatbot entworfen, der Anwender Schritt für Schritt durch den ARP-Prozess führt. Dabei wurden dynamisch Formularfelder aus dem JIRA-Create-Issue-Formular integriert, um alle notwendigen Informationen (z. B. Benutzerrolle, Abteilung, benötigte Systeme) direkt im Chat abzufragen.
Die Orchestrierung der Workflows erfolgte über n8n, wo bei Abschluss des Chat-Gesprächs automatisch ein Workflow gestartet wurde, der die Daten validiert und via JIRA REST-API ein neues Ticket anlegt.
Für die Generierung von Antworten im Chatbot wurde eine generative KI-Komponente eingebunden (z. B. OpenAI GPT via API), die kontextsensitives Fragen und Klassifizieren von Anfragen ermöglichte.
Der gesamte Ablauf wurde in einer Docker-basierten Testumgebung simuliert, sodass unterschiedliche Szenarien (z. B. fehlende Angaben, falsche Rollen) automatisch erkannt und im Chat entsprechend nachgefragt werden konnten.
Meine Rolle:
Implementierung des generativen Chatbots mit KI-Integration
Konfiguration von n8n-Workflows zur Automatisierung des ARP
Anbindung der JIRA REST-API zur automatischen Ticket-Erstellung
Eingesetzte Technologien: n8n, OpenAI GPT (Generative KI), Google APIs, WebApps (Node.js / React), JIRA REST-API, OAuth 2.0, Docker, Python (Validierungsskripte), JavaScript, Voicecoding via Superwhisper, LLM-optimierte CI/CD-Pipelines, Cursor Rules als Guardrail für LLMs
Projekt zur Nutzung von KI im Nachhaltigkeitsunternehmen
Im Zentrum des Projekts stand die Entwicklung einer unternehmensweiten KI-Strategie im Nachhaltigkeitskontext für einen international agierenden Klienten mit einem Jahresumsatz von 90 Milliarden US-Dollar. Ziel war es, konkrete Potenziale für den Einsatz von Künstlicher Intelligenz im Nachhaltigkeitssektor zu identifizieren, Synergien systematisch zu heben und daraus strategische Handlungsoptionen für das Top-Management abzuleiten.
In meiner Rolle übernahm ich die Leitung des Gesamtprojekts inklusive der strategischen Planung und operativen Steuerung. Ich entwickelte einen strukturierten Projektplan, der Marktanalysen, Use-Case-Scouting, Experteninterviews und die Bewertung relevanter KI-Lösungen umfasste. Parallel konzipierte ich einen maßgeschneiderten Aktionsplan, der sowohl wirtschaftliche als auch ökologische Zielsetzungen des Klienten adressierte. Zur effizienten Umsetzung führte ich ein zehnköpfiges Team, das ich in drei funktionale Einheiten gliederte – für Marktanalysen, Use-Case-Entwicklung sowie Experteninterviews. Durch ein agiles Vorgehensmodell mit wöchentlichen Abstimmungen und iterativen Feedbackschleifen stellte ich eine hohe Ergebnisqualität sowie eine enge Verzahnung der einzelnen Arbeitspakete sicher.
Die Kommunikation mit dem Klienten gestaltete ich über zweiwöchentliche Termine mit dem Director Consultancy und weiteren Stakeholdern auf Entscheider-Ebene aktiv mit. Dabei präsentierte ich regelmäßig Zwischenergebnisse, diskutierte strategische Optionen und schärfte die Handlungsempfehlungen auf Basis des Kundenfeedbacks weiter aus.
Das Ergebnis war ein belastbares Set an strategischen Empfehlungen inklusive konkreter Umsetzungsschritte, die sowohl technologisch als auch organisatorisch anschlussfähig waren. Der Klient erhielt damit eine fundierte Entscheidungsgrundlage, um gezielt in KI-gestützte Nachhaltigkeitslösungen zu investieren und sich langfristig als Innovationstreiber im Markt zu positionieren.
Eingesetzte Technologien: Marktanalyse, Experteninterviews, KI-Lösungen, Teamführung, Agile Steuerung, Use-Case-Definition, Stakeholder Management