← Zurück

Enterprise Automation & KI

Profilbild

Eric Chittka

(Master of Science)

Persönliche Informationen

Studium
Wirtschaftsinformatik (Universität Mannheim)
Sprachkenntnisse
Deutsch Muttersprache
Englisch Verhandlungssicher
Niederländisch Fließend
Französisch Gut

Know-How

Schwerpunkte
Generative-AI & Automation Lead – ich verbinde Strategie, Architektur und Delivery. Schwerpunkt: Enterprise-taugliche GenAI (RAG, Agenten, Copilot/Graph, Azure OpenAI) inkl. Governance & Compliance. Ich überführe Potentiale in produktive Lösungen: vom Aufbruchsevent und Use-Case-Portfolio bis zur Implementierung (PoC → Pilot → Betrieb) – messbar an geringerer Bearbeitungszeit, höherer Qualität und sicherem Betrieb.
Module und Programmiersprachen
GenAI Delivery: RAG (Azure AI Search, Embeddings, Re-Ranking), Agentic Workflows (n8n, Functions/Tools), Prompt/System-Design, Evaluation. LLM-Ops & Integration: Azure OpenAI, Microsoft Graph/SSO, SharePoint/Confluence/JIRA, Webhooks/APIs, Docker/Kubernetes, CI/CD. Copilot & M365: Copilot Skills, Teams/Outlook-Integration, Governance & Datenzugriffe. Daten & Automatisierung: Python, Flask, SQL, ETL, Process Automation (n8n), Monitoring.
Technologien
OpenAI, n8n, Azure AI Services, Google Cloud AI, Azure Vision, BERT, LLM, RAG, RAG-Techniken (Reranking Modelle, Multimodal Search), LangChain, Vektor-Datenbanken, PyTorch, TensorFlow, Scikit-Learn, MLflow, SentenceTransformers, HuggingFace, Reinforcement Learning, Deep Learning, NLP, Long-Short-Term Memory, SQL, MySQL, SAP HANA, ETL Tools, Pentaho, Data Mining, Celonis, Python, Docker, Kubernetes, CI Pipelines, GitLab, GitHub, BASH, SAPUI5, SAP Fiori, Projektmanagement, Jira, Disco Tool, Process Automation

Ausgewählte Projekte

11/2020 - 09/2022
Softwareentwicklung
Unterstützung und Weiterentwicklung von Support- und Self-Service-Lösungen
Unterstützung und Weiterentwicklung von Support- und Self-Service-Lösungen In diesem Projekt habe ich die IT und den technischen Support in mehreren Schlüsselbereichen unterstützt, mit einem klaren Fokus auf die Analyse und Lösung komplexer Kundenprobleme durch Datenanalysen und automatisierte Prozesse. Zu meinen Aufgaben gehörte die Identifizierung und Implementierung von Automatisierungslösungen zur Effizienzsteigerung im Support. Mithilfe von Scripting-Techniken konnten wiederkehrende Supportanfragen automatisiert und die Reaktionszeiten erheblich reduziert werden. Ein weiterer Schwerpunkt lag auf der Weiterentwicklung von Self-Service-Angeboten. Durch Prozessoptimierungen und die Entwicklung neuer Self-Service-Funktionen erhielten Kunden die Möglichkeit, häufig auftretende Probleme eigenständig und effizient zu lösen. Dies führte zu einer signifikanten Entlastung des Support-Teams und einer verbesserten Kundenzufriedenheit. Außerdem war ich für die Durchführung von Kundenterminen zuständig, bei denen ich sowohl die Erstanalyse technischer Probleme als auch die Implementierung maßgeschneiderter Lösungen durchführte. Meine fundierten SQL-Kenntnisse halfen mir dabei, Datenanalysen durchzuführen und gezielte Scripting-Lösungen zu entwickeln, um spezifische Anforderungen der Kunden zu erfüllen.
Eingesetzte Technologien: SQL, Scripting, Data Analytics, IT-Support, Zendesk
10/2022 - 07/2023
Industrie und Fertigung
Datenmigration und Optimierung von HR-Daten in SAP-Systemen
Ziel dieses Projekts war die Migration und Optimierung von HR-Daten zwischen verschiedenen SAP-Systemen, um eine effiziente und fehlerfreie Datenübertragung zu gewährleisten. Meine Hauptaufgabe bestand darin, mithilfe von Pentaho Data Integration bestehende ETL-Prozesse weiterzuentwickeln und zu optimieren. Dies umfasste die Transformation, Bereinigung und Validierung großer Datenmengen, um eine konsistente Datenbasis zu schaffen. Ein besonderer Fokus lag auf der Standardisierung und Deduplizierung der Daten. Diese Maßnahmen verbesserten die Datenqualität erheblich und erhöhten die Effizienz der Transformation. Die erstellte Datenbasis diente nicht nur operativen Zwecken, sondern bildete auch die Grundlage für weiterführende Analytics-Anwendungen im HR-Bereich, einschließlich Dashboard-Entwicklung für Managementberichte.
Eingesetzte Technologien: Pentaho Data Integration, SAP HCM, ETL-Prozesse, Datenvalidierung, Datenbereinigung, Deduplizierung, Datenmigration
10/2022 - 07/2023
Industrie und Fertigung
Machine Learning zur HR-Datenanalyse und -Prognose
In diesem Projekt habe ich zuvor migrierte HR-Daten genutzt, um Machine-Learning-Modelle zu entwickeln, die strategische Einblicke und Prognosen ermöglichten. Mithilfe von Python und Bibliotheken wie Scikit-learn und Pandas wurden Modelle zur Analyse von Mitarbeiterfluktuation, Arbeitszeitmustern und Abwesenheiten implementiert. Die Vorhersagen unterstützten den Kunden bei der Planung von Personalressourcen und der Optimierung von Arbeitsabläufen. Ein Schwerpunkt war die Integration der Datenqualitätssicherungen aus der Migration in die ML-Modelle. So konnten robuste und vertrauenswürdige Ergebnisse erzielt werden. Darüber hinaus wurden die Erkenntnisse in interaktiven Dashboards mit Power BI visualisiert, um den Stakeholdern einen nutzerfreundlichen Zugang zu den Ergebnissen zu bieten.
Eingesetzte Technologien: Python, Scikit-learn, Pandas, Power BI, Machine Learning, Datenvisualisierung, HR-Analytics
06/2022 - 10/2022
Logisitk/ Automobil
Open-Objective Data Mining von Fahrzeugdaten
Ziel dieses Projekts war es, reale Mobilitätsdaten eines Mobility-on-Demand-Startups zu analysieren, um die Machbarkeit innovativer Projekte wie Mobile e-Hub (Drohnen nutzen Fahrten von Autos für Paketlieferungen) und HitchHikeBox (Lieferungen durch Mitnahme von Paketen auf bestehenden Routen) zu untersuchen. Das Projekt umfasste die Entwicklung einer Datenpipeline, die Simulation von Fahrten und die Visualisierung der Ergebnisse in einem interaktiven Dashboard. Im Rahmen des Projekts war ich maßgeblich an folgenden Aufgaben beteiligt: Datenaufbereitung und -bereinigung: Entwicklung einer robusten Datenpipeline, die Daten aus verschiedenen Quellen (u. a. Excel-Dateien) aggregiert, bereinigt und in ein einheitliches Format überführt. Implementierung von Algorithmen zur Entfernung von Duplikaten und Korrektur fehlerhafter Werte. Transformation von Daten in eine strukturierte und analysierbare Form unter Berücksichtigung von Qualitätsstandards. Fahrtsimulation Simulation neuer Fahrten basierend auf historischen Daten, um verschiedene Szenarien zu analysieren. Entwicklung probabilistischer Modelle zur Generierung realistischer Fahrtdaten. Nutzung der Simulationsergebnisse zur Optimierung von Fahrtzeiten und Ressourcen. Machbarkeitsanalyse und Modellierung: Erstellung eines probabilistischen Graphmodells zur Analyse von Fahrtzeiten und Wartezeiten zwischen definierten Haltepunkten. Durchführung einer Feasibility-Analyse, um die erforderliche Anzahl an Fahrten und Fahrern für verschiedene Szenarien zu ermitteln. Einsatz von Regressionsmodellen zur Vorhersage von Systemanforderungen basierend auf simulierten Daten. Interaktives Dashboard: Entwicklung eines Dashboards mit Dash und Plotly, das Visualisierungen und interaktive Analysen der Ergebnisse ermöglicht. Darstellung der Fahrtsimulation, der Machbarkeitsanalyse und der häufig genutzten Routen in einer benutzerfreundlichen Oberfläche. Integration von Simulationsergebnissen zur Bewertung der Systemeffizienz und Identifikation von Hotspots. Drohnenintegration: Analyse von Szenarien, in denen Drohnen Fahrten ergänzen könnten, um die Effizienz zu steigern. Simulation von Drohnenflügen für kurze Distanzen und Berechnung potenzieller Einsparungen bei Fahrzeiten.
Eingesetzte Technologien: Python (Pandas, NumPy, Matplotlib, Plotly, Dash), Netzwerkx, Scipy, Geopandas, Machine Learning, Regressionsmodelle, Datenbereinigung, Datenpipeline-Entwicklung, Fahrtsimulation, Visualisierungstools
08/2023 - 01/2024
Industrie und Fertigung
Entwicklung eines Self-Service-Dashboards zur HR-Datenanalyse
Das Ziel des Projekts war die Bereitstellung eines intuitiven Self-Service-Dashboards, das den HR-Abteilungen ermöglicht, eigenständig und effizient auf wichtige Daten zuzugreifen und fundierte Entscheidungen zu treffen. Die Lösung sollte Anwendern die Möglichkeit geben, durch erweiterte Filter- und Analysemöglichkeiten tiefere Einblicke in die HR-Daten zu gewinnen und gleichzeitig den Aufwand für manuelle Datenaufbereitung und Analyse zu reduzieren. In meiner Rolle war ich für die Konzeption und Entwicklung des Dashboards in Mendix verantwortlich. Dabei habe ich auf einer bereits optimierten Datenbasis aufgebaut, die sicherstellte, dass die zugrunde liegenden Daten zuverlässig und aktuell sind. Die Architektur des Dashboards wurde so gestaltet, dass Nutzer ohne technische Vorkenntnisse eine schnelle und umfassende Datenanalyse durchführen konnten. Durch die Verwendung von Mendix als Low-Code-Plattform war es möglich, die Entwicklung zeit- und kosteneffizient durchzuführen und dennoch ein hohes Maß an Flexibilität zu gewährleisten. Die Lösung bot erweiterte Self-Service-Funktionalitäten, darunter interaktive Filter und benutzerdefinierte Ansichten, die es den Anwendern erlaubten, gezielte Auswertungen nach verschiedenen Kriterien wie Abteilungen, Standorten und Zeiträumen durchzuführen. Eine klare und aufgeräumte Benutzeroberfläche sorgte dafür, dass Anwender intuitiv durch das Dashboard navigieren und schnell auf relevante Daten zugreifen konnten. Zusätzlich wurden spezifische KPI-Dashboards und Visualisierungen entwickelt, die es den Entscheidern erleichterten, den Zustand und die Entwicklung der Personalressourcen im Unternehmen zu überwachen und strategische Entscheidungen zu treffen. Ein weiterer Schwerpunkt lag auf der Integration eines Mechanismus zur Sicherstellung der Datenqualität. Dieser überwachte die Konsistenz und Aktualität der Daten in Echtzeit und warnte die Nutzer bei möglichen Inkonsistenzen. Damit wurde gewährleistet, dass alle Analysen und Berichte auf verlässlichen Daten basieren.
Eingesetzte Technologien: Mendix, Low-Code-Entwicklung, HR-Datenanalyse, Self-Service-Dashboard, Interaktive Filter, KPI-Visualisierung, Datenqualität
02/2024 - 07/2024
Bildung
Business Process Simulation durch KI-Reinforcement Learning
Im Rahmen dieses Projekts wurde eine Lösung entwickelt, um die zunehmende Komplexität im Business Process Management (BPM) durch den Einsatz von Künstlicher Intelligenz (KI) und Reinforcement Learning (RL) anzugehen. Das Hauptziel bestand darin, mithilfe von RL und Long Short-Term Memory (LSTM) Netzwerken die Simulation von Geschäftsprozessen dynamischer und präziser zu gestalten. Der Kunde stand vor der Herausforderung, dass traditionelle Simulationstechniken die adaptiven und sich stetig ändernden Aspekte moderner Geschäftsprozesse nicht ausreichend abbilden konnten. Meine Aufgaben umfassten die Entwicklung eines KI-gestützten RL-Modells, das auf Event-Logs basierte, um reale Geschäftsprozesse möglichst realitätsnah zu simulieren. Zunächst wurden die Event-Logs mit Python standardisiert und für die RL-Modellierung vorbereitet. Verschiedene RL-Modelle wurden konzipiert und implementiert, wobei LSTM-Netzwerke zur Vorhersage von Aktivitäten und Zeitabläufen integriert wurden. Diese KI-Komponenten ermöglichten eine präzisere Prognose und eine adaptivere Steuerung von Prozessen. Zur Validierung der Ergebnisse habe ich die simulierten Prozesse mit den Originaldaten verglichen und Optimierungspotenziale identifiziert. Python, TensorFlow, und Keras kamen zum Einsatz, um die Modelle effizient zu entwickeln und zu trainieren. Das Projekt zeigte insbesondere die Herausforderungen bei der Vorhersage von Ressourcen und Aktivitäten auf und betonte die Notwendigkeit einer angepassten Belohnungsstruktur für die RL-Modelle, um die Genauigkeit und Effizienz weiter zu steigern.
Eingesetzte Technologien: Reinforcement Learning (RL), LSTM Netzwerke, BPM, Event Logs, Python, Machine Learning, KI
09/2024 - 09/2024
Umweltschutz
Integration von Microsoft Teams und MediaWiki für verbesserten Wissenszugriff
Das Ziel des Projekts war die nahtlose Integration der Microsoft Teams-Plattform mit MediaWiki, um Nutzern den direkten Zugriff auf die unternehmensinterne Wissensdatenbank zu ermöglichen. Die Lösung ermöglichte es Anwendern, direkt aus Teams heraus Inhalte der MediaWiki-Wissensdatenbank einzusehen und zu bearbeiten, was die Effizienz und die Qualität der teamübergreifenden Zusammenarbeit erheblich steigerte. Durch den Einsatz Künstlicher Intelligenz wurden relevante Inhalte in Echtzeit priorisiert und den Nutzern basierend auf ihrem Anfragen- und Arbeitskontext automatisch vorgeschlagen, wodurch der Zugriff auf unternehmensinterne Wissensquellen erleichtert und der Informationsfluss optimiert wurde. In meiner Rolle war ich verantwortlich für die sichere Integration und Kommunikation zwischen Microsoft Teams und MediaWiki. Ein besonderer Fokus lag auf der Implementierung von SSL-Zertifikaten zur Sicherstellung einer verschlüsselten HTTPS-Verbindung sowie der DNS-Konfiguration, um eine stabile und sichere Verbindung zwischen den Systemen zu gewährleisten. Diese Maßnahmen stellten sicher, dass sensible Daten durchgehend geschützt und zuverlässig übertragen wurden. Ein wesentlicher Bestandteil des Projekts war die Einbindung eines Large Language Models (LLM), das eingehende Anfragen analysierte und automatisch bestimmte, ob ein neuer Beitrag in MediaWiki erstellt werden sollte. Bei Bedarf wurde das System in die Lage versetzt, mithilfe von OpenAI oder einem lokal gehosteten LLM automatisch neue Beiträge zu generieren, wodurch die Effizienz und Aktualität der Wissensdatenbank kontinuierlich optimiert wurde. Durch diese Automatisierung konnte das Unternehmen sicherstellen, dass relevante Informationen zeitnah verfügbar sind und der Aufwand für die Pflege der Wissensbasis reduziert wurde.
Eingesetzte Technologien: Microsoft Teams, MediaWiki, Large Language Models (LLM), OpenAI, SSL-Zertifikate, DNS-Konfiguration, HTTPS, Künstliche Intelligenz
09/2024 - 10/2024
Medizin
Integration von Microsoft Teams und Confluence für automatisierte, datenschutzkonforme Kommunikation
Hier die Projektbeschreibung für das nächste Projekt: Kunde: [Kundenname] Projekt: Integration von Microsoft Teams und Confluence für automatisierte, datenschutzkonforme Kommunikation Das Ziel dieses Projekts war die Entwicklung einer nahtlosen Integration zwischen Microsoft Teams und Confluence, um eine effiziente, automatisierte und datenschutzkonforme Kommunikation zwischen beiden Plattformen zu ermöglichen. Die Lösung sollte es den Nutzern erlauben, direkt in Microsoft Teams auf relevante Inhalte aus Confluence zuzugreifen, basierend auf ihrer Aktivität, individuellen Präferenzen und Zugriffsebenen. Durch die Minimierung der Notwendigkeit, zwischen den Anwendungen zu wechseln, sollte die Produktivität und die teamübergreifende Zusammenarbeit erheblich gesteigert werden. Im Rahmen des Projekts war ich für die Implementierung einer KI-basierten Priorisierung zuständig, die automatisch relevante Inhalte identifiziert und den Nutzern in Microsoft Teams vorschlägt. Diese Priorisierung wurde so konfiguriert, dass sie dynamisch auf die jeweilige Aktivität und die Berechtigungen der Nutzer reagiert, sodass nur für sie zugängliche und relevante Inhalte angezeigt werden. Diese Funktion erleichterte den Nutzern den schnellen Zugriff auf wichtige Informationen und unterstützte eine fokussierte Arbeitsweise. Eine der wesentlichen Herausforderungen bestand in der Entwicklung einer datenschutzkonformen und reibungslosen Schnittstelle, die sowohl die Echtzeit-Datenübertragung zwischen Teams und Confluence als auch die bestehenden Sicherheits- und Zugriffskontrollen von Confluence berücksichtigt. Da viele Inhalte in Confluence sensible und teilweise personenbezogene Daten enthalten, war die Einhaltung strenger Datenschutzmaßnahmen unabdingbar. Hierbei wurden spezifische Zugriffskontrollen implementiert, um sicherzustellen, dass nur autorisierte Benutzer Zugriff auf vertrauliche Informationen haben. Die Lösung wurde zusätzlich durch Funktionen zur Sicherheitsüberwachung und Protokollierung ergänzt, um die Transparenz der Datenflüsse und die Einhaltung der Datenschutzrichtlinien zu gewährleisten. Dies stellte sicher, dass alle datenschutzrechtlichen Anforderungen erfüllt wurden, während gleichzeitig eine reibungslose, benutzerfreundliche Interaktion zwischen Microsoft Teams und Confluence ermöglicht wurde.
Eingesetzte Technologien: Flask, Microsoft Workflows & Microsoft Copilot, Confluence, REST API, Python, OAuth 2.0, SSL-Zertifikate, KI-basierte Priorisierung, Datenschutzkonforme Schnittstelle, Echtzeit-Datenübertragung, Zugriffskontrollen
09/2024 - 09/2024
Intralogistik
Entwicklung einer maßgeschneiderten GPT-Lösung als interne Wissensquelle
Ziel des Projekts war die Entwicklung einer individuellen GPT-basierten Lösung, die als interne Wissensquelle für Mitarbeiter dient und gezielt API-Anfragen zum Payroll-System unterstützt. Ein zentrales Anliegen des Kunden war, dass das GPT-Modell ausschließlich auf bereitgestellte Informationen aus verschiedenen Dokumenten wie PDFs, PowerPoint-Präsentationen und Excel-Dateien zurückgreift und bei fehlenden Informationen um zusätzlichen Kontext bittet, anstatt Annahmen zu treffen. Im Rahmen dieses Projekts war ich für die Konfiguration und Implementierung des maßgeschneiderten GPT-Modells verantwortlich. Dabei entwickelte ich spezifische Anweisungen und Verhaltensregeln, um sicherzustellen, dass das Modell die Anforderungen exakt erfüllt und kontextgerechte Antworten liefert. Da einige der genutzten Dokumente in nicht-textbasierten Formaten vorlagen, setzte ich OCR-Technologien ein, um Informationen aus Bildern und gescannten Dokumenten in maschinenlesbaren Text zu konvertieren. Dies ermöglichte eine nahtlose Integration von Informationen aus unterschiedlichsten Quellen. Ein zentraler Bestandteil meiner Arbeit war die Integration der durch OCR gewonnenen Daten sowie der strukturierten JSON-Daten aus PPTX- und Excel-Dateien in das Modell. Ich stellte sicher, dass das GPT-Modell über alle relevanten Informationen verfügte und firmenspezifische Begriffe korrekt und konsistent verwendete. Zusätzlich implementierte ich mehrsprachige Unterstützung, sodass das System in der Lage ist, Anfragen in Deutsch, Englisch und Polnisch zu beantworten. Ein weiterer Schwerpunkt lag auf der Erstellung konkreter API-Beispiele und Schritt-für-Schritt-Anleitungen, die das Modell basierend auf den vorhandenen Daten generieren konnte. Mithilfe eines Retrieval-Systems konnte das GPT-Modell relevante Informationen effizient aus der Wissensbasis extrahieren und kontextbezogene Antworten geben. Ein besonderes Augenmerk legte ich auf die Einhaltung von Datenschutzrichtlinien, sodass das Modell keine zusätzlichen Informationen generierte, die nicht in den bereitgestellten Dokumenten enthalten sind. Diese Maßnahmen stellten sicher, dass das GPT-Modell sowohl präzise als auch datenschutzkonform arbeitet.
Eingesetzte Technologien: Custom GPT-Modell, OCR-Technologie, JSON-Datenintegration, mehrsprachige Unterstützung, Retrieval-System, Datenschutz
10/2024 - 10/2024
Wohnungsunternehmen
Effizienzsteigerung im Kundenservice durch automatisierte Transkription und FAQ-Generierung
Das Ziel des Projekts war die Steigerung der Effizienz im Kundenservice durch die Implementierung eines Systems zur automatisierten Transkription von Telefonaufnahmen und die Generierung einer FAQ-Datenbank. Die Lösung sollte in der Lage sein, große Mengen an Kundenanfragen präzise zu verarbeiten und eine Wissensbasis bereitzustellen, um den Zugriff auf relevante Informationen zu erleichtern. Ich war für die Entwicklung und Implementierung einer leistungsfähigen Transkriptionspipeline verantwortlich, die mithilfe von Python und moderner Spracherkennungstechnologie Audioaufnahmen von Kundenanfragen in Text umwandelte. Aufgrund der potenziell sensiblen, personenbezogenen Inhalte der Anfragen wurden umfassende Datenschutzmaßnahmen implementiert, um die Vertraulichkeit der Daten zu gewährleisten. In der zweiten Projektphase setzte ich ein System auf Basis eines Large Language Models (LLM) ein, das Frage-Antwort-Paare aus den Transkripten extrahierte und kategorisierte. Die daraus resultierende FAQ-Datenbank wurde so gestaltet, dass ausschließlich autorisierte Benutzer Zugriff auf sensible Informationen hatten. Durch die Integration einer Middleware-Lösung wurde eine Echtzeit-Kommunikation zwischen den einzelnen Systemkomponenten ermöglicht, während ein striktes Berechtigungskonzept die Zugangsrechte zu personenbezogenen Daten regelte. Abschließend entwickelte ich einen Telefonassistenten, der auf die FAQ-Datenbank zugreifen konnte, um Kundenanfragen schnell und unter Einhaltung der Datenschutzvorgaben zu beantworten.
Eingesetzte Technologien: Python, Spracherkennung, Large Language Models, FAQ-Datenbank, Middleware, Berechtigungskonzept, Datenschutz
11/2024 - 11/2024
Umweltschutz
Einführung in die Nutzung von KI und Implementierung eines Retrieval-Augmented Generation (RAG) Systems
Rolle: PMO und Umsetzung Das Ziel des Workshops war es, die Entwicklergruppe des Kunden in die Grundlagen und den praxisorientierten Einsatz von Künstlicher Intelligenz (KI) und Retrieval-Augmented Generation (RAG) Systemen einzuführen. Besondere Priorität hatte dabei die Implementierung eines lokalen Large Language Models (LLM), um den Datenschutzanforderungen des Unternehmens gerecht zu werden und ein skalierbares System für die unternehmensinterne Nutzung bereitzustellen. Zu Beginn des Workshops erklärte ich den Teilnehmern das RAG-Konzept sowie die Vorteile der Kombination aus einer Wissensdatenbank und einer generativen KI für die Generierung von präzisen, kontextbasierten Antworten. Im Fokus stand die lokale Einrichtung von LLMs, wodurch die volle Kontrolle über die Daten gewährleistet und mögliche Datenschutzrisiken minimiert wurden. Die Teilnehmer setzten dieses Modell in einer lokalen Umgebung auf und lernten die Integration einer Vektordatenbank, die als Retrieval-Mechanismus zur effizienten Verwaltung der Wissensbasis diente. Im praktischen Teil des Workshops bauten die Teilnehmer ein eigenes RAG-System auf. Hierbei implementierten sie die Retrieval-Komponente, um mithilfe der Vektordatenbank relevante Dokumente schnell zu identifizieren. Anschließend wurde die Generative-Komponente eingerichtet, um Antworten auf Basis der abgerufenen Informationen zu erstellen. Die Kommunikation zwischen den Modulen erfolgte über eine Flask-Middleware und API-Anbindung, was eine flexible und leistungsfähige Architektur ermöglichte. Schließlich entwickelte die Gruppe eine benutzerfreundliche Oberfläche, die das RAG-System für den Einsatz im Unternehmen vorbereitete. Diese beinhaltete eine Suchleiste, die Anzeige der Ergebnisse sowie ein Antwortfenster für die Ausgabe der generierten Antworten.
Eingesetzte Technologien: Large Language Models, Retrieval-Augmented Generation (RAG), Vektordatenbank, Flask, API, Benutzeroberfläche
12/2024 - 12/2024
Energie
S/4HANA Vorstandsschulung: Organisationsebenen, Stammdaten und Prozesse
Stadtwerke Bielefeld – S/4HANA Vorstandsschulung: Organisationsebenen, Stammdaten und Prozesse Ziel des Projekts war es, den Vorstand eines regionalen Energieversorgers über die grundlegenden Organisationsstrukturen und Stammdaten in SAP S/4HANA zu schulen und ein Verständnis für die Interaktion der wichtigsten Geschäftsprozesse zu schaffen. Der Kunde wollte sich einen Überblick darüber verschaffen, wie SAP S/4HANA eine einheitliche Datenbasis bietet und End-to-End-Prozesse unterstützt, um eine strategische Entscheidung für die zukünftige Systemlandschaft treffen zu können. Im Rahmen der Schulung habe ich die Themengebiete Organisationsebenen, Stammdaten und deren Rolle in zentralen Geschäftsprozessen umfassend dargestellt. Der Fokus lag auf der Erklärung der grundlegenden Organisationselemente wie Buchungskreise, Werke, Kostenrechnungskreise und Profitcenter sowie deren Bedeutung für die finanzielle und logistische Abwicklung. Ergänzend habe ich die Stammdatenstrukturen, insbesondere Material- und Geschäftspartnerstammdaten, erläutert und den Zusammenhang mit den Hauptprozessen wie Order-to-Cash und Procure-to-Pay verdeutlicht. Zusätzlich wurden typische Bewegungsdaten wie Buchhaltungs- und Materialbelege sowie die verschiedenen Belegtypen vorgestellt, um die Teilnehmer auf eine mögliche Implementierung und Optimierung der internen Abläufe vorzubereiten. Die Schulung wurde in Form eines kompakten Vortrags durchgeführt, bei dem komplexe Themen leicht verständlich aufbereitet wurden.
Eingesetzte Technologien: SAP S/4HANA, SAP FI/CO, SAP MM, SAP Stammdatenmanagement, SAP Organisationsebenen, Bewegungs- und Buchhaltungsbelege, Geschäftsprozesse (Order-to-Cash, Procure-to-Pay)
08/2024 - 08/2024
Blumen und Pflanzen
Unterstützung bei der Prozessanalyse und Konzeptentwicklung
Im Rahmen eines umfassenden Projekts zur Migration und Optimierung der Bestandsführung und Abrechnung von Ladungsträgern von einem externen System in das SAP-System habe ich gezielt bei der Analyse der bestehenden Prozesse und der Entwicklung des Migrationskonzepts unterstützt. Ziel des Projekts war es, die Funktionen des bestehenden Systems, das zum 30.06.2024 ausläuft, nahtlos in SAP zu integrieren und gleichzeitig die Prozesse zu optimieren. Meine Aufgaben umfassten die Analyse der aktuellen Buchungsprozesse, insbesondere der Umbuchungen der RFH- und LG-Kunden sowie der Buchungen gegen VRM Uhr. Dabei habe ich in regelmäßigen Meetings mit den Fachbereichen und Stakeholdern offene Fragen identifiziert und zur Verbesserung der Datenqualität beigetragen. Gemeinsam mit dem Team wurden die nächsten Schritte abgeleitet und die nötigen Anpassungen im Customizing durchgeführt.
Eingesetzte Technologien: SAP Lean WM, Customizing, Prozessanalyse
11/2024 - 11/2024
Gebäudemanagement
Erstellung eines KI-Voicebots für FAQ-Anfragen
Ziel des Projekts war die Entwicklung eines KI-Voicebots, der eingehende Anrufe automatisiert entgegennimmt und häufig gestellte Fragen (FAQ) beantwortet. Der Kunde benötigte eine Lösung, um die Erreichbarkeit zu verbessern und Anfragen effizienter zu bearbeiten. Durch die Integration einer flexiblen Plattform sollte der KI-Voicebot in der Lage sein, sich dynamisch an geänderte Anforderungen und neue Informationen anzupassen. Im Rahmen des Projekts habe ich die Implementierung der technischen Infrastruktur verantwortet. Für die Nummernverwaltung und Anrufweiterleitung wurde Twilio eingesetzt. Die Plattform ermöglicht die einfache Vergabe von Telefonnummern und die zuverlässige Verarbeitung von eingehenden Anrufen. Der KI-Voicebot selbst wurde mit der VAPI-Plattform entwickelt, die eine flexible Erstellung und Konfiguration ermöglicht. Hierbei habe ich den KI-Bot mit FAQ- und Informationsdateien ausgestattet, sodass er präzise und kontextbezogene Antworten auf Nutzeranfragen liefern konnte. Ein besonderer Fokus lag auf der Erweiterbarkeit der Lösung: Der KI-Assistent kann jederzeit durch zusätzliche Dateien ergänzt werden, um neue Fragen und Informationen abzudecken, wodurch langfristige Skalierbarkeit gewährleistet wird.
Eingesetzte Technologien: Twilio, VAPI, Voicebot-Entwicklung, FAQ-Management, Automatisierte Anrufbearbeitung, KI
08/2024 - 08/2024
IT Dienstleistungen
Workshop zur Migration von ESS/MSS auf Fiori Launchpad
In einem umfassenden Workshop für interne Entwickler und die Fachabteilung des Kunden habe ich den Workshop zu den Besonderheiten der Migration von einer auf WebDynpro basierenden ESS/MSS Landschaft hin zu einem Fiori Launchpad unterstützt. Ziel des Workshops war es, die Architektur der zukünftigen ESS/MSS Landschaft in Fiori zu erläutern und die SAP-Standardanwendungen wie "Meine Abwesenheitsanträge", "Meine Zeitbuchungen", "Mein Profil", "Meine Adressdaten" und "Meine Bankdaten" im Detail zu besprechen. Dabei wurden die Customizing-Möglichkeiten, Erweiterungen über BAdIs und Potenziale für Eigenentwicklungen in Fiori eingehend diskutiert. Zu meinen Aufgaben zählten die Vorbereitung relevanter Materialien, die Protokollierung des Workshops sowie die Nachbereitung der erarbeiteten Inhalte. Durch meine Unterstützung konnte den Teilnehmern ein tiefgehendes Verständnis für die neuen technischen Anforderungen und Möglichkeiten der Fiori-basierten ESS/MSS Landschaft vermittelt werden, wodurch sie in der Lage sind, die Migration und zukünftige Entwicklungen effektiv zu gestalten.
Eingesetzte Technologien: Fiori, ABAP, Customizing, XML, JavaScript
08/2024 - 08/2024
Landwirtschaft
Optimierung und Überwachung eines Programms zur Kirchensteuerabfrage
In diesem Projekt war ich für die Überarbeitung und Überwachung eines Programms zur Kirchensteuerabfrage beim Finanzamt verantwortlich. Meine Hauptaufgabe bestand darin, sicherzustellen, dass die Abfragen korrekt und zeitnah durchgeführt werden, um den reibungslosen Ablauf der steuerlichen Prozesse für den Kunden zu gewährleisten. Um dies zu erreichen, vertiefte ich meine Kenntnisse in ABAP und implementierte notwendige Anpassungen und Optimierungen im Programmcode. Neben der technischen Umsetzung nahm ich regelmäßig an täglichen Meetings mit dem Kunden teil, um den Projektfortschritt zu besprechen und sicherzustellen, dass alle Anforderungen und Ziele erfüllt wurden. In enger Abstimmung mit dem Kunden erfasste ich präzise deren Anforderungen und setzte diese erfolgreich um. Ein weiterer wesentlicher Bestandteil meiner Tätigkeit war die Fehlerbehebung, wobei ich durch gezielte Debugging-Methoden Probleme schnell identifizieren und beheben konnte.
Eingesetzte Technologien: ABAP, Debugging, Projektmanagement
08/2025 - 10/2025
Baustoff
KI-Sales-Assistent & Kundenberatungsassistent – Wissensplattform & Copilot-Integration
Rolle: Project Lead Im ersten Use Case habe ich habe Architektur und Einführung einer unternehmensweiten RAG-Wissensplattform verantwortet, den internen KI-Sales-Assistenten in Microsoft Copilot bereitgestellt und einen Website-Kundenberater integriert. Für den zweiten Use Case führte ich Konzeption und Umsetzung einer KI-basierten Textanalyse für Besuchsberichte mit Sentiment-/Keyword-Erkennung, Trend- und Musteranalyse über Berichte hinweg sowie CRM-Einbindung. Schwerpunkte: Anbindung von SharePoint/Dateiablagen, Berechtigungskonzept, Test & Rollout entlang eines 10-Wochen-Plans. Mehrwert: schneller Wissenszugriff für Vertrieb & Kunden, geringere Such-/Aufbereitungszeiten. Eingesetzte Technik Azure AI Services (inkl. AI Search), Microsoft 365 Copilot, SharePoint, Dynamics 365, Web-Integration. Deutlich schnellere Auswertung, weniger manuelle Aufwände, wiederverwendbare Analysebausteine. Eingesetzte Technik Microsoft Copilot for Sales, CRM-Integration, NLP/Textanalyse.
Eingesetzte Technologien: Azure AI Services (inkl. AI Search), Microsoft 365 Copilot, SharePoint, Dynamics 365, Web-Integration, Microsoft Copilot for Sales, CRM-Integration, NLP/Textanalyse
01/2025 - 02/2025
Bad und Sanitäramaturen
Entwicklung einer KI-gestützten Chatbotplattform (OpenWebUI)
Rolle: Projektumsetzung Der Kunde benötigte eine erweiterte, KI-gestützte Plattform zur unternehmensweiten Informationssuche und Interaktion mit bestehenden Datenquellen. Ziel war es, OpenWebUI zu erweitern, um eine nahtlose Authentifizierung über Microsoft Single Sign-On (SSO) zu ermöglichen und Retrieval-Augmented Generation (RAG) zu integrieren, sodass nutzerspezifische Anfragen an OneDrive, SharePoint und weitere interne Systeme gestellt werden können. Im Rahmen des Projekts habe ich OpenWebUI geforkt und erweitert, um die Authentifizierung und Autorisierung über die Microsoft Graph API zu realisieren. Dadurch können Nutzer sich direkt mit ihrem Microsoft-Konto anmelden und personalisierte Anfragen an ihre gespeicherten Datenbestände richten. Zur Verbesserung der Informationsbereitstellung wurde eine RAG-Architektur implementiert, die verschiedene Unternehmensquellen integriert. Hierfür habe ich Custom Endpoints mit Flask entwickelt, die es ermöglichen, gezielt auf OneDrive- und SharePoint-Dokumente zuzugreifen, Inhalte aus einer TYPO3-Webseite zu extrahieren und diese mit Azure AI Search und Vektorembeddings für KI-basierte Antworten bereitzustellen. Um die Suchfunktion zu optimieren, wurde eine skalierbare API-Infrastruktur aufgebaut, die eine flexible Anbindung weiterer Unternehmenssysteme erlaubt. Dabei wurde die bestehende SharePoint-Wissensdatenbank als separater Azure Search Index integriert, um konsistente und schnelle Abfragen über eine zentrale Schnittstelle bereitzustellen. Zusätzlich zur Backend-Integration wurde die OpenWebUI-Oberfläche weiterentwickelt, um eine intuitive Nutzung der neuen Funktionen zu ermöglichen. Neben den personalisierten Suchanfragen wurden auch Websuche und KI-basierte Bilderstellung mit DALL·E in das Frontend integriert. Meine Umsetzungstätigkeiten: Fork und Erweiterung von OpenWebUI, insbesondere die Implementierung von Microsoft Single Sign-On (SSO) über Microsoft Graph API. Entwicklung von Custom Flask Endpoints zur Anbindung von OneDrive, SharePoint und anderen Datenquellen mit nutzerbasierten Zugriffskontrollen. Aufbau eines Web Crawlers zur Extraktion von Inhalten einer TYPO3-CMS-Webseite, Speicherung der extrahierten Daten in Azure AI Search mit Vektorembeddings und Bereitstellung über eine RAG-Schnittstelle. Integration der SharePoint-Wissensdatenbank als separater Azure Search Index, um KI-gestützte Anfragen gezielt mit Unternehmenswissen anzureichern. Bereitstellung einer skalierbaren API-Infrastruktur, die eine einfache Erweiterung und Anbindung weiterer interner Systeme ermöglicht. Optimierung der OpenWebUI-Oberfläche, sodass Nutzer nicht nur gezielt suchen, sondern auch Websuche und KI-gestützte Bilderstellung über DALL·E nutzen können. Ergebnis: Durch die SSO-Integration können sich Nutzer nun direkt über OpenWebUI anmelden und personalisierte Anfragen an Microsoft Graph API richten. Die Retrieval-Augmented Generation (RAG) mit Azure AI Search verbessert die Qualität der Antworten erheblich, da strukturierte Daten aus SharePoint, OneDrive und TYPO3 effizient verarbeitet und bereitgestellt werden. Die Lösung ermöglicht eine schnelle, sichere und personalisierte Informationsbeschaffung, wodurch interne Arbeitsprozesse deutlich optimiert wurden.
Eingesetzte Technologien: Flask, Python, OpenWebUI Fork, Azure DevOps, Microsoft Graph API, Azure OpenAI, Retrieval-Augmented Generation (RAG), Azure AI Search, Vektorembeddings, TYPO3 Web Crawler, Custom API Endpoints, DALL·E, Azure Active Directory (AAD) & OAuth 2.0, JWT (JSON Web Tokens), PostgreSQL, Docker Prometheus & Grafana
04/2025 - 06/2025
Einzelhandel/Baumärkte
Projekt Microsoft Copilot Agent für Vertriebsunterstützung
Rolle: Project Lead und Umsetzung Der Kunde wollte die internen Vertriebsmitarbeiter dabei unterstützen, Kundenanfragen schneller zu beantworten und Informationen zu Produkten bereitstellen zu können. Dafür wurde ein Agent auf Basis von Microsoft Copilot entwickelt, der auf interne Wissensquellen zugreift – etwa SharePoint-Datenblätter und Inhalte der Ostermann-Webseite. Im Rahmen des Projekts habe ich einen Microsoft Copilot Skill konfiguriert und trainiert, der in natürlicher Sprache Fragen der Vertriebler versteht und passende Antworten generiert. Als Wissensquellen fungierten SharePoint-Dokumente (Produktdatablad), PDF-Datenblätter, sowie HTML-Inhalte der Ostermann-Webseite. Über Azure AI Search wurden diese Quellen indexiert und durch Vektorembeddings verfügbar gemacht, sodass der Copilot Agent bei Anfragen relevante Inhalte extrahieren konnte. Eine RAG-Architektur wurde implementiert, bei der der Agent zunächst passende Dokumentsegmente identifiziert und erst dann generative Antworten erzeugt, um Fehlinformationen zu minimieren. Die Integration in die bestehende Microsoft 365-Umgebung erfolgte über die Microsoft Graph API, sodass der Agent innerhalb von Teams und Outlook direkt auf SharePoint-Inhalte zugreifen kann. Zur Qualitätssicherung wurden Prompt-Feinabstimmungen und mehrere Testläufe mit echten Nutzerszenarien durchgeführt, um die Genauigkeit der Antworten kontinuierlich zu verbessern. Meine Umsetzungstätigkeiten: Konzeption und Entwicklung eines Microsoft Copilot Skills Implementierung einer RAG-Architektur mit Azure AI Search und Vektorembeddings Einrichtung der Datenpipeline für SharePoint-/Webseiten-Inhalte und Indexierung Integration über Microsoft Graph API in Teams- und Outlook-Umgebung Abstimmung von Prompts und Testdurchläufe zur Optimierung der Antwortqualität
Eingesetzte Technologien: Microsoft Copilot, Azure AI Search, Azure OpenAI, Vektorembeddings, SharePoint, Microsoft Graph API, RAG-Architektur, Python, PowerShell, Docker
04/2025 - 07/2025
Textil- und Wohnambiente
Projekt Entwicklung einer unternehmensweiten KI-Chatbotplattform (OpenWebUI)
Rolle: Product Owner Der Kunde benötigte eine skalierbare, KI-gestützte Plattform auf Basis von OpenWebUI, um Mitarbeitenden eine generative Chat-Funktionalität bereitzustellen und gleichzeitig alle Unternehmensdaten im Microsoft-Ökosystem zu halten. Im Fokus stand die nahtlose Integration von Confluence, JIRA und persönlichen SharePoint-Dateien, sodass Nutzer über ein zentrales Interface gezielt Informationen abrufen und verarbeiten konnten. Im Rahmen des Projekts habe ich OpenWebUI geforkt und erweitert, um eine Authentifizierung und Autorisierung via Microsoft Single Sign-On (SSO) über die Microsoft Graph API zu realisieren. Dadurch können Nutzer sich direkt mit ihrem Microsoft-Konto anmelden und personalisierte Anfragen an interne Datenquellen richten. Zur Umsetzung einer Retrieval-Augmented-Generation-(RAG-)Architektur wurden Custom Flask-Endpunkte entwickelt, die gezielt auf Confluence-Seiten über die Confluence REST-API, auf JIRA-Tickets via JIRA REST-API und auf persönliche SharePoint-Dateien über Microsoft Graph zugreifen. Extrahierte Inhalte werden in Azure AI Search mit Vektorembeddings indiziert, um relevante Antworten generativ anzureichern. Eine skalierbare API-Infrastruktur wurde aufgebaut, um zukünftig weitere Systeme unkompliziert anzubinden. Hierfür wurde Docker als Container-Plattform eingesetzt und Kubernetes-Pipelines in Azure DevOps definiert, um CI/CD sicherzustellen. Die OpenWebUI-Oberfläche wurde erweitert, sodass Nutzer neben der Text-Chat-Funktion Websuche und KI-basierte Bilderstellung (DALL·E) nutzen können. Das Frontend wurde mit React angepasst, um eine intuitive Bedienung zu gewährleisten und neue Komponenten (z. B. Dateiauswahl-Dialoge für SharePoint) bereitzustellen. Meine Umsetzungstätigkeiten: Fork und Erweiterung von OpenWebUI inklusive Implementierung von Microsoft SSO über Graph API Konzeption und Entwicklung der RAG-Architektur mit Azure AI Search und Vektorembeddings Implementierung von Custom Flask-Endpunkten zur Anbindung von Confluence, JIRA und SharePoint Frontend-Anpassungen in React für neue Chat- und Dateischnittstellen
Eingesetzte Technologien: Flask, Python, OpenWebUI Fork, React, Azure DevOps, Microsoft Graph API, Azure OpenAI, Retrieval-Augmented Generation (RAG), Azure AI Search, Vektorembeddings, Confluence API, JIRA API, SharePoint, OAuth 2.0, JWT, Docker
05/2025 - 05/2025
Textil- und Wohnambiente
1-Tages Workshop „Aufbau eines KI/GenAI Transformation Framework Office (TFO)“
Rolle: Project Lead Ziel dieses Workshops war es, gemeinsam mit dem Transformation Office bei JAB Anstoetz ein tragfähiges Framework für KI- und Generative-AI-Initiativen zu entwickeln. Es galt, Erwartungen zu steuern, den aktuellen KI-Reifegrad zu ermitteln und eine Roadmap zur Umsetzung von GenAI-Potenzialen zu skizzieren. Im Rahmen des Workshops habe ich den Kick-off moderiert, um eine positive Grundstimmung zu schaffen und die Dynamik von KI/GenAI greifbar zu machen. Gemeinsam mit Stakeholdern wurde der aktuelle KI/GenAI-Reifegrad selbsteingeschätzt, und Business-Ziele wurden mit GenAI-Chancen verknüpft, um konkrete Use Cases zu priorisieren. Es wurde ein Modell zur Priorisierung von GenAI-Initiativen abgeleitet und angepasst, basierend auf Faktoren wie Business-Impact, technische Machbarkeit und Risiko. Notwendige Rollen innerhalb des TFO (z. B. AI Product Owner, Data Engineer, Ethik-Verantwortlicher) wurden definiert sowie Verantwortlichkeiten und Kommunikationswege geklärt. Ein Rahmen für die kontinuierliche Abstimmung mit relevanten Stakeholdern wurde festgelegt, inklusive Feedback-Loops und Reporting-Strukturen. Risiken wurden identifiziert und bewertet, Erfolgsfaktoren diskutiert, um eine fundierte Basis für die Roadmap zu schaffen. Meine Rolle: Planung und Leitung des Workshops – Moderation von Arbeitsgruppen und Präsentationen Entwicklung und Anpassung eines Reifegradmodells für KI/GenAI Konzeption eines Priorisierungsmodells für GenAI-Initiativen Definition von Rollen, Verantwortlichkeiten und Governance-Strukturen im TFO Erarbeitung einer KPI-basierten Roadmap für den TFO-Aufbau
Eingesetzte Technologien: Microsoft Teams, Microsoft PowerPoint, Whiteboarding-Tools, Microsoft Copilot (Workshop-Demonstrationen), MS Excel (Reifegrad-Analyse), MIRO Board
05/2025 - 06/2025
Sanitärausstattung
PoC Automatisierung des Access-Request-Prozesses mittels generativem Chatbot
Meine Rolle: Project Lead Der Kunde wollte den internen IT-Support entlasten, indem der Access-Request-Prozess (ARP) automatisiert wird. Dazu wurde ein Proof of Concept aufgebaut, in dem sich neue User-Anfragen über einen KI-basierten Chatbot abwickeln, der über n8n-Workflows, Google-APIs und WebApps gesteuert wird und anschließend automatisch ein JIRA-Ticket erstellt. Im Rahmen des PoC habe ich einen generativen Chatbot entworfen, der Anwender Schritt für Schritt durch den ARP-Prozess führt. Dabei wurden dynamisch Formularfelder aus dem JIRA-Create-Issue-Formular integriert, um alle notwendigen Informationen (z. B. Benutzerrolle, Abteilung, benötigte Systeme) direkt im Chat abzufragen. Die Orchestrierung der Workflows erfolgte über n8n, wo bei Abschluss des Chat-Gesprächs automatisch ein Workflow gestartet wurde, der die Daten validiert und via JIRA REST-API ein neues Ticket anlegt. Für die Generierung von Antworten im Chatbot wurde eine generative KI-Komponente eingebunden (z. B. OpenAI GPT via API), die kontextsensitives Fragen und Klassifizieren von Anfragen ermöglichte. Der gesamte Ablauf wurde in einer Docker-basierten Testumgebung simuliert, sodass unterschiedliche Szenarien (z. B. fehlende Angaben, falsche Rollen) automatisch erkannt und im Chat entsprechend nachgefragt werden konnten. Meine Umsetzungstätigkeiten: Konzeption und Implementierung des generativen Chatbots mit KI-Integration Aufbau und Konfiguration von n8n-Workflows zur Automatisierung des ARP Anbindung der JIRA REST-API zur automatischen Ticket-Erstellung Einrichtung der Docker-Testumgebung und Szenario-Simulation
Eingesetzte Technologien: n8n, OpenAI GPT (Generative KI), Google APIs, WebApps (Node.js / React), JIRA REST-API, OAuth 2.0, Docker, Python (Validierungsskripte), JavaScript
04/2025 - 07/2025
Einzelhandel/Baumärkte
Projekt Beratung im Transformation Office zu KI-Themen
Rolle: PMO Im Rahmen eines regelmäßigen, interdisziplinären Transformation Office-Kreises beriet ich Rudolf Ostermann GmbH zu strategischen und operativen Fragestellungen rund um den KI-Einsatz im Unternehmen. Die Schwerpunkte lagen auf Strategieumsetzung & Portfoliomanagement, Kultur & Change Management, Technologie-, Daten- & Infrastruktur-Enablement, Governance, Risiko & verantwortungsvolle KI, Koordination & Kollaboration sowie Wertrealisierung & Erfolgsmessung. Gemeinsam mit dem Kernteam wurden strategische Ziele für KI-Initiativen definiert und ein Portfolio-Management-Framework aufgebaut, um Projekte systematisch zu priorisieren und zu steuern. Im Bereich Kultur, Kompetenzen & Change Management wurden Schulungspläne entwickelt und interne Workshops moderiert, um Mitarbeitende für KI-Kompetenzen zu sensibilisieren und Change-Prozesse zu begleiten. Für Technologie, Daten & Infrastruktur habe ich Empfehlungen für den Aufbau einer skalierbaren Cloud-Architektur ausgesprochen. Im Governance- und Risiko-Teil wurden Richtlinien zur ethischen KI-Nutzung entworfen, Datenschutz- und Compliance-Anforderungen abgeklärt und ein Responsible-AI-Framework aufgesetzt, das Konzepte wie Bias-Detection und Explainability berücksichtigt. Zur Koordination & Kollaboration wurde für alle Transformation Office-Aktivitäten ein zentrales Miro Board genutzt, inklusive Aufgaben- und Meilenstein-Tracking. Unter dem Aspekt Wertrealisierung & Erfolgsmessung wurden KPIs definiert (z. B. Time-to-Market-Reduktion, Kostenersparnis IT-Support, Mitarbeiter-Produktivität) und ein Reporting-Konzept mit Power BI aufgesetzt, um Fortschritte transparent darzustellen. Meine Rolle: Strategieberatung und Aufbau des Portfoliomanagement-Frameworks für KI-Projekte Moderation von Workshops zu Kultur, Change Management und KI-Kompetenzen Beratung zur Architektur und Infrastruktur Entwicklung von Governance-Richtlinien für Responsible AI und Risiko-Management Definition von KPIs und Einführung eines Reporting-Prozesses zur Erfolgsmessung
Eingesetzte Technologien: Microsoft Teams, SharePoint, MIRO Board, Responsible AI Framework, Copilot (Demonstrationen), PowerPoint
06/2025 - 07/2025
Verkehr
Cloud-Basics & GenAI-Prototyp für IT-Support
Rolle: Project Lead Ziel des Projekts war es, das IT-Team des Kunden innerhalb kürzester Zeit in die Lage zu versetzen, eigenständig einen funktionsfähigen GenAI-Prototypen zu betreiben. Am ersten Tag führte ich das Team durch die Einrichtung einer Cloud-VM und die Installation sowie Grundkonfiguration von OpenWebUI. Anschließend integrierten wir gemeinsam Azure AI Search als Datenquelle, führten erste RAG-Abfragen auf PDF-Dokumente des internen IT-Handbuchs durch und testeten Erweiterungsoptionen für künftige Datenquellen. Am Ende war das Team in der Lage, Setup, Orchestrierung und Erweiterungen eigenständig umzusetzen.
Eingesetzte Technologien: OpenWebUI, Azure AI Search, Retrieval-Augmented Generation (RAG), n8n
08/2025 - 01/2026
Bildung/Weiterbildung
Ausbildungsprogramm „KI-Ingenieur“ – Vom Fundament zur produktiven Lösung
Rolle: Project Lead - Steuerung Ziel des Programms war es, Fach- und IT-Mitarbeiter zu befähigen, eigenständig produktionsreife KI-Lösungen zu entwerfen und umzusetzen. Ich steuerte den gesamten Curriculum-Entwicklungsprozess und leitete Trainingspfade von den Grundlagen der generativen KI über RAG und Agenten-Design bis hin zu LLM-Ops, Governance-Aspekten und Erfolgsmessung. Praxisorientierte Hands-on-Labs mit Azure OpenAI und n8n ermöglichten den Teilnehmenden, die erlernten Konzepte direkt in funktionsfähige Prototypen zu übertragen.
Eingesetzte Technologien: Azure OpenAI, n8n, Retrieval-Augmented Generation (RAG), Agenten-Design, Prompt Engineering, LLM-Ops, Governance Frameworks
08/2025 - 08/2025
Gesundheitswesen
Voice- und Textbasierter Service-Agent
Das Ziel bestand darin, IT-Support-Anfragen sowohl text- als auch sprachbasiert automatisch zu verarbeiten und mit Unternehmenssystemen wie Outlook und Teams zu verknüpfen. Ich konzipierte und implementierte einen durchgängigen Prozess-Agenten mit RAG-Tooling für die Wissenssuche, Outlook-Integrationen zur automatisierten E-Mail- und Terminverarbeitung sowie Teams-Webhooks für die direkte Antwortbereitstellung. Das System wurde durch Session-Management und Memory-Funktionen für kontextbezogene Dialoge ergänzt. Das Web-Frontend bot Echtzeit-Status- und Streaming-Anzeigen. Sicherheits- und Berechtigungsmechanismen wurden von Beginn an berücksichtigt.
Eingesetzte Technologien: n8n, Azure OpenAI (Realtime API, Chat), Whisper, Microsoft Teams API, Outlook API, Graph API, HTML, JavaScript, WebRTC
07/2025 - 07/2025
Schaumwein
Generative AI Aufbruchsevent – Enablement & Change für produktiven KI-Einsatz
Rolle: Project Lead Ziel des Projekts war es, den Kunden in die Lage zu versetzen, generative KI-Technologien nicht nur zu verstehen, sondern direkt in den täglichen Arbeitsprozessen gewinnbringend einzusetzen. Ich habe das Aufbruchsevent konzipiert und moderiert, um eine gemeinsame Wissensbasis zu schaffen und Akzeptanz bei allen Beteiligten zu fördern. Dazu gehörten praxisnahe Hands-on-Sessions, in denen die Teilnehmer erste produktive Anwendungen mit ChatGPT und Copilot selbst erprobten. Ein besonderer Fokus lag auf sicheren Anwendungsrichtlinien, sinnvollem Prompt-Design und der direkten Übertragung der Use Cases in den Unternehmenskontext. Durch diese Kombination aus Inspiration und praktischer Umsetzung konnte der Kunde eine initiale Roadmap für die nächsten KI-Schritte entwickeln.
Eingesetzte Technologien: Microsoft 365 Copilot, Azure OpenAI, Prompt Engineering, Governance-Guidelines
01/2025 - 01/2025
Automobil
KI-Aufbruchsevent: Einführung in Künstliche Intelligenz und Datenanalyse
Rolle: Dozent/Projektleiter Ziel des Projekts war es, dem Kunden einen praxisnahen Einstieg in die Welt der Künstlichen Intelligenz zu bieten und das Potenzial KI-gestützter Technologien im Unternehmensumfeld zu vermitteln. Im Fokus stand dabei die Vermittlung eines grundlegenden Verständnisses für KI, einschließlich Datenanalyse und maschinellem Lernen, sowie die Präsentation von Anwendungsfällen zur Produktivitätssteigerung mithilfe von Microsoft Copilot. Im Rahmen des Events habe ich den Part zur Datenanalyse und zum maschinellen Lernen übernommen. Zunächst führte ich in die grundlegenden Konzepte von KI ein, einschließlich der Unterschiede zwischen starker und schwacher KI sowie generativer KI. Anschließend habe ich den Teilnehmern die Bedeutung hochwertiger Daten für Machine-Learning-Modelle erläutert und aufgezeigt, wie unterschiedliche Arten von Datenanalysen (deskriptive, prädiktive und präskriptive Analysen) zu fundierten Entscheidungen führen können. Dabei wurden relevante Technologien wie Python und Power BI zur Analyse und Visualisierung von Daten vorgestellt. Ein weiterer Schwerpunkt war die Einführung in Microsoft Copilot und dessen Einsatzmöglichkeiten im Arbeitsalltag, wie etwa die automatische Erstellung von E-Mail-Entwürfen, die Analyse von Excel-Daten sowie die Zusammenfassung von Inhalten in Word und OneNote. Die Teilnehmer erhielten praxisnahe Einblicke in die Funktionsweise und das Potenzial von Copilot zur Automatisierung und Unterstützung repetitiver Aufgaben. Das Event endete mit einer offenen Fragerunde sowie einer Diskussion über die zukünftige Nutzung von KI im Unternehmen.
Eingesetzte Technologien: Python, Power BI, Microsoft Copilot, Machine Learning, Datenanalyse, Microsoft Office 365, KI-Anwendungen
08/2025 - 08/2025
Schaumwein
Strategische Potenzialanalyse – Von der Prozessaufnahme zur AI-Roadmap
Rolle: Project Lead Das Ziel war es, die wertvollsten Anwendungsfälle für generative KI zu identifizieren und diese in eine umsetzbare Roadmap zu überführen. Ich habe die Geschäftsprozesse des Kunden analysiert, Interviews mit Fachbereichen durchgeführt und sämtliche Use Cases anhand von Kriterien wie Nutzen, Kosten, Komplexität und Risiko bewertet. Darauf aufbauend habe ich ein priorisiertes Portfolio entwickelt, das sowohl Quick Wins als auch strategische Leuchtturmprojekte umfasst. Die Zielarchitektur setzte auf RAG-Ansätze mit sicheren Datenzugriffen und einer skalierbaren Integration in bestehende IT-Systeme.
Eingesetzte Technologien: Azure OpenAI, Azure AI Search, Business Case Framework, RAG-Architektur
08/2025 - 10/2025
Ingenieur
Einführung individueller KI-Assistenten bei ART (Mitarbeiter- & Ingenieur-Assistent, KPI-/Kosten-Automatisierung)
Rolle: Project Lead Ziel war/ist, Unternehmenswissen aus dem ART-Archiv (SharePoint-Dokumente wie PDF/Word/Excel sowie CAD/IFC/RVT) über eine sichere RAG-Architektur produktiv bereitzustellen und perspektivisch KPI-/Kostenübersichten zu automatisieren (DATEV ↔ untermStrich). Ich verantwortete Kick-off und Use-Case-Schärfung (UC1 Mitarbeiter-/FAQ-Assistent, UC3 Ingenieur-Wissensassistent), den Pivot von UC2 auf Zeiterfassung via untermStrich-API, die Vorbereitung der SharePoint-Informationsarchitektur (Metadaten, Sichten, Rechte), eine Lizenz-Entscheidungsvorlage (Copilot Studio vs. Copilot Pro/Alternativen), Testkatalog & Pilotgruppe sowie die technische Zielarchitektur mit Azure AI Search + Copilot-Agenten inkl. transparenten Quellenhinweisen.
Eingesetzte Technologien: Microsoft 365 Copilot, Copilot Studio, Azure OpenAI, Azure AI Search, SharePoint Online, Microsoft Graph API, untermStrich API, DATEV (geplant), Retrieval-Augmented Generation (RAG)

Weiterbildungen und Zertifizierungen

TS410_2022
Zertifizierung
Vermittelt ein umfassendes Verständnis für die Integration und das Zusammenspiel zentraler Geschäftsprozesse in SAP S/4HANA, einschließlich der Module FI, CO, MM, PP, SD und HCM.
AI-900T00-A: Microsoft Azure AI Fundamentals
Zertifizierung
In diesem Kurs werden grundlegende Konzepte der künstlichen Intelligenz vertieft sowie die Microsoft Azure Services umfassend behandelt, die zur Entwicklung hochmoderner AI-Lösungen eingesetzt werden. Der Kurs stärkt die Fähigkeit, spezifische AI-Workloads zu analysieren und die optimalen Azure-Dienste zu identifizieren, um innovative und leistungsstarke AI-Anwendungen effizient zu implementieren.
Salesforce AI-Associate
Zertifizierung
Salesforce Certified AI Associate ist in der Lage, fundierte Strategien bereitzustellen und Stakeholder-Entscheidungen auf der Grundlage der vertrauenswürdigen KI-Prinzipien von Salesforce anzuleiten. Datenmanagement, Sicherheitsüberlegungen, gängige Geschäfts- und Produktivitätstools und Salesforce Customer 360 sind Teil der Zertifizierung.

Eric Chittka

Enterprise Automation & KI