Ausgewählte Projekte
Implementierung eines JMS-basierten Error-Handlings und Alerting für SAP-Schnittstellen
Im Rahmen der CRM-Transformation bei einem führenden Getränkehersteller verantwortete ich die Absicherung der kritischen Datenflüsse zwischen Salesforce und SAP S/4HANA durch die Konzeption und Implementierung einer ausfallsicheren Fehlerbehandlung (Resilience Engineering).
Um Datenverluste bei Übertragungsfehlern gänzlich auszuschließen, wurde ein robustes Error-Handling-Konzept auf der SAP Integration Suite realisiert. Kernstück war die Implementierung von JMS-Queues (Java Message Service), die als Error-Queues fungieren und eine asynchrone sowie transaktionssichere Verarbeitung gewährleisten. Innerhalb der Integration Flows (iFlows) wurden standardisierte Exception Subprocesses entwickelt, die im Fehlerfall greifen.
Diese umfassen eine dynamische Steuerung über Value Mappings unter Nutzung von Agencies und Schemes, was ein versioniertes Arbeiten mit konsequenter Umgebungstrennung (DEV, QAS, PROD) im Sinne eines professionellen Release-Managements und klassischen Staging-Modells ermöglicht. So können Benachrichtigungen in Testphasen gezielt auf „inactive“ gesetzt werden, während sie im Live-Betrieb direkt an das zuständige Team fließen.
Zudem wurde das Monitoring durch die Erweiterung der MPL-Logs um einen Custom Status optimiert, was die Fehleranalyse für den Support massiv beschleunigt. Durch die konsequente Externalisierung von Parametern, wie beispielsweise den individuellen Namen der Error-Queues, wurde sichergestellt, dass das Framework flexibel bleibt und einfach auf weitere Schnittstellen übertragen werden kann.
Eingesetzte Technologien: SAP Integration Suite (CPI), SAP BTP, Integration Flows (iFlows), JMS (Java Message Service), Exception Handling, Error Logging, Message Processing Log (MPL), Groovy Scripting (für Custom Error Messages), Value Mapping (Agency/Scheme), Release Management (Staging), SMTP Adapter, Salesforce Adapter, SAP S/4HANA OData/IDoc.
Einführung der Personaleinsatzplanung (PEP)
Im Rahmen dieses Projekts übernahm ich als IT-Berater im SAP-HR-Bereich die Verantwortung für die Implementierung und Erweiterung einer digitalen Personaleinsatzplanung (PEP) für einen führenden Kunden in dem öffentlichen Dienstleistungssektor. Ziel des Projekts war die Ablösung des bisherigen Excel-basierten, manuellen Schichtplanungsprozesses durch eine integrierte, automatisierte Lösung innerhalb des SAP-Systems. Dies ermöglichte eine durchgängige, medienbruchfreie Planung sowie eine deutliche Effizienzsteigerung der operativen Abläufe.
Die Kernanwendung wurde als Fiori-Applikation entwickelt und vollständig in das ESS/MSS-Portal integriert, wodurch Mitarbeitende direkten digitalen Zugriff auf ihre Schichtpläne erhielten.
Meine Hauptaufgaben umfassten die technische Implementierung und Konfiguration der Lösung, die ich mit ABAP. Dabei legte ich besonderen Wert auf eine nahtlose Integration in die bestehenden SAP-HCM-Prozesse. Neben der technischen Umsetzung führte ich umfangreiche Tests durch, um die Stabilität und Performance der Lösung sicherzustellen. Durch die Einführung der erweiterten PEP konnte der Kunde eine erhebliche Optimierung der Schichtplanung und eine verbesserte Transparenz und Nutzerfreundlichkeit für die Mitarbeitenden erzielen.
Eingesetzte Technologien: SAP HCM, ABAP, Fiori, ESS/MSS
KI-gestützte Prozessautomatisierung im Finanzwesen
Im Rahmen eines dreimonatigen Projekts (10/2025–12/2025) bei einem großen Gesundheitsdienstleister wurde ein KI-gestützter Chatbot zur Unterstützung der Kreditorenbuchhaltung eingeführt. Ziel war es, den Mitarbeitern eine Echtzeit-Abfrage von Rechnungsstatus und Zahlungsinformationen direkt im Chat zu ermöglichen und manuelle Prüfungen in mehreren Systemen deutlich zu reduzieren.
Dazu wurden kundenspezifische OData-Services im SAP On-Premise-Backend in ABAP entwickelt, die Rechnungsdaten sicher und performant bereitstellen. Über die SAP Integration Suite auf der SAP BTP wurden die notwendigen Integration Flows orchestriert, die eine nahtlose Verbindung zum Microsoft Copilot Studio herstellen. Dort wurde die Geschäftslogik sowie der KI-Agent inklusive der zugehörigen Workflows implementiert. Die Authentifizierung und Autorisierung der Benutzer erfolgte über den SAP Identity Authentication Service (IAS) mit Principal Propagation via SAP Cloud Connector.
Eingesetzte Technologien: SAP BTP, SAP Integration Suite, SAP Cloud Integration (CPI), Integration Flows (iFlows), SAP Cloud Connector, Principal Propagation, SAP Identity Authentication Service (IAS), SAP Identity Provisioning Service (IPS), SAP Cloud Identity Services, OData, ABAP, SAP S/4HANA On-Premise, Microsoft Copilot Studio, Power Automate, Agent Workflows, SAP Build Work Zone
Strategische Evaluierung und Prozessintegration von Generativer KI (LLM) zur Redaktionsoptimierung
Für einen etablierten Regionalverlag wurde im Rahmen eines Organisationsprojekts ein Konzept zur Kostensenkung und Effizienzsteigerung durch den Einsatz künstlicher Intelligenz entwickelt. Ziel war die Sicherung der Wettbewerbsfähigkeit durch die Automatisierung redaktioneller Routineaufgaben wie Textanpassung (Kürzung/Streckung für Layouts) und assistierte Texterzeugung.
Als Projektmitglied führte ich eine umfassende Marktanalyse führender Large Language Models (LLM) und KI-Tools durch (u. a. ChatGPT, Neuroflash, Notion AI). Mittels einer detaillierten Nutzwertanalyse und Kostenvergleichsrechnung (TCO) wurde die optimale Softwarelösung identifiziert und ausgewählt.
Ein Kernbestandteil des Projekts war die Prozessoptimierung: Die bestehenden redaktionellen Abläufe (Ist-Zustand) wurden analysiert und in effiziente Soll-Prozesse (BPMN 2.0) überführt, die die KI-Interaktion nahtlos integrieren. Dabei wurde ein besonderer Fokus auf Prompt Engineering und Quality Gates gelegt, um Risiken wie KI-Halluzinationen zu minimieren.
Abschließend wurde eine umfassende Risikoanalyse (nach ALARP-Prinzip) hinsichtlich Datenschutz, Urheberrecht und journalistischer Ethik erstellt sowie ein Change-Management-Konzept inklusive Handlungsempfehlungen und Schulungsunterlagen für die Redaktion implementiert.
Eingesetzte Technologien: Generative AI, Large Language Models (LLM), ChatGPT, Prompt Engineering, Business Process Model and Notation (BPMN 2.0), Prozessmodellierung, Nutzwertanalyse, TCO-Analyse (Total Cost of Ownership), Risikomanagement (ALARP), Change Management, Compliance & Data Privacy, KI-Evaluation.
Entwicklung einer Deep-Learning-Pipeline zur prädiktiven Analyse von Finanzzeitreihen (S&P 500)
Im Rahmen eines Forschungsprojekts der Hochschule für Wirtschaft und Technik Berlin wurde eine End-to-End-Lösung zur algorithmischen Prognose von Finanzmarktdaten konzipiert und implementiert. Primäres Ziel war die Entwicklung und Validierung eines hochperformanten Deep-Learning-Modells zur Vorhersage des S&P 500 Schlusskurses unter Nutzung historischer Marktdaten.
Als Entwickler realisierte ich eine skalierbare Data-Engineering-Pipeline in Python. Diese umfasste die automatisierte Datenextraktion (ETL) via APIs sowie ein komplexes Feature Engineering. Dabei wurden technische Indikatoren (Technical Analysis) wie RSI, MACD und Bollinger Bands algorithmisch berechnet und mittels statistischer Verfahren (Pearson-Korrelation, Mutual Information) auf ihre prädiktive Relevanz für das Modelltraining evaluiert (Feature Selection).
Für die Modellierung setzte ich auf state-of-the-art Deep-Learning-Architekturen mittels PyTorch. Der Schwerpunkt lag auf der Implementierung von Long Short-Term Memory (LSTM) Netzwerken, um die sequentiellen Abhängigkeiten und Volatilitäten der Zeitreihendaten effektiv abzubilden. Durch iteratives Hyperparameter-Tuning, den Einsatz von Learning Rate Schedulern und die Implementierung robuster Validierungsstrategien (Time Series Split) konnte die Prognosegüte (MAPE) signifikant optimiert und die Überlegenheit gegenüber klassischen RNN-Ansätzen nachgewiesen werden.
Eingesetzte Technologien: Deep Learning, Predictive Analytics, Time Series Forecasting, Neural Networks (LSTM, RNN), PyTorch, Python, Pandas, NumPy, Scikit-learn, Feature Engineering (Technical Indicators: RSI, MACD, Bollinger Bands), Statistical Analysis, Data Visualization (Matplotlib), ETL Pipelines, API Integration, Financial Modeling, Quantitative Analysis.