Ausgewählte Projekte
Evaluierung von Verkaufsstrategien im EPEX-Energiemarkt
Das Projekt zielte darauf ab, einen Benchmark zu erstellen, der die Effektivität der Entscheidungen hinsichtlich der Stromproduktion und deren Verkauf an das Stromnetz bewertet. Ziel war es, potenzielle Optimierungen bei der Preisgestaltung und Gewinnmaximierung zu identifizieren.
Ich habe umfangreiche Datenanalysen durchgeführt, um den optimalen Zeitpunkt und Preis für den Stromverkauf zu ermitteln. Dazu wurden historische Marktpreise analysiert, Höchstpreise identifiziert und Szenarien entwickelt, die den potenziellen Gewinn bei konstanter Energieproduktion aufzeigen. Die Ergebnisse wurden in Form von aussagekräftigen Visualisierungen aufbereitet und in Präsentationen vorgestellt, um datenbasierte Entscheidungen zu ermöglichen und Optimierungspotenziale aufzuzeigen.
Eine zentrale Herausforderung bestand darin, die Vielzahl der Marktpreis- und Produktionsdaten so zu analysieren, dass präzise Aussagen über mögliche Gewinnmaximierungen getroffen werden konnten. Außerdem mussten die Ergebnisse verständlich und überzeugend aufbereitet werden, um die Stakeholder effektiv zu informieren und zu überzeugen.
Ich habe die Daten mit modernen Analysetools vorverarbeitet und sowohl statistische Methoden als auch maschinelles Lernen eingesetzt, um Preistrends und Muster zu identifizieren. Für die Visualisierung wurden interaktive Dashboards erstellt, die komplexe Ergebnisse übersichtlich darstellen. Regelmäßige Abstimmungen mit den Stakeholdern stellten sicher, dass die Präsentationen zielgerichtet und umsetzbar waren.
Eingesetzte Technologien: Python, Pandas, Matplotlib, PowerPoint, Datenanalyse, Visualisierungen, Szenario-Modellierung, Marktpreisanalysen, InfluxDB, EPEX-Spot Markt
Entwicklung eines didaktischen Modells zur Darstellung künstlicher neuronaler Netze
Das Ziel des Projektes war die Entwicklung eines mechanischen Modells, das die Funktionsweise eines künstlich neuronalen Netzes (KNN) verständlich macht. Das Modell sollte vor allem in Bildungseinrichtungen zur didaktischen Vermittlung eingesetzt werden und eine einfache Einführung in die Grundlagen von Deep Learning bieten.
Ich habe ein interaktives Modell gebaut, das aus Holz, Metall, 3D-gedruckten Komponenten und Elektronik besteht. Dazu habe ich die mechanischen Elemente entworfen und mit einem Mikrokontroller verbunden, den ich mit C und C++ programmiert habe. Die Steuerung erfolgt über eine eigens entwickelte Anwendung in C#, die über eine serielle Schnittstelle mit dem Mikrokontroller kommuniziert. Das Modell wurde erfolgreich auf einer Messe präsentiert, begleitet von Vorträgen zur Funktionsweise künstlicher neuronaler Netze und der praktischen Anwendung des Modells.
Eine der zentralen Herausforderungen war die präzise Integration von mechanischen, elektronischen und softwarebasierten Komponenten. Dabei musste das Modell nicht nur funktionsfähig, sondern auch robust genug für den Transport und die dauerhafte Nutzung in Bildungseinrichtungen sein. Zudem galt es, die komplexen Abläufe eines künstlichen neuronalen Netzes so zu abstrahieren, dass sie auch für Laien leicht verständlich sind.
Ich habe die mechanischen und elektronischen Komponenten iterativ entwickelt, getestet und optimiert. Die Software wurde modular aufgebaut, um eine reibungslose Kommunikation zwischen Modell und Anwendung sicherzustellen. Durch den Einsatz eines digitalen Zwillings konnte das Modell interaktiv gestaltet werden, sodass die Benutzer auf spielerische Weise die Funktionsweise von KNNs erleben können. Die Vorträge wurden zielgruppenspezifisch ausgearbeitet, um das Thema auf der Messe einem breiten Publikum zugänglich zu machen.
Eingesetzte Technologien: C, C++, Serielle Schnittstellen, 3D-Druck, Holz- und Metallbearbeitung, Mikrocontroller-Programmierung, Elektrotechnik, Didaktik, Präsentationstechniken, KNN
Entwicklung des Backends für einen Webserver eines Bibliotheks-Bücherverleihs
Das Ziel des Projektes war die Entwicklung eines robusten und skalierbaren Backends für das Verleihsystem einer Bibliothek. Die Lösung sollte eine moderne Softwarearchitektur nutzen und RESTful-Schnittstellen bereitstellen, die nahtlos von einem Frontend genutzt werden können.
Ich habe das Backend mit Java und dem Framework Quarkus entwickelt und an eine PostgreSQL-Datenbank angebunden. Dabei wurde eine ausführliche Softwarearchitektur erstellt und dokumentiert, sodass das Frontend diese problemlos verwenden konnte. Die Qualität und Performance des Codes wurden mithilfe von SonarQube kontinuierlich überprüft. Für die Entwicklung und den Betrieb wurde Docker verwendet, wodurch eine flexible und leicht zu wartende Infrastruktur geschaffen wurde. Die Schnittstellen wurden mithilfe von Swagger UI getestet und dokumentiert, um eine klare und verständliche Kommunikation zwischen Backend und Frontend sicherzustellen.
Eine der Herausforderungen war es, eine performante und sichere Anbindung an die PostgreSQL-Datenbank zu gewährleisten und gleichzeitig die RESTful-APIs so zu gestalten, dass sie den Anforderungen des Frontends vollständig entsprechen. Zudem musste die Softwarearchitektur flexibel und erweiterbar sein, um zukünftige Anforderungen problemlos integrieren zu können.
Ich habe eine moderne und leichtgewichtige Architektur mit Quarkus entwickelt, die durch den Einsatz von Dependency Injection und standardisierten Patterns wartbar und skalierbar ist. Die Verwendung von Docker ermöglichte eine konsistente Entwicklungs- und Betriebsumgebung. Mithilfe von Swagger UI wurden die Schnittstellen gründlich getestet und dokumentiert, während regelmäßige Codeanalysen mit SonarQube die Qualität und Performance sicherstellten.
Eingesetzte Technologien: Java, Quarkus, PostgreSQL, Docker, SonarQube, Swagger UI, RESTful APIs, Softwarearchitektur, Datenbankintegration
Zeitreihenanalyse von PID-Reglern in Fernwärmesystemen
Das Ziel des Projektes war die Entwicklung eines Systems zur automatisierten Analyse, um potenzielle Fehlkonfigurationen der Heizungsregler bei Fernwärmekunden zu erkennen. Dadurch sollte die Effizienz der Wärmeversorgung verbessert und der Energieverbrauch optimiert werden.
Ich habe Zeitreihen-Daten der Heizungsregler analysiert und unterschiedliche Prognosemodelle wie ARMA, ARIMA, k-Means, Random Forest und Deep-Learning-Ansätze getestet und verglichen. Ziel war es, Muster zu erkennen, die auf Fehlkonfigurationen von PID-Reglern hindeuten könnten. Auf Basis dieser Analysen wurden Berichte erstellt, die Optimierungspotenziale aufzeigen und Handlungsempfehlungen ableiten.
Die größte Herausforderung war die hohe Variabilität in den Zeitreihen-Daten und die Identifikation von Mustern, die zuverlässig auf eine Fehlkonfiguration hinweisen. Zudem mussten die eingesetzten Modelle so angepasst werden, dass sie auch bei geringem Datenvolumen und starken Schwankungen präzise Ergebnisse liefern.
Ich habe unterschiedliche Analysemethoden parallel getestet, um die jeweils besten Algorithmen für spezifische Datenmuster zu identifizieren. Dabei wurden Daten sorgfältig vorverarbeitet und mit Feature-Engineering angereichert, um die Modelle zu unterstützen. Regelmäßige Validierungen und Vergleiche der Ergebnisse haben es ermöglicht, die Modelle gezielt zu optimieren. Die Kombination aus klassischen statistischen Modellen, Clustering-Methoden und modernen Machine-Learning-Ansätzen stellte sicher, dass sowohl lineare als auch nicht-lineare Muster erfasst wurden.
Eingesetzte Technologien: Python, TensorFlow, Pandas, Numpy, Matplotlib, sklearn, ARMA, ARIMA, Deep Learning, k-Means, Random Forest, Zeitreihenanalyse, Feature-Engineering
Appentwicklung: Instandhaltungs-Apps mit Neptune
Ziel dieses Projekts war es, die bestehenden mobilen und webbasierten Anwendungen für das Auftragsmanagement sowie die Erstellung und Bearbeitung von Meldungen zu optimieren. Dadurch sollten Kunden- und Wartungsaufträge ebenso wie Service- oder Störmeldungen schneller, transparenter und benutzerfreundlicher erfasst und bearbeitet werden können. Für den Kunden bedeutete das vor allem eine höhere Prozessgeschwindigkeit, reduzierte Bearbeitungsfehler und eine verbesserte mobile Einsatzfähigkeit der Mitarbeiter im Feld.
Mit der Neptune SAP Edition (Neptune DXP) habe ich eine Fiori-konforme Benutzeroberfläche umgesetzt, die sowohl die Verwaltung von Aufträgen als auch die Erstellung und Nachverfolgung von Meldungen unterstützt. Die Oberfläche ist intuitiv, responsive und performant – unabhängig davon, ob Anwender mit einem Tablet, Smartphone oder am Desktop arbeiten. Im Vordergrund standen optimierte Navigationskonzepte, verkürzte Klickpfade und eine klare Informationsdarstellung, um relevante Daten schnell erfassen und bearbeiten zu können.
Für die Backend-Anbindung habe ich performante OData-Services in ABAP entwickelt und für den Einsatz auf SAP HANA optimiert. So konnten Echtzeitdaten zu Aufträgen, Meldungen, Materialien und Statusinformationen bereitgestellt werden, was den Informationsfluss zwischen Außendienst, Innendienst und Disposition erheblich verbesserte.
Die Umsetzung erfolgte in agilen Iterationen mit enger Einbindung von Key-Usern aus den Fachabteilungen, um sicherzustellen, dass die Lösungen den tatsächlichen Arbeitsabläufen entsprechen. Bereits nach kurzer Zeit konnte der Kunde spürbare Produktivitätsgewinne erzielen und die Reaktionszeiten sowohl im Auftragsmanagement als auch bei der Bearbeitung von Meldungen deutlich reduzieren.
Eingesetzte Technologien: Neptune SAP Edition, Neptune DXP, SAP Fiori, SAPUI5, OpenUI5, OData-Services, ABAP, ABAP OO, SAP HANA, SAP ERP, Responsive Design, UI/UX-Design, Clean Code, Agile Methoden, Scrum, Usability-Tests
Weiterentwicklung mobiler und webbasierten Instandhaltungsanwendungen mit Neptune SAP Edition (Neptune DXP) und SAP Fiori
Das Ziel dieses Projekts war die Modernisierung und Optimierung mobiler und webbasierten Instandhaltungsanwendungen auf Basis von Neptune SAP Edition (Neptune DXP), um eine intuitive, performante und Fiori-konforme Benutzeroberfläche zu schaffen. Durch die konsequente Ausrichtung an den SAP Fiori Design Guidelines und den Einsatz moderner SAPUI5-/UI5-Technologien wurde die User Experience (UX) erheblich verbessert und die Effizienz der SAP-basierten Instandhaltungsprozesse gesteigert.
Meine Aufgabe umfasste die Konzeption und Umsetzung einer vollständig in die SAP-ERP- und SAP-HANA-Landschaft integrierten Lösung, die Prozesse in der mobilen und stationären Instandhaltung deutlich beschleunigt. Eine zentrale Herausforderung war es, komplexe SAP-PM-Prozesse (Plant Maintenance) so zu modellieren, dass sie sowohl auf mobilen Endgeräten (Responsive Design) als auch im Desktop-Einsatz benutzerfreundlich, performant und SAP-Standard-konform abgebildet werden.
Die Lösung entstand durch die enge Verzahnung von Frontend-Entwicklung mit Neptune DXP und SAPUI5 sowie einer optimierten Backend-Entwicklung in ABAP. Dabei wurden OData-Services entwickelt und für den Einsatz auf SAP HANA optimiert, um eine schnelle, transaktionssichere und wartungsfreundliche Datenbereitstellung zu gewährleisten.
Im Bereich UI/UX-Design wurden responsive UI-Komponenten, optimierte Navigationsstrukturen, kontextsensitive Aktionsmenüs und reduzierte Klickpfade umgesetzt. Dies führte zu einer verkürzten Bearbeitungszeit von Instandhaltungsaufträgen und einer höheren Anwenderakzeptanz.
Die Umsetzung erfolgte nach agilen Methoden (Scrum) in iterativen Sprints mit regelmäßigen Usability-Tests und enger Key-User-Einbindung. Dadurch konnte die Anwendung bedarfsgerecht, anwenderzentriert und zeitnah produktiv gesetzt werden.
Das Ergebnis ist eine zukunftsfähige, skalierbare und vollständig in SAP integrierte Instandhaltungsanwendung, die die Mobile Instandhaltung ebenso wie den Desktop-Einsatz abdeckt, dabei SAPUI5/Fiori-Standards erfüllt und eine deutliche Produktivitätssteigerung im operativen Betrieb ermöglicht.
Eingesetzte Technologien: Neptune SAP Edition, Neptune DXP, SAP Fiori, SAPUI5, OpenUI5, OData-Services, ABAP, ABAP OO, SAP HANA, SAP ERP, SAP PM, Responsive Design, UI/UX-Design, Clean Code, Agile Methoden, Scrum, Usability-Tests
Optimierung und Wartung von Custom-Transaktionen in SAP
Das Ziel des Projektes war es, die Stabilität und Funktionalität von maßgeschneiderten Transaktionen in SAP sicherzustellen. Dabei sollten vorhandene Fehler behoben und die Codebasis langfristig wartbar gehalten werden.
Ich habe im Rahmen des Projektes mehrere kundenspezifische SAP-Transaktionen mit Dynpros analysiert und optimiert. Dabei habe ich Fehler im Code identifiziert und behoben sowie die bestehende Logik überarbeitet, um die Transaktionen effizienter und benutzerfreundlicher zu gestalten. Zusätzlich habe ich die Datenbankzugriffe überprüft und optimiert, um die Performance zu verbessern.
Eine der zentralen Herausforderungen bestand darin, die bestehende, teilweise komplexe und wenig dokumentierte Codebasis zu verstehen. Zudem war es notwendig, die Änderungen so vorzunehmen, dass sie den laufenden Betrieb nicht beeinträchtigen und nahtlos in die bestehende SAP-Landschaft integriert werden konnten.
Ich habe mich intensiv in die bestehenden ABAP-Codestrukturen und Datenbankzugriffe eingearbeitet, um ein tiefes Verständnis der Systeme zu erlangen. Mithilfe von Debugging- und Performance-Analyse-Tools habe ich gezielt Schwachstellen identifiziert und behoben. Durch regelmäßige Abstimmungen mit dem Kunden sowie detaillierte Dokumentationen konnte ich sicherstellen, dass die Änderungen den Anforderungen entsprachen und für zukünftige Wartungsarbeiten nachvollziehbar blieben.
Eingesetzte Technologien: ABAP, SAP Dynpros, SAP GUI, SAP-Datenbank, Debugging-Tools, SAP Solution Manager
Named Entity Recognition an Beraterprofilen
Das Ziel des Projektes war die Entwicklung eines KI-Modells, das automatisiert Fähigkeiten aus Beraterprofilen extrahiert. Dies sollte eine präzise und effiziente Analyse der Profile ermöglichen und manuelle Arbeit reduzieren.
Ich habe einen Transformer-basierten Sprachmodellansatz von Hugging Face genutzt und das Modell mit spezifischen Daten trainiert. Dafür habe ich die Beraterprofile mit Python vorverarbeitet und die relevanten Daten eigenständig annotiert, um eine qualitativ hochwertige Trainingsbasis zu schaffen. Nach dem Training habe ich das Modell in einer selbst gehosteten Umgebung bereitgestellt und den Betrieb sowie die Trainingsprozesse kontinuierlich überwacht und optimiert.
Eine der größten Herausforderungen war die Erstellung einer hochwertigen, konsistenten und ausreichend umfangreichen Datenbasis für das Training. Zudem war es erforderlich, die Modell-Performance so zu optimieren, dass die Extraktion von Fähigkeiten auch in komplexen Profilen zuverlässig funktionierte. Die Überwachung und Skalierung des Modells in der selbst gehosteten Umgebung stellte ebenfalls eine anspruchsvolle Aufgabe dar.
Ich habe ein systematisches Vorgehen zur Annotation entwickelt, um qualitativ hochwertige Trainingsdaten zu gewährleisten. Das Modell wurde iterativ trainiert und getestet, wobei ich regelmäßig Metriken wie Präzision und Recall analysiert und die Hyperparameter des Modells optimiert habe. Durch die Nutzung von Tools zur Überwachung und die Einrichtung eines robusten Hosting-Setups konnte ich die Stabilität und Performance des Modells sicherstellen.
Eingesetzte Technologien: Python, Hugging Face Transformers, TensorFlow/PyTorch, selbst gehostete KI-Infrastruktur, Datenannotation, Modellüberwachung und -optimierung
Migration auf Advanced Variant Configuration (AVC) im Rahmen der S/4HANA-Transformation – Backend-Entwicklung mit Fokus auf ABAP OO und CDS
Im Rahmen der strategischen S/4HANA-Migration eines Industrieunternehmens wurde die Systemlandschaft von der klassischen Variantenkonfiguration (LO-VC) auf das zukunftsweisende Advanced Variant Configuration (AVC) umgestellt. In diesem Projekt war ich maßgeblich für die Backend-seitige Umsetzung zuständig.
Mein Fokus lag auf der Konzeption und Entwicklung performanter und wiederverwendbarer CDS-Views zur Bereitstellung konsistenter Datenmodelle entlang der neuen AVC-Architektur. Zusätzlich entwickelte ich robuste ABAP-OO-Klassen für den standardisierten Zugriff, die Validierung sowie die konsistente Pflege komplexer Konfigurationsdaten.
Dabei wurden Best Practices im Bereich Clean Code sowie testgetriebene Entwicklung (TDD) angewandt. Die Codequalität wurde durch umfassende ABAP Unit Tests sichergestellt, unter Verwendung moderner Tools wie CL_OSQL_TEST_ENVIRONMENT und Datenbank-Doubles zur Isolation der Testfälle.
Das Projekt zeichnete sich durch enge Zusammenarbeit mit dem Fachbereich, eine agile Projektstruktur sowie die stringente Ausrichtung auf SAP Best Practices und die SAP Activate Methodologie aus.
Eingesetzte Technologien: ABAP OO, CDS Views, RAP, S/4HANA, Advanced Variant Configuration (AVC), LO-VC, ABAP Unit, CL_OSQL_TEST_ENVIRONMENT, SAP Core Data Services, SAP Gateway, Testgetriebene Entwicklung, Clean Code, SQLScript, Datenbank-Doubles,
Neuentwicklung bestehender Neptune-Apps mit SAP UI5 und JavaScript für mobile und webbasierte Instandhaltung
Ziel dieses Projekts war es, bestehende, ursprünglich in Neptune entwickelte Instandhaltungsanwendungen vollständig in SAP UI5 neu zu implementieren, um eine zukunftssichere, erweiterbare und SAP-Standard-konforme Lösung bereitzustellen. Für den Kunden bedeutete dies eine deutlich verbesserte Performance, eine höhere Flexibilität bei künftigen Erweiterungen sowie eine langfristige technologische Investitionssicherheit.
Im Frontend entwickelte ich mit SAP UI5 und JavaScript eine moderne, Fiori-konforme und vollständig responsive Benutzeroberfläche, die sowohl für mobile Endgeräte als auch für den Desktop optimiert ist. Der Schwerpunkt lag auf einer klar strukturierten Navigation, reduzierten Klickpfaden und optimierten Benutzerinteraktionen, um die Bearbeitung von Instandhaltungsaufträgen so effizient und intuitiv wie möglich zu gestalten. Die UI5-Controller-Logik in JavaScript steuerte dynamische UI-Komponenten und ermöglichte eine flexible, kontextsensitive Datenanzeige über Data Binding und Formatter. Durch gezielte Anpassungen im XML-View-Layout sowie im CSS entstand eine Benutzeroberfläche, die auch komplexe Prozessschritte übersichtlich abbildete und die Nutzerführung deutlich verbesserte.
Die Backend-Anbindung realisierte ich über performante OData-Services, die in ABAP entwickelt und für den Einsatz auf SAP HANA optimiert wurden. Dadurch konnten Echtzeitdaten zu Aufträgen, Materialien und Statusmeldungen stabil und mit hoher Geschwindigkeit bereitgestellt werden. Die enge Verzahnung von JavaScript-gesteuertem UI5-Frontend und ABAP-Backend stellte sicher, dass die Anwendung nicht nur funktional, sondern auch skalierbar, wartungsfreundlich und performant ist.
Das Projekt wurde agil in mehreren Iterationen umgesetzt, begleitet von regelmäßigen Usability-Tests und direkter Zusammenarbeit mit Key-Usern aus den Fachbereichen. Durch diesen engen Austausch konnte die Anwendung passgenau auf die tatsächlichen Arbeitsabläufe des Kunden zugeschnitten werden, was bereits kurz nach dem Go-Live zu messbaren Produktivitätssteigerungen und einer deutlich höheren Anwenderakzeptanz führte.
Eingesetzte Technologien: SAP UI5, OpenUI5, JavaScript, SAP Fiori, XML-Views, Data Binding, Custom Controls, OData-Services, ABAP, ABAP OO, SAP HANA, SAP ERP, SAP PM, Responsive Design, UI/UX-Design, Clean Code, Agile Methoden, Scrum, Usability-Tests, Git