← Zurück

Entwicklung und Technologieberatung für Künstliche Intelligenz Implementierung von KI-Assistenten mit Unternehmensdaten

Profilbild

Daniel Alisch

(M.Sc.)

Persönliche Informationen

Studium
Wirtschaftsinformatik (FernUniversität Hagen)
Sprachkenntnisse
Deutsch Muttersprache
Englisch Gut


Know-How

Schwerpunkte
Beratung und Entwicklung von Künstlicher Intelligenz KI Individualentwicklung mit python, Node.js & SwiftUI Generative AI (ChatGPT, RAG) Entwicklung von Chat- und Voicebots Beratung und Implementierung von KI-Lösungen (Python, Node.js, SwiftUI) Einbindung von KI-Services in Unternehmensprozesse (z. B. über Cloud oder On-Premise)
Module und Programmiersprachen
SAP BP, SAP TRM, SAP MM, SAP Basis - Archivierung, SAP & nonSAP Monitoring
Technologien
Ubuntu, NGINX, SSL, AIX, Linux, Unix, Amazon Alexa Kit, SwiftUI, Swift, ChatGPT, OpenAI, Flask, Jira, Confluence, SCRUM, PRINCE2, Kanban, Azure Services, Azure AI Studio, Azure Copilot Studio, Microsoft Copilot, Azure Workflow, Azure PowerApps, Vector-Datenbanken, LangChain, HuggingFace, RAG, BERT, VAPI, Docker, Kubernetes, Git, CI/CD, REST APIs, GraphQL, TensorFlow, PyTorch, Keras, Pandas, scikit-learn, AWS, GCP, Jenkins, Ansible, Terraform, FastAPI, SQL, NoSQL, Bash, Perl, N8N

Ausgewählte Projekte

09/2013 - 11/2013
Hersteller von PBS Artikeln
Implementation einer Web Dynpro Applikation zur Mitarbeiterverwaltung
Ziel des Projektes war es, eine Web Dynpro Applikation zu erstellen, die eine einfache Verwaltung von Nutzern über eine Webapplikation ermöglichen soll. Grund der Entwicklung war, dass der Kunde seine Mitarbeiter über eine Web-Applikation im eigenen Intranet verwalten und ansehen wollte. Weiterhin war der Wunsch vorhanden mehrere Arbeitsplätze auf die Thin-Client Technologie umzustellen, was zur Folge hatte das auf die SAP GUI nicht mehr zurückgegriffen werden sollte. Die Web Dynpro Komponente des SAP Systems ermöglicht es Applikationen zu erzeugen, die im Web-Umfeld aufgerufen werden können. Nach der Ist-Analyse wurde auf dieses Konzept hingewiesen und im weiteren Verlauf des Projektes umgesetzt. Somit konnte der Wunsch über eine ausschließlich Intranet basiert Kommunikation geschaffen werden. Der Kunde konnte erfolgreich alle gewünschten Arbeitsplätze mit Thin-Clients ausstatten, die nun über das Intranet auf die neue Web Dynpro Applikation zugreifen.
Eingesetzte Technologien: SAP ERP 6.0 EHP 7, Web Dynpro, ABAP
11/2013 - 01/2014
Dienstleisterunternehmen im IT-Umfeld
Implementation eines RFC-fähigen Funktionsbaustein zum Auslesen und Ändern von Materialstammdaten über eine eigene Webapplikation
Ziel des Projektes war es, einen Funktionsbaustein in das SAP-Umfeld des Kunden zu implementieren, der es ermöglichen soll, veränderte Materialstammdaten eines bestimmten Zeitraums auszulesen und auf der Web-Applikation auszugeben. Weiterhin sollen Änderungen über die Web-Applikation auf der Datenbank möglich gemacht werden. Der Kunde wollte über eine eigene Web-Applikation sämtliche Produkte des eigenen SAP-Umfeldes ausgeben lassen die in einem bestimmten Zeitraum verändert wurden. Weiterhin sollten Änderung über die Web-Applikation auf dem SAP-System ermöglicht werden. Die Kommunikation lief über das XML-Format und der Schnittstelle des Bausteins. Dabei wurde die Eingabe validiert und anschließend in den Datenbanken des SAP-Systems verändert. Zusätzlich wurden die Änderungen mit Hilfe des SAP-Standard Funktionsbausteins protokolliert. Der Abgleich aller Produktdaten konnten mit Hilfe des neuen Funktionsbausteins über die Web-Applikation effizienter gestaltet werden.
Eingesetzte Technologien: SAP ERP 6.0 EHP 7, SAP Materialmanagement, ABAP
10/2014 - 01/2015
Finanzdienstleistung
Umsetzen eines neuen Berechtigungskonzepts
Für dieses Projekt wurde aus dem Systemübergreifenden Berechtigungskonzept ein Konzept für die umzusetzende Applikation abgeleitet. Dabei wurden in Zusammenarbeit mit dem Business Architekten und dem Applikations Architekten die Prozesse aufgenommen und die Business Rollen der Mitarbeiter identifiziert. Im Anschluss wurden über Berechtigungstraces die Werte für die Berechtigungsobjekte ermittelt und durch den Applikations Architekten ergänzt. Nachdem die Rollen erstellt waren, wurde die Testphase und der Go Live sowohl beratend, als auch aktiv unterstützt. Dabei wurde der HP Service Manager für Problem und Incidentmanagement genutzt.  
Eingesetzte Technologien: FI, CO, SAP ECC 6.0, PFCG, SU21, SU24, SUIM, ST01, ITIL, Change-, Incident- & Problemanagement, HP Service Manager
08/2014 - 10/2014
SAP Beratungsunternehmen
Business Rollen Manager / Katalog
Ziel des Projekts ist die Abbildung der im Fachbereich benötigten Business Rollen auf SAP-Systemrollen innerhalb des SAP Systems. Die Software ermöglicht sowohl das Management von Business Rollen als auch den einfachen Absprung in SAP Systemrollen um ggf. Detailänderungen durchzuführen. Die direkte Verwaltung und auch die Zuordnung von Business Rollen zu einem Benutzer erlauben das schnelle und effiziente Bearbeiten von Berechtigungsanforderungen. Die Pflege und das Management von Business Rollen direkt im SAP reduziert die Notwendigkeit von Nebenaufschreibungen außerhalb des Systems und vermeidet Inkonsistenzen im Berechtigungskonzept. Außerdem soll es möglich sein, Auswertungen zu erstellen mit der Zuordnung wer hat welche Business Rolle. Optional soll auch ein Workflow ermöglicht werden, in dem Benutzer aus einem Katalog Berechtigungen anfordern können.
Eingesetzte Technologien: SAP ERP 6.0 EHP 7, SAP Basis, PFCG, ABAP
03/2014 - 04/2014
PBS Hersteller
Konfiguration von SAP Fiori Apps
Im Rahmen eines Fiori Startups wollte der Kunde einige Fiori Apps aus unterschiedlichen Bereichen implementieren. Hierzu wurden in enger Zusammenarbeit mit der Fachabteilung das Szenario besprochen. Anschließend wurden die notwendigen Pakete installiert und konfiguriert. Dazu wurden das Fiori-Launchpad eingerichtet und anschließend die gewünschte App konfiguriert. Für den Datenaustausch wurden die ODATA-Services sowie die SICF-Services aktiviert. Anschließend wurden die Berechtigungsrollen den Usern zugewiesen, die mit den einzelnen Fiori Apps arbeiten sollen. Der Kunde hatte sich für die Central-Hub Lösung entschieden mit eigenem Gateway-System und entsprechendem ERP-Backend
Eingesetzte Technologien: SAP ECC 6.0 EhP7, Gateway, OData, Berechtigungen, PFCG, Fiori, Modul: MM, SD
01/2014 - 02/2014
Hersteller von PBS Artikeln
Implementierung eines RFC-Funktionsbausteins zum Upload von Materialstammdaten für einen Materialstammdatenpool
Ziel des Projekts ist es, Materialstammdaten aus dem eigenen SAP-System in einen Stammdatenpool exportieren zu können. Der Kunde war verpflichtet einen Materialstammdatenpool zu nutzen um eine standardisierte Datenhaltung für eigenen Kunden anzubieten. Viele Endkunden baten um eine standardisierte Schnittstelle. Um den Datenpool mit den entsprechenden Daten zu versorgen, war es nötig, eine Analyse der wichtigsten Strukturen aufzustellen und zu bedienen. Die Lösung war ein RFC-fähiger Funktionsbaustein der über das XML-Format mit dem Datenpool kommunizieren konnte. Dabei wurden alle wichtigen Daten aus den Stammdatentabellen MARA, MAKT, MARM und weitere ausgelesen und an den Stammdatenpool versandt. Nach der Einführung der Schnittstelle war eine schnelle und standardisierte Datenübertragung gegeben.
Eingesetzte Technologien: SAP ERP 6.0 EHP 7, SAP Materialmanagement, ABAP
04/2014 - 08/2014
Hersteller für PBS Artikel
Erstellen eines Reports zur systematischen Verwaltung von archivierbaren Daten im SAP Umfeld
Der Kunde nutzt im Bereich SAP Basis für ihre Archivierung im SAP Umfeld einen externen Archivserver von IXOS, der einen begrenzten Speicherplatz aufweist. Zu den Archivierungsarten gehörten Drucklisten, Archivdateien und Dokumente die während der Geschäftsprozesse des Kunden angefallen sind. Nach rechtlichen Vorgaben müssen diese Daten min. 10 Jahre gesichert/archiviert werden. Aufgrund des überzogenen Speicherplatzes auf dem Archivserver, war es nötig, einen Report mit Dynpros und Subscreens zu erstellen, die es erlauben, alle nicht mehr zu speichernden Daten in den einzelnen Content Repositories auflistet und löscht. Nachdem der Kunde diesen Report eingesetzt hatte, minimierte sich der genutzte Speicherplatz des Archivservers. Somit konnte der zusätzliche finanzielle Aufwand vermindert werden.
Eingesetzte Technologien: SAP ERP 6.0, SAP Basis, ArchiveLink, Archivserver von Ixos, ABAP, Excel
02/2014 - 03/2014
Hersteller von PBS Artikeln
Technologiewechsel SAPscript auf Adobe Forms bei einem Papeterie, Büro und Schreibwaren Unternehmen
Einer unser Großkunden nutzt SAPscript seit Jahrzehnten für seine Formulare zur Druckausgabe. Im Rahmen einer Umstrukturierung im Unternehmen wurden auch die repräsentativen Kundenformulare betrachtet und von der Geschäftsführung die Entscheidung getroffen, dass die Ausgabe der Formulare vom Layout her nicht dem entsprachen, wie sich das Unternehmen gegenüber seinen Kunden darstellen will. Ein Technologiewechsel von SAPscript zu SAP Interactive Forms by Adobe mit dem Blick auf eine langfristige IT-Strategie wurde beschlossen.   Meine Aufgaben im Projekt umfassten den Layoutentwurf, Zentralisierung der Datenerfassung für die Druckprogramme sowie die Anpassungen im Customizing, um künftig die Adobe Formulare auszugeben.   Die technische Umsetzung der Anforderungen habe ich für die Bestellanforderung umgesetzt. Hierzu habe ich im Customizing statt des SAPscript-Formulars das Adobe Formular inkl. dem Adobe Druckprogramm eingetragen.   Schwierigkeiten hat die Analyse der Standard-Druckprogramme verursacht, da hier viel Businesslogik enthalten war, welche seit mehreren Jahren nicht mehr benötigt wird. Diese kundenindividuellen Entwicklungen habe ich aufgelistet und in einem Abstimmungstermin mit dem Fachbereich und dem IT-Leiter soweit eingegrenzt, dass das neue Formular wirklich nur die Funktionen enthält, welche auch benötigt werden. Somit konnte das Druckprogramm von knapp 4000 Zeilen Code auf gerade einmal 1500 Zeilen reduziert werden, was die Wartung und Weiterentwicklung vereinfacht.   Das Design und die Ausgabe entsprechen nun den Kundenanforderungen und sind wieder repräsentativ für das Unternehmen. Der Support für SAPscript sowie Smartforms wurde von der SAP bereits abgekündigt und der Kunde ist mit dem Technologiewechsel für die kommenden Jahrzehnte gerüstet.
Eingesetzte Technologien: ABAP, ABAP OO, SAPscript, SAP Interactive Forms by Adobe, UML, Codeinspector, Rapid Prototyping, diverse Designpattern
09/2015 - 11/2015
Finanzdienstleistung
Stabiliserungsmaßnahme im Bereich des Archivierungsserver
Aufgrund mehrerer Fehler im Bereich des Archivserver war es notwendig eine Taskforce zur Behebung des Fehlers einzubinden. Hierbei war meine Aufgabe teilweise die Koordination sowie den technischen Bereich der Archivierung zu unterstützen. Hierbei kam der Fehler auf, dass der lesende Zugriff weniger Dokumente aus dem Fachbereich nicht möglich war. Im Rahmen der Fehlerbehebung wurden Prozesse detailliert dargestellt, Netzwerk- und Applikationsbereiche definiert.
Eingesetzte Technologien: AIX LPAR, Windows Server 2003, AIX & Powershell Scripting, OpenText Archiving Suite, Tomcat,
12/2015 - 08/2017
Finanzdienstleister
Optimierung & Stabilisierung der Archivierungspipeline
Im Rahmen der Stabilisierung der OpenText-Archivpipeline war es Wunsch des Kunden wichtige Messpunkte zu finden, für die ein automatischen Monitoring erstellt werden sollte. Unter Verwendung von AIX Shell Skripten und der AIX Crontab wird aktuell jeder Messpunkt automatisch analysiert. Weiterhin wurden im Rahmen des Alertings alle erstellten Messpunkte in die Applikation HP SiteScope eingebunden. Falls ein Messpunkt die definierten Schwellwerte überschreitet, wird nun mittels E-Mail oder Ticket proaktiv auf den Fehler hingewiesen. Mit Hilfe der Maßnahme konnte die Stabilität und Reaktionszeit des Archivierungsprozesses deutlich verbessert werden.
Eingesetzte Technologien: OpenText Archiving Suite. AIX Shell Scripting, HP SiteScope
08/2015 - 08/2015
Finanzdienstleistung
Stabilisierungsmaßnahme im Bereich der Pipeline der Landesgesellschaft England
Die eingesetzte OpenText Archivierungstechnologie der Landesgesellschaft England wies erhebliche Performace- und Stabilitätsprobleme auf. Während des Projektes war es wichtig die auftretenden Probleme zu identifizieren, analysieren und lösen. Die gefundenen Probleme konnten identifiziert und gelöst werden. Seit Ende des Projektes läuft die Archivpipeline deutlich performanter und stabiler.
Eingesetzte Technologien: OpenText Archivierungstechnologie( OT Pipeline, OT , SAP ERP, HP Service Manager, Microsoft Office, ITIL, Incident-, Problem- und Changemanagement,
01/2015 - 01/2015
SAP Beratungsunternehmen
Update des SAP Enterprise Portal
Der Kunde hat das Ziel, sein SAP Enterprise Portal auf den aktuellsten Stand zu bringen. Hintergrund des Projektes war es, die aktuellen Funktionen des neuen SAP Enterprise Portals testen und nutzen zu können. Während des Updates war es nötig veraltete Lizenzen in den eingesetzten Solution Manager zu aktualisieren.
Eingesetzte Technologien: VM, SAP Lizenzverwaltung, SAP Update Manager
01/2015 - 01/2015
Industriekonzern
Umgestaltung eines AIF Formulars
Der Kunde hatte den Bedarf ein vorhandenes Adobe Interactive Formular nach seinen Wünschen ändern zu lassen. Meine Aufgabe war es, dass neue Konzept im eingesetzten AIF anzuwenden und die Änderungen am Formular vorzunehmen. Dabei wurde im Report, welcher die Daten für die Ausgabe zusammengestellt hat, einzelne ALV-Feldnamen verändert und Formular-seitig ausgeblendet. Als Ergebnis hat der Kunde ein auf seine Wünsche angepasstes Adobe Interactive Form erhalten, welcher einen dynamischen Aufbau in die Breite sowie Höhe ermöglicht.
Eingesetzte Technologien: SAP ERP ECC 6.0, AIF, ABAP, DDIC
02/2015 - 02/2015
Produzierende Industrie
Abbildung eines Workflowgenehmigunsprozesses in einer SAPUI5 Umgebung
Der Kunde hatte den Wunsch den eingesetzten Investitionsgenehmigungsworkflow einer WebDynpro Applikation in einer SAPUI5 Applikation abzubilden. Meine Aufgabe im Projekt war, das vorhandene Konzept umzusetzen. Hierbei habe ich auf dem Entwicklungssystem des Kunden die gewünschten OData-Services erstellt und die Kommunikation zwischen dem Entwicklungs- und dem Gatewaysystem hergestellt. Die SAPUI5 Applikation wurde mit JavaScript programmiert und stellt sich als SplitApp dar. Dabei besteht die Applikation aus zwei Bereichen. Der Bereich stellt eine Übersicht aller Genehmigungen dar, welcher sich je nach Position des mobilen Devices ein- bzw- ausblendet. Der zweite Bereich gibt eine detaillierte Sicht der selektierten Genehmigung wieder. In diesem wollte der Kunde alle Kopfdaten des Workitems, eine Übersicht aller Genehmigungen, Kommentare der Genehmigung sowie Anhänge, welche sich per Klick öffnen lassen, darstellen. Das Ergebnis des Projektes war, das der Kunde mit Hilfe der SAPUI5 Applikation über mobile Devices wie ein Apple iPad, vorhandene Genehmigungen genehmigen, ablehnen, hinterfragen oder kommentieren kann.
Eingesetzte Technologien: EDI Eclipse, SAPUI5, OData Services, JavaScript, HTML5, ABAP, DDIC, NetWeaver Gateway
03/2015 - 09/2015
Finanzdienstleistung
Bereinigung der OpenText Document Pipeline
Die eingesetzte Archivierungstechnologie des Kunden wies Probleme auf. Dies führte dazu, dass die zu archivierenden Dokumente des Unternehmens nicht verarbeitet wurden. Lösung des Problem war die Kategorisierung, Auflistung, Analyse sowie Bereinigung aller Fehlerfälle auf der Archiv Pipeline. Zur Vereinfachung der Analyse wurde ein automatisches Auswertungsskript in Perl geschrieben, welches CSV Dateien als Ergebnis exportiert hat. Die erstellten Dokumente wurden anschließend über Visual Basic Skript in Excel zur erleichterten Übersicht extrahiert. Im gesamten Projekt wurden weitere Fehler rund um die Archivierung aufgelistet und anschließend bereinigt. Neue Fehlerfälle wurden aufgezeigt und anschließend in Abstimmung mit den Fachbereichen und der Entwicklung korrigiert. Zusätzlich konnte die gleiche Archivierungstechnologie der Englischen Landesgesellschaft hinsichtlich Performance und Stabilität verbessert werden. Im gesamten Projekt wurde für Problem-, Change- und Incidentmanagement das Produkt HP Service Manager genutzt.
Eingesetzte Technologien: SAP ERP, OpenText Archive Suite (Document Pipeline, Document Pipeline Information Tool), Microsoft Office Suite, Perl, Shell Script,Visual Basic Skript, DDIC, ITIL, Incident-, Problem- & Changemanagement, HP Service Manager, Linux, AIX
07/2017 - 10/2018
IT Dienstleistung
Koordination - IT Service Operation
Im Bereich ITIL - Service Transition und Service Operation wurde die Koordination des Incident-, Problem- und Change-Managements an unser Team übergeben. In diesem Projekt übernahm Daniel die Verantwortung für die Optimierung der Störungsbearbeitung einer besonders anfälligen Applikation. Zu seinen Aufgaben gehörte es, die Effizienz der Störungsbearbeitung zu steigern und die Reaktionszeiten zu verkürzen. Zudem koordinierte er das Change Management im Rahmen des Releasemanagements und stellte sicher, dass alle Änderungen reibungslos und ohne negative Auswirkungen auf den laufenden Betrieb umgesetzt wurden. Durch seine systematische Herangehensweise und sein ausgeprägtes Prozessverständnis konnte Daniel signifikante Verbesserungen in der Servicequalität erzielen.
Eingesetzte Technologien: HP Service Manager, ITIL, Service Operation, Service Transition, angepasste PRINCE2 Methodik, HOST Umfeld
01/2017 - 07/2018
Finanzdienstleister
Unterstützung interner Kundenprojekte
Alle internen Kundenprojekte werden durch Daniel Alisch gemeinsam mit einem Stellvertreter als Paten betreut, der als Single Point of Contact fungiert. Die Planung, Durchführung und Überwachung der jeweiligen Arbeitspakete sind essenzielle Aufgaben in jedem Projekt. Darüber hinaus ist die Kommunikation mit allen Stakeholdern und eine umfassende Dokumentation im LCM-Umfeld von zentraler Bedeutung. Interne Kundenprojekte: - Einbindung des Retentionmanagements in den Archivierungsprozess: Daniel leitete die Integration des Retentionmanagements, um die Effizienz und Compliance des Archivierungsprozesses zu verbessern. - Erstellen einer iOS ScanApp im Archivumfeld: Entwicklung und Einführung einer iOS-Anwendung zur Optimierung von Scan-Prozessen im Archivbereich. - Einführung neuer Archivierungsszenarien: Implementierung innovativer Archivierungslösungen zur Steigerung der Datenverfügbarkeit und -sicherheit. - Erstellen einer Webapplikation zum Flottenmanagement: Entwicklung einer Webanwendung zur effektiven Verwaltung und Optimierung der Fahrzeugflotte. - Releasewechsel aller Archivapplikationen: Koordination und Durchführung von Releasewechseln, um die Aktualität und Funktionalität der Archivsysteme sicherzustellen.
Eingesetzte Technologien: Prince 2, LCM Dokumentationsverfahren, Organisation von Arbeitspaketen
10/2018 - 12/2018
Finanz IT Dienstleister
Einbindung einer Umbrella Monitoringlösung
In der bisherigen Monitoringlandschaft wurden sowohl eingekaufte als auch selbstentwickelte Monitoringlösungen eingesetzt. Dies führte zu einem Mangel an standardisierten Prozessen. Um eine einheitliche Lösung zu schaffen, wurde entschieden, eine Umbrella-Komponente zu integrieren, die als Schnittstelle zu den bestehenden Monitoringlösungen dient. Dadurch konnte eine homogene Landschaft für zukünftige End-to-End-Monitore geschaffen werden. In diesem Projekt war Daniel verantwortlich für die Erstellung der Aufgabenpakete, die Durchführung regelmäßiger Meetings und Abstimmungen sowie das Stakeholder-Management. Durch seine strukturierte Herangehensweise und sein Kommunikationsgeschick konnte eine nahtlose Integration und ein reibungsloser Projektablauf gewährleistet werden. Daniel Alisch verbindet tiefgehendes technisches Wissen mit praktischer Projekterfahrung und bietet umfassende Beratungsleistungen, die auf die spezifischen Bedürfnisse seiner Kunden zugeschnitten sind. Profitieren Sie von seiner Kompetenz und Erfahrung für Ihre SAP-Projekte.
Eingesetzte Technologien: PRINCE2, ITIL, LCM-Dokumentation, HP Service Manager
02/2019 - 04/2024
Automobil, Finanzdienstleistung
Teamlead im IT Service, Koordination und operativer Support
Als Cluster Lead im Application Management Service trage ich die Verantwortung für die effektive Verwaltung und Bereitstellung von Anwendungen. Meine Rolle umfasst eine Vielzahl von Aufgaben, die darauf abzielen, den reibungslosen Betrieb und die kontinuierliche Optimierung der IT-Services sicherzustellen: Teamführung und Koordination: Ich leite und koordiniere ein Team von Application Management Specialists / Analysten, überwache die Arbeitsbelastung, verteile Aufgaben und sorge dafür, dass die definierten Ziele erreicht werden. Service-Level-Management: Ich gewährleiste die Einhaltung der Service-Level-Agreements (SLAs) und überwache die Leistung der Anwendungen, um sicherzustellen, dass sie den vereinbarten Standards entsprechen. Incident- und Problemmanagement: Ich koordiniere die Behebung von Incidents und Problemen im Zusammenhang mit Anwendungen, analysiere auftretende Probleme und leite sie an die entsprechenden Teams weiter. Zudem unterstütze ich bei der Entwicklung langfristiger Lösungen, um wiederkehrende Probleme zu vermeiden. Change Management: Ich bin verantwortlich für das Change Management im Zusammenhang mit Anwendungen, einschließlich Planung, Koordination und Implementierung von Änderungen gemäß den Richtlinien und Prozessen des Change Managements. Zusätzlich übernehme ich Aufgaben des Operativen Release Management und sorge dafür, dass Realses rechtzeitig und vollständig angemeldet werden. Kundenkommunikation und Stakeholder-Management: Ich pflege eine effektive Kommunikation mit dem Kunden, Anwendern und anderen Stakeholdern, bin Ansprechpartner für Anfragen, Feedback und Problemlösungen im Zusammenhang mit Anwendungen. Qualitätskontrolle und Verbesserung: Regelmäßige Qualitätskontrollen gehören zu meinen Aufgaben, um sicherzustellen, dass die Analysen und Dokumentationen den vereinbarten Qualitätsstandards entsprechen. Ich identifiziere Verbesserungspotenziale und leite kontinuierliche Verbesserungsmaßnahmen ein. Transition: Im Bereich der Transition koordiniere ich die Integration neuer Applikationen in den bestehende Servicevertrag und den laufenden Betrieb. Meine Aufgabe besteht darin, sicherzustellen, dass die Übernahme neuer Anwendungen reibungslos und effizient erfolgt. Dies umfasst die Zusammenarbeit mit den beteiligten Teams, die Überprüfung der Vertragsbedingungen und die Planung von Schulungen. Effizienzsteigerung durch neue Technologien: Meine Aufgabe ist sicherzustellen, dass der Service nachhaltig und stabil lauffähig ist. Dafür ist es nötig, immer neue Technologien und Prozesse zu implementieren, die einen Mehrwert für den Service darstellen. Unter anderem habe ich dabei unterstützt diverse Automatisierungen via RPA / PowerAutomate zu realisieren und Optimierungen durch effiziente, KI-basierte Datenanalysemodelle voranzutreiben. In meiner Rolle als Cluster Lead ist es mein Ziel, die effiziente, zuverlässige und zukunftsorientierte Verwaltung von Anwendungen sicherzustellen, damit sie den Geschäftsanforderungen entsprechen und einen reibungslosen Betrieb gewährleisten.
Eingesetzte Technologien: SAP BP, SAP TRM, SIRON AML/KYC, MicroFocus Service Manager, UC4 Automic, LINUX, Unix, Ansible Tower, HP ALM, Jira, Confluence, MS Office, PowerAutomate
10/2023 - 11/2023
IT Dienstleistung
Integration eines Alexa Skills in die Mail- und Terminfunktion von Google
Das Ziel dieses Projektes war die nahtlose Einbindung eines sprachgesteuerten Endgerätes wie Alexa, um die handsfree Steuerung von Mail- und Terminverwaltungsfunktionen über das Smartphone zu ermöglichen. Hierzu wurde ein Alexa Skill entwickelt, der eine direkte Anbindung an das Google-Postfach ermöglichte, um die gewünschten Funktionen mithilfe der eigenen Stimme zu verwalten. Durch die Integration von ChatGPT konnten Mails zusammengefasst und schnell beantwortet werden. Eine besondere Herausforderung bestand darin, die Balance zwischen den Wartezeiten eines Alexa Skills und den Generierungszeiten langer Texte von OpenAI zu finden. Durch die Anpassung der Einstellungen konnte eine effiziente Lösung implementiert werden. In meiner Rolle als IT-Berater habe ich maßgeblich an der Konzeptionierung und Umsetzung des Projektes gearbeitet. Dies umfasste die Auswahl und Integration der benötigten Technologien sowie die Entwicklung der Schnittstellen zwischen Alexa, OpenAI und den Google-APIs für Kalender, E-Mail und Aufgabenverwaltung. Für die Umsetzung wurden verschiedene Technologien verwendet, darunter AWS für die Cloud-Infrastruktur, das Alexa Developer Kit für die Entwicklung des Skills, OpenAI für die Integration von ChatGPT, sowie XML und JSON für die Datenübertragung. Die Programmierung erfolgte mit NODE.js, um eine effiziente und skalierbare Lösung zu gewährleisten. Durch die erfolgreiche Implementierung des Alexa Skills kann der Kunde nun seine Mails und Termine bequem und intuitiv über Alexa verwalten. Diese Integration bietet eine innovative und benutzerfreundliche Lösung für die alltägliche Arbeitsorganisation und trägt zur Steigerung der Effizienz bei.
Eingesetzte Technologien: AWS, Alexa DEV Kit, OpenAI, ChatGPT, XML, JSON, NODE.js, Google API (Calender, Mail, Task)
09/2024 - 10/2024
null
Workshop: Integration von MediaWiki mit lokaler LLM und Microsoft Teams
In diesem Workshop wurde ein System entwickelt, das MediaWiki mit einer lokalen LLM (Large Language Model) und Microsoft Teams integriert. Ziel war es, eine Middleware bereitzustellen, die es ermöglicht, über Microsoft Teams Anfragen an MediaWiki zu stellen und diese Anfragen durch eine lokale LLM verarbeiten zu lassen. Diese Lösung ermöglicht es Nutzern, direkt in Teams auf Wissensdatenbanken zuzugreifen und von den Vorteilen einer lokalen LLM zu profitieren, um präzisere und kontextsensitive Antworten zu erhalten. Eine zentrale Herausforderung bestand in der Bereitstellung einer Middleware, die HTTPS-fähig ist, um die Kommunikation zwischen Microsoft Teams und der lokalen LLM zu sichern. Die Middleware wurde so konfiguriert, dass sie nahtlos mit MediaWiki interagiert und Anfragen durch die lokale LLM verarbeitet. Die Integration mit Microsoft Teams wurde durch die Verwendung von Microsoft Copilot, die Erstellung von Themen und die Implementierung von Flows realisiert. In meiner Rolle habe ich den Workshop konzipiert und durchgeführt, einschließlich der Aufsetzung der lokalen LLM, der Entwicklung und Bereitstellung der Middleware, die den Zugang zu MediaWiki ermöglicht, und der Integration des Frontends in Microsoft Teams. Zusätzlich war ich für die Implementierung der HTTPS-Verschlüsselung verantwortlich, um eine sichere Kommunikation zu gewährleisten.
Eingesetzte Technologien: MediaWiki API zur Abfrage und Bearbeitung von Inhalten Lokale LLM (LLaMA) zur Verarbeitung von Anfragen in der Middleware Flask zur Entwicklung der Middleware und Bereitstellung als HTTPS-Service Microsoft Teams als Frontend zur Integration mit der Middleware Microsoft Copilot zur Erstellung von Themen und Flows innerhalb von Teams Let's Encrypt zur Ausstellung und Verwaltung von SSL-Zertifikaten
03/2024 - 06/2024
IT Dienstleistungen
Erstellen einer Projektmanagement App mit Anbindung an ChatGPT
Das Ziel dieses Projektes war die Entwicklung einer iOS-App, die im Projektkontext die Nutzung von ChatGPT zur Projektverwaltung ermöglicht. Dabei wurde ChatGPT verwendet, um auf Anfrage Projektinformationen wie Meilensteine, Aufgaben und Unteraufgaben in Form von JSON-Strukturen zu generieren. Die Herausforderung bestand darin, eine nahtlose Integration von ChatGPT in die App zu gewährleisten und gleichzeitig eine benutzerfreundliche Oberfläche bereitzustellen. In meiner Rolle als IT-Berater war ich für die Konzeptionierung und Implementierung der App verantwortlich. Dies umfasste die Auswahl der geeigneten Technologien sowie die Zusammenarbeit mit dem Entwicklungsteam, um die Anforderungen des Kunden zu erfüllen. Für die Umsetzung wurden verschiedene Technologien eingesetzt, darunter Flask für die Entwicklung der Backend-Infrastruktur, Python für die Programmierung von Backend-Logik, und der Apache Webserver für die Bereitstellung der Anwendung auf einem Windows Server 11. Die Benutzeroberfläche wurde mithilfe von SwiftUI in Xcode erstellt. Die Integration von ChatGPT wurde über die OpenAI API realisiert, wobei sowohl GPT als auch LLM für die Generierung von Projektinformationen verwendet wurden. Die Kommunikation zwischen der App und dem ChatGPT-Modell erfolgte über JSON.
Eingesetzte Technologien: Flask, Windows Server 11, Python, Apache Webserver, SwiftUI, OpenAI API, Xcode, JSON, GPT, LLM, SCRUM, Kanban
01/2024 - 01/2024
IT Dienstleistung
Vereinfachung der Testdatenerstellung mittels ChatGPT
Im Rahmen dieses Projektes lag das Ziel in der Vereinfachung der Testdatengenerierung durch die Erstellung von JSON-Dateien. Als Lösung wurde ein GPT entwickelt, der ein standardisiertes Vorgehen samt Anleitung erhielt. Die generierten Testdaten wurden dann an die API der Applikation gesendet und die entsprechenden Testergebnisse automatisch dokumentiert. Eine Herausforderung bestand darin, die korrekte Einhaltung der JSON-Strukturen sicherzustellen, um eine einfache Integration in das Testsystem zu ermöglichen. Eine effiziente Parametrisierung und klare Vorgaben zur Strukturierung erwiesen sich als die Schlüssel zur Lösung dieser Herausforderung. Meine Verantwortlichkeiten umfassten die Konzeptionierung und Durchführung des Projekts in enger Abstimmung mit dem Kunden.
Eingesetzte Technologien: JSON, OpenAI GPT Generator, SSML, NODE.js sowie LLM und GPT.
02/2024 - 02/2024
IT Dienstleistungen
Trendanalyse und Erstellung von Vorlagen unter Zuhilfenahme von LLM ChatGPT
Das Ziel dieses Projektes war die Erstellung eines unterstützenden Skripts für die Marketingabteilung, um die Content-Erstellung zu erleichtern. Dabei wurde ein Python-Skript entwickelt, das automatisiert relevante Trendthemen ausliest und in einer Datenbank speichert. Anschließend wird ein weiteres Python-Skript gestartet, das basierend auf der zuvor erstellten Trendanalyse Content-Ideen generiert. Beide Skripte nutzen die OpenAI LLM GPT, um entsprechenden Content vorzubereiten. Eine zentrale Herausforderung bestand darin, eine zuverlässige Trendanalyse zu implementieren und die generierten Inhalte in einer nutzbaren Form bereitzustellen. In meiner Rolle als IT-Berater war ich für die Konzeptionierung und Umsetzung der Skripte verantwortlich. Dies umfasste die Auswahl der geeigneten Technologien sowie die Entwicklung und Implementierung der Funktionalitäten. Für die Umsetzung wurden verschiedene Technologien eingesetzt. Python wurde für die Entwicklung der Skripte verwendet, während die OpenAI API für die Integration des LLM GPT-Modells genutzt wurde. Die Datenbank zur Speicherung der Trendanalysen wurde mithilfe von MariaDB verwaltet, wobei SQL für die Datenmanipulation und -abfrage eingesetzt wurde. Die Skripte wurden auf einem LINUX Server mit Debian-Betriebssystem ausgeführt und mittels Crontab automatisiert gestartet.
Eingesetzte Technologien: Python, OpenAI API, MariaDB, SQL, LINUX Server Debian, Crontab, WordPress
06/2024 - 06/2024
IT Dienstleistungen
Automatisierte Erstellung von Projektdaten unter Zuhilfenahme von OpenAI ChatGPT
Das Ziel dieses Projektes bestand in der automatisierten Erstellung von Projektdaten mithilfe von OpenAI ChatGPT. Hierbei wurde ein feintrainiertes GPT entwickelt, das basierend auf wenigen Informationen einen einheitlichen und skalierbaren Testdatenoutput generierte, um die Erstellung generischer Informationen für verschiedene Apps zu vereinfachen. Eine Herausforderung bestand darin, die Datenstrukturen einheitlich zu erstellen und dabei die verschiedenen Datentypen zu berücksichtigen. Dies wurde durch die Verwendung einfacher Vorgaben und Strukturdefinitionen ermöglicht. In meiner Rolle habe ich die Konzeptionierung und Implementierung des Projektes durchgeführt, wobei ich eng mit dem Entwicklungsteam zusammenarbeitete, um sicherzustellen, dass die Anforderungen des Kunden erfüllt wurden. Für die Umsetzung wurden folgende Technologien eingesetzt: Node.js für die Entwicklung der Backend-Infrastruktur, Xcode für die Entwicklung von Schnittstellen, OpenAI für die Integration des ChatGPT, sowie LLM und GPT für die feinabgestimmte Trainierung des Modells. Die Daten wurden in einer MariaDB-Datenbank gespeichert und abgerufen, wobei SQL für die Datenmanipulation und -abfrage verwendet wurde.
Eingesetzte Technologien: Node.js, Xcode, OpenAI, LLM, GPT, JSON, MariaDB, SQL, Prince2, Kanban
09/2024 - 09/2024
null
Anbindung von Microsoft Teams an Confluence
Das Ziel dieses Projektes war die Integration von Microsoft Teams mit Confluence, um eine effiziente und automatisierte Kommunikation zwischen beiden Plattformen zu ermöglichen. Die Integration ermöglichte es den Nutzern, direkt in Microsoft Teams auf Confluence-Inhalte zuzugreifen ohne die Teams-Anwendung verlassen zu müssen. Eine der Herausforderungen bestand darin, eine reibungslose Schnittstelle zu schaffen, die sowohl die Echtzeit-Datenübertragung zwischen Teams und Confluence ermöglicht als auch die Sicherheits- und Zugriffskontrollen von Confluence berücksichtigt. Dies wurde durch die Entwicklung einer Middleware-Lösung erreicht, die API-Aufrufe zwischen den beiden Plattformen orchestriert und Nutzern die direkte Interaktion mit den Inhalten erlaubt. In meiner Rolle habe ich die Konzeption, Entwicklung und Implementierung der Middleware übernommen. Für die Umsetzung wurden folgende Technologien eingesetzt: Flask für die Entwicklung der Middleware zur Verarbeitung und Weiterleitung der API-Aufrufe Microsoft Workflows & Microsoft Copilot zur Integration mit Microsoft Teams Confluence REST API zur Abfrage und Manipulation der Inhalte in Confluence Python zur Entwicklung der Backend-Logik und der Datenverarbeitung OAuth 2.0 zur sicheren Authentifizierung und Autorisierung der Benutzerzugriffe.
Eingesetzte Technologien: null
08/2024 - 08/2024
null
Integration von Microsoft Teams mit MediaWiki
Ziel dieses Projektes war die nahtlose Integration von Microsoft Teams mit MediaWiki, um den Nutzern eine direkte Suche und Bearbeitung von MediaWiki-Inhalten aus der Teams-Anwendung heraus zu ermöglichen. Diese Lösung vereinfacht den Zugriff auf unternehmensinterne Wissensdatenbanken und optimiert die Zusammenarbeit durch die Bereitstellung relevanter Informationen in Echtzeit. Eine zentrale Herausforderung bestand darin, die sichere Kommunikation zwischen Teams und MediaWiki zu gewährleisten, insbesondere in Bezug auf die Verwaltung von SSL-Zertifikaten und das DNS-Routing. Diese wurde durch die Implementierung von SSL-Zertifikaten für sichere HTTPS-Verbindungen und die Konfiguration von DNS-Einträgen gelöst, um eine zuverlässige und vertrauenswürdige Verbindung herzustellen. Ein wesentlicher Bestandteil des Projekts war die Implementierung einer Logik, die mithilfe einer LLM (Large Language Model) entscheiden konnte, ob ein neuer Beitrag in MediaWiki angelegt werden soll. Diese Logik ermöglichte es, Anfragen automatisch zu analysieren und zu bewerten, ob bereits ausreichende Informationen vorhanden sind oder ob neue Inhalte generiert werden müssen. Bei Bedarf wurden neue Beiträge entweder mithilfe von OpenAI oder einer lokal gehosteten LLM erstellt. In meiner Rolle habe ich das gesamte Projektmanagement übernommen, einschließlich der Einrichtung und Verwaltung der SSL-Zertifikate, der DNS-Konfiguration und der Entwicklung der Middleware, die die API-Kommunikation zwischen Microsoft Teams und MediaWiki ermöglicht. Zusätzlich arbeitete ich eng mit dem IT-Team zusammen, um sicherzustellen, dass alle Sicherheits- und Compliance-Anforderungen erfüllt werden.
Eingesetzte Technologien: - Flask zur Entwicklung der Middleware für die API-Kommunikation - Microsoft Graph API zur Integration mit Microsoft Teams - MediaWiki API zur Abfrage und Verwaltung von Inhalten in MediaWiki - Python zur Entwicklung der Backend-Logik - LLM (Large Language Model) - OpenAI und lokale LLM - SSL-Zertifikate und DNS-Konfiguration - Let's Encrypt
10/2024 - 10/2024
IT Dienstleistung
Einsatz einer Sentiment Analyse - Automatisierte Standortsuche und Bewertungsauswertung mit KI
In diesem Projekt wurde ein Tool entwickelt, das Standorte eines Unternehmens mithilfe der Google Places API automatisiert durchsucht und die neuesten Kundenbewertungen analysiert. Ziel war es, die Standorte in einer Datenbank zu speichern und die neuesten Bewertungen pro Standort zu bewerten. Das Tool filtert irrelevante Orte automatisch aus, indem der Firmenname als Suchkriterium genutzt wird. Eine zentrale Herausforderung bestand darin, die Treffergenauigkeit der API zu verbessern, da auch alternative Standorte angezeigt wurden. Zusätzlich werden die fünf neuesten Bewertungen pro Standort abgerufen und mithilfe von ChatGPT-4o analysiert, um die Inhalte in „positiv“, „neutral“ oder „negativ“ einzuordnen. Zudem erstellt die KI eine automatische Zusammenfassung und Handlungsempfehlung für jeden Standort. In meiner Rolle habe ich das Tool konzipiert und entwickelt, von der Standortsuche über die Analyse der Bewertungen bis hin zur Erstellung von Handlungsempfehlungen. Die Lösung wurde in Python implementiert und nutzt eine MySQL-Datenbank zur Speicherung der Orte und Bewertungen.
Eingesetzte Technologien: Google Places API zur Standortsuche und Abfrage von Kundenbewertungen Python für die Backend-Logik MySQL zur Speicherung von Standorten und Bewertungen ChatGPT-4o zur Analyse und Erstellung von Handlungsempfehlungen
10/2024 - 10/2024
Gesundheitswesen
Workshop: Sentiment-Analyse – Statusauswahl & Analyse von Kundenbewertungen mittels KI
In diesem Workshop ging es darum, den Teilnehmern die Grundlagen und praktische Anwendung der Sentiment-Analyse mit Hilfe von Künstlicher Intelligenz (KI) zu vermitteln. Ziel war es, die Teilnehmer in die Lage zu versetzen, Kundenbewertungen automatisch zu analysieren, Sentiments (Stimmungen) zu erkennen und basierend darauf Handlungsoptionen abzuleiten. Der Workshop begann mit einer Einführung in die Funktionsweise von Sentiment-Analyse, einschließlich der Erklärung von Begriffen wie „positiv“, „neutral“ und „negativ“. Anschließend wurde demonstriert, wie man Kundenbewertungen aus verschiedenen Quellen, wie z.B. Google Places, abruft und in einer Datenbank speichert. Die Teilnehmer lernten, wie diese Bewertungen mit Hilfe von KI-Modellen wie ChatGPT analysiert werden können, um den Status (positiv, negativ, neutral) zu ermitteln und darauf aufbauend eine automatisierte Handlungsempfehlung zu generieren. Eine wichtige Herausforderung bestand darin, den Teilnehmern zu zeigen, wie sie trotz der API-Beschränkungen (wie z.B. der Zugriff auf nur fünf Bewertungen) aussagekräftige Analysen durchführen können. Neben der technischen Umsetzung wurde auch auf ethische Aspekte und die Bedeutung von Transparenz bei der Nutzung von KI hingewiesen. In meiner Rolle habe ich den Workshop vollständig konzipiert und durchgeführt. Dies beinhaltete die Bereitstellung von API-Zugängen, die Implementierung eines Python-basierten Analyse-Tools, das Anleiten der Teilnehmer durch praktische Übungen sowie die Diskussion von Best Practices für den produktiven Einsatz von Sentiment-Analyse in verschiedenen Unternehmenskontexten.
Eingesetzte Technologien: Google Places API zur Abfrage und Erfassung von Kundenbewertungen Python & Flask zur Entwicklung von Tools zur Sentiment-Analyse und Datenverarbeitung ChatGPT-4o zur automatisierten Sentiment-Analyse und Generierung von Handlungsempfehlungen MySQL zur Speicherung und Verwaltung der Bewertungen
11/2024 - 11/2024
null
Anbinden eines eigenen Chatbots an das Wikimedia
Workshop: Integration eines eigenen Chatbots an MediaWiki In diesem Workshop erlernten die Teilnehmer die Entwicklung eines Chatbots, der Anfragen entgegennimmt, Inhalte aus einer MediaWiki-Datenbank abruft und mittels eines lokalen Large Language Models (LLM) zusammenfasst. Ziel war die Erstellung eines datenschutzkonformen End-to-End-Systems. Der Workshop umfasste: - Middleware-Entwicklung mit Flask und Python zur Steuerung der Kommunikation zwischen Frontend, MediaWiki und LLM. - Anbindung an die MediaWiki-API zur strukturierten Abfrage von Inhalten. - Einsatz eines lokalen LLMs zur Optimierung von Suchanfragen und Generierung von Antworten. - Erweiterung mit Vektorspeicherung, Embeddings und LangChain zur Effizienzsteigerung. - Die Teilnehmer entwickelten eine HTML/CSS-basierte Chatoberfläche und integrierten die Middleware zur Verarbeitung von Nutzeranfragen. Neben der technischen Umsetzung wurde auf Best Practices, Datenschutz und ethische Aspekte eingegangen. Meine Rolle: - Konzeption und Leitung des Workshops. - Bereitstellung der Infrastruktur (MediaWiki-API, LLM, Flask-Middleware). - Anleitung bei der technischen Umsetzung und individuellen Projekten. Ergebnis: Die Teilnehmer entwickelten ein funktionales System, das Anfragen automatisiert verarbeitet und dynamisch Antworten aus der MediaWiki-Datenbank bereitstellt. Der Workshop zeigte praxisnah, wie KI effektiv in Wissensmanagementsysteme integriert werden kann.
Eingesetzte Technologien: Flask, Python, HTML, CSS, MediaWiki API, HTTP Calls, Lokale LLM, LM Studio, Vector Storage, Langchain, Embeddings, OpenAI API Calls
11/2024 - 11/2024
Gebäudemanagement
Erstellung eines Voicebots für FAQ-Anfragen
Entwicklung eines Voicebots, der Anrufe entgegennimmt und häufig gestellte Fragen (FAQ) beantwortet. Die Lösung nutzt Twilio für die Nummernvergabe und die VAPI-Plattform für die Bot-Integration. Der Voicebot wurde mit FAQ- und Informationsdateien ausgestattet, um flexibel auf Nutzeranfragen zu reagieren. Technologien: Twilio: Nummernverwaltung und Anrufweiterleitung. VAPI: Erstellung und Konfiguration des Voicebots. Der Assistent kann jederzeit mit zusätzlichen Dateien erweitert werden, um neue Fragen und Informationen abzudecken.
Eingesetzte Technologien: VAPI, Twilio, OpenAI API Calls, TTS, STT, 11Labs Voices
12/2024 - 12/2024
Stadtverwaltung
Deduplizierung und Anreicherung von Geschäftsdaten für Salesforce unter Nutzung von KI
Im Rahmen dieses Projekts wurden Geschäftsdaten aus einer bestehenden Datei dedupliziert und um zusätzliche Informationen zu den Unternehmen in Kaarst ergänzt. Hierzu wurde ein automatisiertes Skript entwickelt, das mittels Coding und Websuche über Google fehlende oder unvollständige Firmendaten recherchiert und aktualisiert. Nach der Datenanreicherung wurde eine Datenaufbereitung für den Import in Salesforce durchgeführt. Der bereinigte und angereicherte Datensatz wurde anschließend in das Salesforce CRM des Kunden hochgeladen, um eine verbesserte Datenqualität und Vollständigkeit der Kunden- und Geschäftspartnerinformationen sicherzustellen. Meine Rolle: • Entwicklung eines Deduplizierungsskripts zur Bereinigung der Firmendaten. • Automatisierung der Websuche mit Google, um fehlende Informationen zu den Unternehmen in Kaarst zu ergänzen. • Formatierung und Datenvalidierung für den reibungslosen Import in Salesforce. • Durchführung des Daten-Uploads in Salesforce, inklusive Mapping der Datenfelder. Ergebnis: Durch die Bereinigung und Anreicherung der Geschäftsdaten konnte die Datenqualität im Salesforce CRM signifikant verbessert werden. Doppelte Einträge wurden entfernt, fehlende Unternehmensinformationen ergänzt und eine fundierte Datenbasis für das Kundenmanagement geschaffen.
Eingesetzte Technologien: Python, Daten-Deduplizierung, Web Scraping mit Google Search API, Datenvalidierung, Salesforce API, CSV-Datenaufbereitung, KI
12/2024 - 12/2024
Handel
Entwicklung eines Custom Chatbots mit Microsoft Teams-Integration
Im Rahmen dieses Projekts wurde ein individueller Chatbot entwickelt und in Microsoft Teams integriert. Die Lösung ermöglicht es den Nutzern, direkt in Teams mit dem Chatbot zu interagieren, der auf Azure OpenAI-Modelle zurückgreift. Die technische Umsetzung erfolgte mit Flask und Python, wobei eine eigene API mit Custom Endpoints zur Steuerung der Kommunikation zwischen Frontend, Backend und OpenAI-Diensten entwickelt wurde. Das Frontend wurde mit HTML, CSS und JavaScript individuell gestaltet, um eine benutzerfreundliche Oberfläche zu gewährleisten. Als KI-Modelle kamen GPT-4o mini für die textbasierte Interaktion und DALL·E für die Generierung von Bildern zum Einsatz. Die gesamte Architektur wurde so konzipiert, dass sie flexibel erweiterbar ist und sich an verschiedene Anwendungsfälle anpassen lässt. Meine Rolle: • Entwicklung und Implementierung des Flask-Backends mit Custom Endpoints. • Anbindung des Chatbots an Microsoft Teams. • Implementierung einer individuellen HTML/CSS/JavaScript-basierten Benutzeroberfläche. • Nutzung von Azure OpenAI GPT-4o mini für Textverarbeitung und DALL·E für Bildgenerierung. • Konzeption und Bereitstellung einer skalierbaren API-Infrastruktur. Ergebnis: Der entwickelte Chatbot ermöglicht eine direkte und effiziente Kommunikation in Microsoft Teams und nutzt KI-gestützte Funktionen zur Beantwortung von Fragen und Generierung von Inhalten. Durch die flexible Architektur können weitere OpenAI-Modelle oder zusätzliche Endpunkte integriert werden.
Eingesetzte Technologien: Flask, Python, HTML, CSS, JavaScript, Microsoft Teams API, Azure OpenAI, GPT-4o mini, DALL·E, Custom API Endpoints
08/2024 - 03/2025
Energiedienstleistung
Transition Management und Teamleitung eines Entwicklerteams
Im Rahmen dieses Projekts wurde die Transition eines Entwicklungsteams geplant und durchgeführt. Als Transition Manager und Teamlead bestand die Hauptaufgabe darin, den Wissenstransfer zu organisieren, das Team in die bestehenden Systeme und Prozesse einzuarbeiten und eine strukturierte Arbeitsweise zu etablieren. Die Kernaufgaben umfassten: • Planung und Durchführung der Transition: Sicherstellung eines reibungslosen Übergangs der Entwicklungsverantwortlichkeiten. • Durchführung von Knowledge Transfers: Dokumentation und Vermittlung von Wissen an das neue Team. • Einarbeitung in die bestehenden Systeme und Prozesse, um eine fundierte Grundlage für die Weiterentwicklung zu schaffen. • Führung und Management von vier Entwicklern, inklusive Aufgabenverteilung und technischer Unterstützung. • Aufbau einer effektiven Meetingstruktur zur Koordination mit Kunden und internen Stakeholdern. • Übernahme der operativen Entwicklung nach der Transition, inklusive Bearbeitung von Tickets und direkter Kundenkommunikation. Meine Rolle: • Transition Manager & Teamlead für ein vierköpfiges Entwicklerteam. • Koordination des Wissenstransfers zwischen alten und neuen Teammitgliedern. • Aufbau von Prozessen und Meetings, um eine effiziente Zusammenarbeit zu gewährleisten. • Direkter Kundenkontakt und Abstimmung der Entwicklungsanforderungen. • Nach der Transition: Steuerung und Umsetzung der Entwicklungsaufgaben basierend auf Kundenanforderungen. Ergebnis: Durch eine strukturierte Transition und einen erfolgreichen Knowledge Transfer konnte das neue Team nahtlos in die Entwicklung einsteigen. Die eingerichteten Prozesse und Meetings verbesserten die Zusammenarbeit mit dem Kunden und führten zu einer effizienten Abarbeitung der Tickets.
Eingesetzte Technologien: Azure DevOPS, Transition Management, Teamführung, Knowledge Transfer, Agile Methoden, Kundenkommunikation, Ticketmanagement, Prozessoptimierung,
08/2025 - 09/2025
Bauelemente
Einführung eines VoiceBots für den Krankmeldeprozess bei Hörmann
Für Hörmann wurde ein VoiceBot auf Basis von Fonio AI eingeführt, mit dem Ziel, den Krankmeldeprozess zu vereinfachen und personalintensive Telefonwarten in den Frühschichten zu reduzieren. Da Frühschicht-Mitarbeiter sich nur bis 6 Uhr krankmelden dürfen, musste zuvor jemand ständig telefonisch erreichbar sein. Der VoiceBot übernimmt diese Aufgabe automatisiert. Der Prozess wurde wie folgt umgesetzt: • Der VoiceBot wurde eingerichtet, inkl. Mehrsprachigkeit (Deutsch, Türkisch, Rumänisch, Polnisch, Russisch etc.). • Gehostet wurde die Lösung GDPR-konform in Europa (Frankfurt), um Datenschutz und Compliance sicherzustellen. • Technisch kommuniziert der VoiceBot mit MuleSoft, welches als Prozess-Tool fungiert. MuleSoft nimmt die Krankmeldedaten entgegen und übergibt sie weiter an eine SAP-Schnittstelle. • Teil der Implementierung war der Aufbau der SAP-Schnittstelle, inklusive einer Z-Tabelle zur Speicherung aller relevanten Daten. Rolle / Verantwortlichkeiten: • Einrichtung und Konfiguration des VoiceBots mit Fonio AI • Aufbau der End-zu-End Integration: VoiceBot → MuleSoft → SAP • Sicherstellung der Datenqualität und Mehrsprachigkeit • Gewährleistung der Datenschutzanforderungen und Hosting in der EU Ergebnis: • Der Krankmeldeprozess wurde erheblich entlastet, da der VoiceBot rund um die Uhr verfügbar war, insbesondere für Frühschichten. • Reduzierung des personellen Aufwands für Telefonannahmen in der Frühschicht. • Hohe Qualität der Verarbeitung und sichere Datenübergabe in SAP. • Positives Feedback der Mitarbeitenden aufgrund der sprachlichen Vielfalt und einfachen Bedienung.
Eingesetzte Technologien: Fonio AI, MuleSoft, SAP (Z-Tabellen, BAPI), SAP Gateway/OData, VoiceBot-Entwicklung, Multilingual Speech-to-Text (STT), Text-to-Speech (TTS), Natural Language Processing (NLP), API Requests (REST), Webhooks, HTTPS, GDPR-Compliance, EU-Hosting (Frankfurt), JSON, Error Handling & Logging, Multilingual NLU-Modelle, Datenvalidierung, Automatisierung von Workflows, Integration Testing, Conversational Design, Docker (optional für Testumgebungen), SAP RFC/SOAP (falls für Schnittstelle genutzt)
03/2025 - 05/2025
Universität
Reduktion von SAP-Service-Tickets durch KI-gestützte Wissensbereitstellung via Vektor-Datenbank und Chatbot
Im Rahmen des Projekts wurde ein System entwickelt, das heterogene Datenquellen (u. a. SAP-Dokumentation, interne Richtlinien, technische Anleitungen) automatisiert verarbeitet, vektorisiert und in einer performanten Vektordatenbank speichert. Ziel war es, diese Daten als Grundlage für einen öffentlich zugänglichen KI-Chatbot zu nutzen, um wiederkehrende Anfragen automatisiert zu beantworten und damit die Ticketlast im SAP-Service-Desk signifikant zu senken. Lösungskonzept: • Aufbau einer skalierbaren RAG-Architektur (Retrieval-Augmented Generation) zur Kombination von semantischer Suche und GPT-generierten Antworten. • Entwicklung eines Chatbot-Frontends mit Zugriff auf die eingebetteten Wissensdaten per API. • Automatisierte Datenextraktion und Chunking aus PDF, DOCX, HTML und JSON-Quellen. • Echtzeitbereitstellung über eine Azure WebApp mit angebundenem Azure-Speicherkonto. Technologien & Tools: • Embedding & Vektorisierung: Azure OpenAI (text-embedding-3-large), GPT-4o-mini • Vektordatenbank: Qdrant (Docker-basiert, REST-API) • KI-Logik: RAG (Retrieval-Augmented Generation) mit semantischer Suche • Backend: Python, FastAPI / Flask • Datenverarbeitung: PDF-/Dokumentenextraktion via PyPDF2, python-docx, textract • Deployment: Azure WebApp, Azure Storage, Docker • Schnittstellen: JSON-basierte REST-Endpunkte Ergebnis / Mehrwert: • Deutliche Entlastung des Service-Desks durch Self-Service-Wissenszugriff • Zentrale, versionierte und auffindbare Dokumentation via semantischer Suche • Skalierbare Lösung für weitere Fachbereiche oder Sprachen erweiterbar
Eingesetzte Technologien: QDrant, Embedding, KI, Azure OpenAI, GPT-4o-mini, Chatbot, Vektordatenbank, Docker, python, JSON, Dokumentenextraktion, RAG, Azure WebApp, Azure Speicherkonto, KI
05/2025 - 06/2025
Sanitär / Industrie / Digitalisierung
Grohe ARP Chatbot – Automatisierte JIRA-Ticketerstellung via KI Agent
Zielsetzung: Reduktion manueller Aufwände in der Servicekommunikation durch Einführung eines KI-gestützten Chatbots zur automatisierten Ticketerstellung im Bereich Acces-Request Process (ARP). Meine Aufgaben: • Architektur & Entwicklung eines Chatbots samt Agenten Workflow zur JIRA-Ticket-Erstellung basierend auf Nutzereingaben. • Design und Implementierung einer Reaktiven UI zur Bedienung • Aufbau einer Agentenbasierten-Middleware, die strukturierte Daten aus Excel und Jira verarbeitet und kontextualisiert. • Integration von Google Gemini und Azure OpenAI zur semantischen Analyse und Formulierung von Ticketinhalten. • Umsetzung als Docker-basiertes Microservice-Setup inkl. CI/CD in Azure. • Absicherung der Lösung mit Authentifizierung & Logging. Ergebnisse: • Deutlich beschleunigter Ticketprozess • Minimierung von Medienbrüchen durch Integration strukturierter Exceldaten. • Skalierbare Architektur für weitere Use Cases im Konzernumfeld vorbereitet.
Eingesetzte Technologien: Python, HTML, Flask , n8n Workflowtool, Docker, DockerHub, GIT, VisualStudio Code, Azure WebApp, Azure OpenAI Foundry,
05/2025 - 05/2025
IT Dienstleistung
KI-basierter Chatbot zur Unterstützung interner Mitarbeitender
Entwickelt wurde ein KI-gestützter Chatbot, der mithilfe semantischer Vektorsuche auf eingebettete interne Wissensquellen zugreift. Eingebunden wurden Inhalte aus Microsoft Teams (via Graph API), OneNote, Fachbüchern (PDF) und weiteren strukturierten sowie unstrukturierten Dokumenten. Die Daten wurden mithilfe von Azure OpenAI vektorisiert und in Qdrant gespeichert. Über ein orchestriertes Agentensystem mit n8n werden Tools für Internetrecherchen, Dokumentenabfragen und Antwortgenerierung eingebunden. Das System nutzt GPT-4o-mini und ist über ein Web-Frontend sowie MS Teams zugänglich. Mitarbeitende erhalten so schnell fundierte Antworten auf häufige und projektspezifische Fragen, ohne selbst langwierig in verschiedenen Quellen suchen zu müssen. Ergebnisse: • Intelligenter Zugriff auf historische Projektkommunikation, Notizen und Fachdokumente • Spürbare Entlastung interner Mitarbeitender durch reduzierte Such- und Rückfragezeiten • Automatisierte Recherche- und Suchlogik über angebundene Tools und Webdienste • Modularer Aufbau für zukünftige Erweiterung (z. B. Confluence, MediaWiki, interne Ticketsysteme)
Eingesetzte Technologien: Microsoft Graph API, Qdrant, Azure OpenAI, GPT-4o-mini, Python, Flask, Docker, n8n, RAG, JSON-Dokumentstruktur, PDF-Verarbeitung, OneNote-API, semantische Suche, MS Teams Integration, Webscraping & Internetrecherche, KI
05/2025 - 06/2025
Gesundheit
KI-gestützte GTIN-Analyse aus SAP MARA-Stammdaten
Ziel: Automatisierte Analyse und Veredelung von GTIN-Nummern zur Optimierung der Produktstammdatenqualität im SAP-Umfeld (v. a. Prothesen, Medizintechnik). Beschreibung: Im Rahmen dieses Projekts wurde eine Lösung entwickelt, die GTINs aus SAP-MARA-Stammdatensätzen extrahiert und mithilfe von KI-Methoden analysiert, anreichert und klassifiziert. Ziel ist es, fehlerhafte oder unvollständige GTINs automatisiert zu identifizieren, passende Produktinformationen (z. B. Hersteller, Produkttyp, Verwendungszweck) über externe Referenzdatenbanken oder heuristische Modelle zu ergänzen und daraus verwertbare Stammdatensätze für nachgelagerte Systeme zu generieren. Die Lösung ist Teil eines übergeordneten Datenqualitätsprozesses. Technologien & Methoden: • SAP ERP (MARA-Tabelle) • Python, Pandas • OpenAI GPT für semantische Anreicherung • Regex-basierte GTIN-Validierung • Anbindung externer Datenquellen (z. B. OpenGEPIR, ggf. Webscraping bei Bedarf) • Docker für portable Ausführung • Automatisierung via Cron/Task-Scheduler Ergebnisse: • Automatisierte GTIN-Klassifizierung für >10.000 Materialien • Reduktion manueller Pflegearbeiten im SAP • Verbesserung der Datenqualität für Einkaufs- und Logistikprozesse
Eingesetzte Technologien: SAP ERP, Python, Pandas, OpenAI GPT, reguläre Ausdrücke (Regex), Webscraping, OpenGEPIR, Docker, Cronjob, KI
05/2025 - 05/2025
Gesundheit
Stammdatenbereinigung von Medikamentenartikeln im SAP
Ziel: Konsolidierung und Strukturierung von Medikamentenstammdaten zur Einführung einer sauberen Hauptartikel-/Variantenlogik im SAP-Materialstamm. Beschreibung: Im Fokus dieses Projekts steht die Bereinigung von Stammdaten im Bereich Medikamente. Ziel ist die Trennung zwischen Hauptartikeln (z. B. Wirkstoff oder Handelsname) und Varianten (z. B. Packungsgröße, Applikationsform) anhand klarer Merkmale. Dabei werden Dubletten identifiziert, konsolidiert und logisch gruppiert. Die überarbeitete Struktur wird anschließend unter Nutzung von SAP-Standardfunktionen (Variantenkonfiguration, Klassen/Vererbung, ggf. Merkmale) wieder in den Materialstamm überführt. Das Projekt schafft die Grundlage für effizientere Einkaufsprozesse, automatisierte Zuordnungen und eine konsistente Materialpflege. Ergebnisse: • Harmonisiertes Materialstammsystem für Medikamente • Einführung einer Hauptartikel-/Variantenstruktur • Reduktion redundanter Einträge und klarere Kategorisierung für Pflege, Einkauf und Logistik • Vorbereitung für spätere Automatisierungsschritte im Einkauf und in der Lagerverwaltung
Eingesetzte Technologien: SAP ERP, Python, Pandas, OpenAI GPT, KI, regelbasierte Clustering-Logik, Merkmaldefinition, Variantenkonfiguration im SAP, Datenmapping, Excel-Massenverarbeitung, SAP LSMW, SAP MM
08/2025 - 08/2025
Medizin
Erweiterung einer bestehenden Teams- und n8n-Lösung für unternehmensweite Datensuche
Im Rahmen des Projekts unterstützte ich den Kunden dabei, seine bestehende Collaboration- und Automatisierungslösung (Microsoft Teams & n8n) um den Zugriff auf interne und externe Unternehmensdaten zu erweitern. In der Konzeptionsphase wurden relevante Datenquellen – sowohl aus internen Fileshares als auch aus definierten SharePoint-Seiten – identifiziert und das Implementierungsvorgehen im Scrum-Framework geplant. Als technische Basis kam Azure AI Search in Verbindung mit einer Vektordatenbank zum Einsatz. Spezifische Crawler wurden entwickelt, um Daten aus Fileshares und SharePoint-Seiten automatisiert zu extrahieren und zu indexieren. Darüber hinaus wurde eine Agentenlösung in n8n implementiert, die auch eine Websuche integriert, um den Wissenszugang für Mitarbeitende zu erweitern. Für Nutzer außerhalb von Microsoft Teams entwickelte ich zusätzlich eine OpenWebUI-basierte Weboberfläche. Die gesamte Lösung wurde in Docker-Containern bereitgestellt und über nginx als Reverse Proxy abgesichert und performant ausgeliefert. Das Ergebnis war eine zentrale, KI-gestützte Suchlösung, die den Zugriff auf eine deutlich breitere Wissensbasis ermöglichte und so die Effizienz bei der Informationsbeschaffung im Unternehmen erheblich steigerte.
Eingesetzte Technologien: AI, KI, OpenWebUI, python, AzureOpenAI, Azure AI Search, Docker, GitHub, Teams, n8n, Workflow Automatisierung, OpenAI, LLM, Vektor Datenbank, embedding, chunking
08/2025 - 10/2025
Bildung
Entwicklung und Optimierung von Web-Apps und Prozessautomatisierungen unter Verwendung von n8n
Im Rahmen des Projekts übernahm ich die Workflow-Automation für die TU Darmstadt und entwickelte mehrere Web-Apps sowie Prozessintegrationen auf Basis von n8n. Ziel war es, bestehende Workflows zu digitalisieren, Datenprozesse zu vereinfachen und moderne Benutzeroberflächen bereitzustellen. Zu den Teilprojekten gehörten: • Prozess- und FAQ-Agenten: Entwicklung zweier Chat-basierter Web-Apps mit interaktiver UI und Button-Interaktionen. Beide Agenten nutzten eigene Collections in Qdrant und wurden vollständig in n8n gehostet. • ERP-Dashboard: Anbindung der ERP-Daten an Microsoft SQL und Erstellung eines webbasierten Dashboards in n8n, das eine transparente Übersicht über ERP-Prozesse und Transporte bot. • Projektstatusberichte: Ablösung des bisherigen Excel-basierten Reportings durch eine Web-App mit Benutzeridentifizierung. Nutzer konnten nur ihre eigenen Projekte aktualisieren, während alle Mitarbeitenden Lesezugriff erhielten. • Voting-Tool: Umwandlung eines komplexen Excel-Votings in eine browserbasierte Lösung, vollständig integriert in n8n. Alle Anwendungen wurden direkt in n8n gehostet und mit Custom-Webseiten und moderner UI ausgestattet, wodurch die Prozesse effizienter und benutzerfreundlicher gestaltet wurden. Im Rahmen des Projekts übernahm ich die Workflow-Automation für die TU Darmstadt und entwickelte mehrere Web-Apps sowie Prozessintegrationen auf Basis von n8n. Ziel war es, bestehende Workflows zu digitalisieren, Datenprozesse zu vereinfachen und moderne Benutzeroberflächen bereitzustellen. Zu den Teilprojekten gehörten: • Prozess- und FAQ-Agenten: Entwicklung zweier Chat-basierter Web-Apps mit interaktiver UI und Button-Interaktionen. Beide Agenten nutzten eigene Collections in Qdrant und wurden vollständig in n8n gehostet. • ERP-Dashboard: Anbindung der ERP-Daten an Microsoft SQL und Erstellung eines webbasierten Dashboards in n8n, das eine transparente Übersicht über ERP-Prozesse und Transporte bot. • Projektstatusberichte: Ablösung des bisherigen Excel-basierten Reportings durch eine Web-App mit Benutzeridentifizierung. Nutzer konnten nur ihre eigenen Projekte aktualisieren, während alle Mitarbeitenden Lesezugriff erhielten. • Voting-Tool: Umwandlung eines komplexen Excel-Votings in eine browserbasierte Lösung, vollständig integriert in n8n. Alle Anwendungen wurden in Docker-Containern gehostet, über Apache und SAML abgesichert und nutzten moderne KI-Technologien wie Azure OpenAI, ChatGPT, Claude, Embedding und Chunking für erweiterte Datenanalysen. Die Integration erfolgte über API Requests, HTTP Requests sowie Anbindungen an Kanbanize und Meistertask. Die Umsetzung umfasste außerdem JWT-basierte Authentifizierung und WebApp-Entwicklung mit HTML-Frontends. Das Ergebnis war eine modulare, automatisierte Plattform, die Abläufe beschleunigte, Datenintegration verbesserte und die Transparenz innerhalb der TU Darmstadt erheblich erhöhte.
Eingesetzte Technologien: n8n, Docker, Docker Compose, Apache, nginx, SAML, OAuth 2.0, JWT, Azure OpenAI, ChatGPT, Claude, AI, KI, Qdrant, Embedding, Chunking, REST APIs, Webhooks, HTTP Requests, SQL, Microsoft SQL Server, ETL, Kanbanize, Meistertask, API Requests, WebApp-Entwicklung, HTML, JavaScript, CSS, Bootstrap, Role-Based Access Control (RBAC), Single Page Apps, Prompt Engineering, CI/CD
01/2025 - 02/2025
Bad und Sanitäramaturen
Einführung und Erweiterung von OpenWebUI mit SSO, RAG und Azure AI-Integration
Im Rahmen dieses Projekts wurde OpenWebUI geforkt und mithilfe von Azure DevOps verwaltet. Der Code wurde erweitert, um Single Sign-On (SSO) mit Microsoft Graph API zu ermöglichen. Dadurch kann die Frontend-Oberfläche von OpenWebUI nun nutzerbasierte Anfragen über Microsoft Graph API stellen. Zusätzlich wurde Retrieval-Augmented Generation (RAG) integriert, um gezielte Informationen aus verschiedenen Datenquellen bereitzustellen. Dafür wurden Custom Endpoints mit Flask und Python entwickelt, um: • OneDrive- und SharePoint-Anfragen nutzerspezifisch auszugeben. • Inhalte einer TYPO3-CMS-Webseite zu crawlen und die Ergebnisse über Azure AI Search mit Vektorembeddings verfügbar zu machen. • Die bestehende SharePoint-Wissensdatenbank als separaten Azure Search Index zu integrieren. Die OpenWebUI-Oberfläche wurde weiter optimiert und bietet neben den neuen Funktionen bereits eine Websuche sowie Bilderstellung über DALL·E an. Meine Rolle: • Fork und Erweiterung von OpenWebUI, Code-Anpassungen für SSO-Integration mit Microsoft Graph API. • Entwicklung von Custom Endpoints mit Flask zur Implementierung von RAG für OneDrive- und SharePoint-Anfragen. • Einrichtung eines Web Crawlers für eine TYPO3-Webseite und Speicherung der Ergebnisse in Azure AI Search mit Vektorembeddings. • Anbindung der SharePoint-Wissensdatenbank über einen zusätzlichen Azure Search Index. • Bereitstellung einer skalierbaren API-Infrastruktur für verschiedene Unternehmensanwendungen. Ergebnis: Durch die SSO-Integration kann sich ein Benutzer nun direkt über OpenWebUI anmelden und personalisierte Anfragen an Microsoft Graph API stellen. Die Nutzung von RAG mit Azure AI Search verbessert die Qualität der Antworten, indem strukturierte Daten aus SharePoint, OneDrive und TYPO3 effizient durchsucht und eingebunden werden.
Eingesetzte Technologien: Flask, Python, OpenWebUI Fork, Azure DevOps, Microsoft Graph API, Azure OpenAI, RAG, Azure AI Search, Vektorembeddings, TYPO3 Web Crawler, Custom API Endpoints, DALL·E, KI

Weiterbildungen und Zertifizierungen

Prince 2 Foundation
Zertifizierung
Die Prince 2 Foundation Zertifizierung vermittelt die Grundlagen des Projektmanagements und ermöglicht das Mitarbeiten und Führen von Projekten nach Prince 2.
ITIL Foundation
Zertifizierung
Die ITIL Foundation Zertifizierung vermittelt die Grundlagen von IT Service Management und ITIL.
Prince 2 Practioner
Zertifizierung
Die PRINCE2 Practioner Zertifizierung spiegelt die praktische Anwendung der PRINCE 2 Methodik wieder und vertieft dadurch die in der Foundation gesammelten Grundlagen. Dabei werden die Prinzipien, Rollen und Funktionen in einem fiktivem Projektbeispiel abgeprüft.
SAP C_TAW12_71
Zertifizierung
SAP Certified Development Associate – ABAP with SAP NetWeaver
SAP NET310
Weiterbildung
SAP Schulung WebDynpro for ABAP
SAP BC401
Weiterbildung
SAP Schulung ABAP Objects (ABAP OO)
SAP-EP
Weiterbildung
SAP Enterprise Portal
SAP BC405
Weiterbildung
SAP Schulung ABAP-Reportprogrammierung
SAP BC402
Weiterbildung
SAP Schulung Advanced-ABAP
SAP BC410
Weiterbildung
SAP Schulung Dialogentwicklung (Dynpro)
SAP BC430
Weiterbildung
SAP Schulung DDIC
SAP BC430
Weiterbildung
SAP Schulung DDIC
SAP-GP
Weiterbildung
SAP Guided Procedures
SAP BC400
Weiterbildung
SAP Schulung ABAP
SAPX04
Weiterbildung
HTML5 Foundations for SAP SAPUI5 Development
SAPX05
Weiterbildung
SAP SAPUI5 User Experience Development
WDE360
Weiterbildung
Developing UIs using HTML5 and SAPUI5
GW100
Weiterbildung
SAP NetWeaver Gateway - Building OData Services
Microsoft Certified: Azure AI Fundamentals - AI900
Zertifizierung
Kenntnisse über grundlegende KI-Konzepte im Zusammenhang mit der Entwicklung von Software und Diensten von Microsoft Azure.

Daniel Alisch

Entwicklung und Technologieberatung für Künstliche Intelligenz Implementierung von KI-Assistenten mit Unternehmensdaten