Als Solution Architect für die Migration der CRM-Lösung in die Azure Cloud bei einer führenden Fluggesellschaft spiele ich eine entscheidende Rolle bei der Entwicklung und Umsetzung eines ganzheitlichen Migrationsplans.
Zu meinen Aufgaben gehörten u.a.:
Erstellung des Migrationsplans und Design der BPMN-Prozesse: Entwicklung eines detaillierten Migrationsplans, der die schrittweise Überführung der CRM-Lösung in die Azure Cloud umfasst. Dies beinhaltet die Analyse der bestehenden Prozesse und die Erstellung von BPMN-Diagrammen zur Visualisierung der neuen Abläufe.
Stakeholder-Management und Kommunikation: Enge Zusammenarbeit mit verschiedenen internen Stakeholdern, einschließlich des IT-Teams, der Geschäftsführung und der Endbenutzer, um deren Anforderungen zu verstehen und sicherzustellen, dass die Migration reibungslos verläuft und ihre Bedürfnisse erfüllt.
Schnittstellenanalyse und Integration: Durchführung einer gründlichen Analyse der bestehenden Schnittstellen und Integrationen, um sicherzustellen, dass sie nahtlos in die neue Azure-Infrastruktur integriert werden können. Dies umfasst die Bewertung von APIs, Datenbankverbindungen und externen Systemen.
Generierung von Anwendungsfällen und Use-Case-Entwicklung: Identifizierung und Dokumentation verschiedener Anwendungsfälle für die CRM-Lösung in der Azure Cloud. Dies beinhaltet die Erstellung von Use Cases, die die Funktionalität der Lösung unter verschiedenen Szenarien demonstrieren.
Datenvalidierung und Bestandsaufnahme der Warehouselösungen: Durchführung einer umfassenden Bestandsaufnahme der vorhandenen Daten in den Warehouses, um sicherzustellen, dass sie für die Migration vorbereitet sind. Dies beinhaltet die Validierung der Datenqualität, Identifizierung von Datenbereinigungsbedarf und Festlegung von Strategien zur Datenmigration.
Azure CRMAzure CloudAzure DevOpsAzure Data FactoryAzure SQL DatabaseAzure FunctionsAzure Logic AppsAzure Kubernetes Service (AKS)Azure Active DirectoryAzure Virtual MachinesAzure Blob StorageBPMN
Modul ?Application System Plattforms - Einführung in Azure?
Senior Data Engineer | DozentT-SQLPythonLinux...
Senior Data Engineer | Dozent
Im Rahmen des Lehrmoduls ?Application System Plattforms - Einführung in Azure? übernahm ich eine zentrale Rolle bei der Entwicklung und Implementierung eines modernen Lehransatzes zur Vermittlung von Cloud-basierten Technologien im Masterstudiengang ?Data Engineering and Consulting?.
Zu meinen Aufgaben gehörten u.a.:
Entwicklung des Lehrplans und der Vorlesungsmaterialien: Erarbeitung eines detaillierten Lehrplans, der theoretische Konzepte und praktische Anwendungen von Azure umfasst. Dies beinhaltete die Vorbereitung von Vorlesungsmaterialien, die die neuesten Entwicklungen und Best Practices in der Cloud-Technologie abdeckten.
Durchführung von Praxisprojekten: Anleitung der Studierenden bei der Entwicklung einer Customer Data Platform. Dieses Projekt umfasste die Sammlung von Daten aus einem Webshop, deren Verarbeitung über Azure Data Factory und das Streaming via Azure Event Hub.
Aufbau und Management der Infrastruktur: Konfiguration und Management der notwendigen Azure-Ressourcen mithilfe von Terraform, um die verschiedenen Umgebungen für das Projekt bereitzustellen und zu verwalten. Dies förderte das Verständnis der Studierenden für DevOps-Praktiken in der Cloud.
Erstellung von Übungsmaterialien und Bewertung der Studierenden: Entwicklung von Übungen, die die Anwendung des in den Vorlesungen vermittelten Wissens vertieften. Zudem Übernahme der Bewertung der Projekte und Leistungen der Studierenden.
Förderung der analytischen Fähigkeiten und des technischen Verständnisses: Unterstützung der Studierenden bei der Analyse und Interpretation von Daten, um deren Fähigkeit zur Problemlösung und Entscheidungsfindung in realen Business-Szenarien zu stärken.
Azure Data FactoryAzure Event HubAzure SQL DatabaseAzure DevOpsAzure FunctionsAzure Logic AppsAzure Kubernetes Service (AKS)Azure Active DirectoryAzure Virtual MachinesAzure Blob StorageTerraformPower BIDatabricks
Senior Data EngineerData Warehouse ModelingT-SQLPython...
Senior Data Engineer
Im Rahmen des Projektes spielte ich eine zentrale Rolle bei der Modernisierung der Datenverarbeitungsprozesse und der Infrastruktur, wobei der Schwerpunkt auf der Integration von Snowflake und der Nutzung von DBT lag.
Zu meinen Aufgaben gehörten u.a.:
Datenextraktion und -verarbeitung mit DBT und Snowflake: Entwicklung und Verfeinerung von DBT-Skripten zur Extraktion und Verarbeitung großer Datenmengen in Snowflake, einschließlich der Implementierung von Bereinigungs- und Transformationsprozessen.
Framework Erstellung: Generierung von DBT-Konfigurationsfiles (Makros, Jinjas) zur Automatisierung der Selektion in Form von CI/CD Pipelines.
Migration und Anpassung bestehender Codes: Konvertierung vorhandener SAS-Codes in Python und DBT zur Verbesserung der Skalierbarkeit und Wartbarkeit sowie zur Anpassung an aktuelle Geschäftsanforderungen.
Erstellung von Datenbereinigungsskripten: Entwicklung von Python- und SQL-Skripten zur Bereinigung von Daten innerhalb von Snowflake, um die Qualität und Genauigkeit der Analyseergebnisse zu erhöhen.
Dokumentation und Optimierung von Prozessen: Erstellung umfassender Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Sicherstellung einer hohen Systemleistung.
Data Warehouse ModelingT-SQLPythonLinuxSQLDatenextraktionDatenverarbeitungFramework-ErstellungCI/CD-PipelinesCode-MigrationDatenbereinigungProzessoptimierungSkalierbarkeitWartbarkeit
Versicherungen
Köln
1 Jahr
2023-04 - 2024-03
Einführung von Adobe Campaign
Senior Python Developer | Senior Business Analyst | Senior Data EngineerPythonSQLDaten-Selektion...
Senior Python Developer | Senior Business Analyst | Senior Data Engineer
Im Rahmen des Projektes nahm ich Schlüsselrolle bei der Überführung von bestehenden Datenverarbeitungsprozessen und Infrastrukturen in eine modernere und effizientere Umgebung.
Zu meinen Aufgaben gehörten u.a.:
Daten-Selektion und -Verarbeitung mit Python: Entwicklung von Python-Skripten zur Selektion und Verarbeitung großer Datenmengen, einschließlich der Implementierung von Datenbereinigungs- und Transformationsprozessen.
Serverumzug und Linux-Systemmanagement: Mitwirkung bei der Planung und Durchführung des Umzugs von Servern auf Linux-Basis, einschließlich der Sicherstellung von Betriebssicherheit und Datenintegrität während des Transfers.
Migration und Refactoring von SAS zu Python: Umwandlung bestehender SAS-Codes in Python, um eine verbesserte Skalierbarkeit und Wartbarkeit zu erreichen, sowie Anpassung an neue Geschäftsanforderungen.
Entwicklung von Datenbereinigungsskripten: Erstellung von Python / SQL Skripten zur Datenbereinigung, um die Datenqualität und Genauigkeit der analytischen Ergebnisse zu verbessern.
Dokumentation und Prozessoptimierung: Erstellung detaillierter Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Gewährleistung einer hohen Systemleistung.
Azure Cloud-Integration: Implementierung und Management von Azure-Diensten zur Unterstützung der Datenverarbeitung und Analyse. Konfiguration von Azure Data Factory-Pipelines zur Automatisierung des Datenflusses und Integration von Azure SQL Database für skalierbare Datenlagerungslösungen.
LinuxSASGitDockerJenkinsOracle DatabasePowerPoint)BPMNAzureAdobe CampaignMSSQLDBTAzure Data FactoryAzure SQL DatabaseMS Excel
Im Rahmen des Projektes unterstütze ich die Optimierung einer Lead Engine. Hierzu gehörte sowohl die Weiterentwicklung eines weiteren Vertriebkanales (Mobiler Vertrieb) in die Ausspielung der Engine. Zudem wurde Fault Monitoring und Performance Optimierung des bestehendes BOTS mittels verschiedener Python Libraries.
Zu meinen Aufgaben gehörten u.a.:
Datenbank Bestandsvalidierung innerhalb des Warehouses: Ich führte umfassende Validierungsprozesse durch, um die Integrität und Genauigkeit der Daten in unserem Data Warehouse zu gewährleisten. Diese Validierungen waren entscheidend für die Zuverlässigkeit der Lead Engine.
Analyse der Prozesse und Integration von Multiprocessing Methoden: Zur Steigerung der Effizienz und Geschwindigkeit der Leadausspielung implementierte ich Multiprocessing-Methoden. Dies verbesserte die Parallelverarbeitung und optimierte die Leistung der Systeme signifikant.
Konzepterweiterung von Spark als Cluster-Lösung innerhalb der Systemarchitektur: Ich entwickelte ein Konzept zur Nutzung von Apache Spark als Cluster-Lösung, um die Datenverarbeitung zu skalieren und die Verarbeitungsgeschwindigkeit zu erhöhen.
Stakeholdermanagement und Integration weiterer Features in Sprint-Zyklen: Engagierte Zusammenarbeit mit Stakeholdern zur Identifizierung und Implementierung neuer Funktionen in regelmäßigen Sprint-Zyklen. Diese agile Arbeitsweise ermöglichte eine schnelle Anpassung an sich ändernde Geschäftsanforderungen.
Konzeption und Erstellung einer Verteillogik, um geeignete Berater für Leads auszuwählen: Ich entwarf eine Logik, die automatisch die passendsten Berater für die jeweiligen Leads ermittelte, basierend auf verschiedenen Kriterien und historischen Leistungsdaten.
Datenanalyse von ausgespielten Leads und Prüfung der Wertigkeit für Berater im Hinblick auf Business Requirements: Durchführung detaillierter Analysen der Lead-Daten, um deren Wertigkeit zu bewerten und sicherzustellen, dass die Leads den Geschäftsanforderungen entsprechen und effektiv genutzt werden.
Senior Business Analyst | Senior Technical ConsultantSQLPythonDatenpipeline-Engineering...
Senior Business Analyst | Senior Technical Consultant
Im Rahmen des Projekts unterstützte ich die Datenauswertung, das Engineering neuer Daten Pipelines und die Datenvisualisierung vorhandenen Datensets aus dem Azure Cloudumfeld. Dies umfasst des Weiteren jedoch auch Data Cleaning Prozesse und Data Modelling Tätigkeiten.
Zu meinen Aufgaben gehörten u.a.:
Automatisierung und Datenintegration über Azure Synapse: Implementierung von Datenflüssen und deren Automatisierung zur effizienten Analyse und Verarbeitung.
ETL-Erstellung innerhalb Databricks, Hosting über Azure. Aufbau eines Automatischen Upload Konzepstes zu ADLS
Integration einer Middleware-Lösung über Azure APIM und Data Factory: Einsatz von Middleware zur Optimierung der Datenzugänglichkeit und -steuerung.
Vorbereitung und Anlieferung von Dateien auf SAS VA Server und Überführung in SAS Viya Cloud Umgebung: Management der Datenbereitstellung und Migration in Cloud-basierte Analyseumgebungen.
Durchführung von Workshops: Leitung von Workshops zur Schulung des Teams bezüglich neuer Datenarchitekturen.
Erstellung von Reports und Dashboards: Entwicklung von Dashboards und Reports, die operative Daten visualisieren.
Erfassung und Erweiterung von Business Requirements: Analyse von Geschäftsanforderungen und Integration von Datenvalidierungsstandards.
Datenanalyse und Optimierung von Datenqualitätsanforderungen: Analyse und Verbesserung der Datenqualität zur Unterstützung präziserer Entscheidungsfindungen.
Azure SynapseAzure SQL DBAzure PurviewAzure Data FactorySAS CI 360SAS ViyaSAS Enterprise GuideAzure APIMDatabricksSAS VA ServerADLSMS ExcelPowerpoint
Senior Data EngineerPythonPySpark SQLImpala SQL...
Senior Data Engineer
Im Rahmen des Projekts unterstützte ich die Datenauswertung und das Datenmanagement (Data Governance / Datenqualitätsmanagement) der vorhandenen Datensees. Dies umfasst des Weiteren jedoch auch Data Engineering, das in Transformationsjobs und Automatisierungsjobs unterteilt ist. Darüber hinaus war eines der Hauptthemen die Modellierung von ETL-Pipelines.
Zu meinen Aufgaben gehörten u.a.:
Datenaufbereitung und -bereinigung: Einsatz von PySpark SQL, Impala und Hive SQL für die Aufbereitung und Bereinigung von Daten, die den Reporting Scrum Teams zur Verfügung gestellt wurden.
Entwicklung von Data Lake Lösungen: Konzeption und Implementierung von Data Lake Architekturen, die eine effektive Verbindung zu Cloud-Anbietern im Bereich Process Mining ermöglichten, unter Verwendung von Apache-Technologien wie Spark, Hive und Oozie.
Datenvorbereitung für Grunddatenlagen: Vorbereitung und Strukturierung von Basisdatensätzen zur weiteren Analyse und Verarbeitung.
Modellierung von mehrschichtigen Datenmodellen: Entwurf und Realisierung von komplexen Datenmodellen, die unter Berücksichtigung von Datenschutzrichtlinien durch Pseudonymisierung transformiert wurden.
Agiles Projektmanagement: Mitarbeit in einem agilen Scrum-Framework mit einem vollständig remote arbeitenden Team von 8 Mitgliedern, was eine flexible und effiziente Projektdurchführung erforderte.
Implementierung von Cluster-Einstellungen: Optimierung der Apache Spark Cluster-Konfigurationen zur Automatisierung von Einstellungen, effizientere Ressourcenzuweisung und Datenpartitionierung sowie Korrektur von Datenverzerrungen.
SparkHiveImpalaOozieInnovatorAmazon Web ServicesJiraConfluenceVisual Studio CodeCloudera Data Science WorkbenchDBTAirflow
PythonPySpark SQLImpala SQLData Lake ArchitekturApache-TechnologienDatenmodellierungPseudonymisierungagiles Projektmanagement (Scrum)Cluster-KonfigurationDatenaufbereitungDatenbereinigungRessourcenzuweisungDatenpartitionierungSQL
IT Operations Spezialist (Physical Security Analyst)
Senior Data Engineer | Senior Business AnalystSQLPythonTensorFlow...
Senior Data Engineer | Senior Business Analyst
Im Rahmen des Projektes unterstütze ich die operative Durchführung des Projektes. Hierzu gehörte sowohl die Business Analyse zur Anforderungserfassung, Datenmodellierung sowie Erstellung eines Analyseregelwerkes zur Auswertung von Mediendaten der Corporate Security. Zu meinen Aufgaben gehörten u.a.:
Datenbankadministration sowie Datenpflege des Video-Management-Systems sowie des ACS und Security Alarm Systems
Analyse der Prozesse und Ermittlung von Vorschlägen zur Verbesserung der Effizienz auf Basis von Big Data Plattform Integrationen (Hadoop)
Konzeptentwicklung sowie Erstellung von Best Practice Infrastruktur Lösungen über Cloud Plattformen (Transfer von Serverkapazitäten)
Repräsentantdes Corporate Security Physical Security Infrastructure Teams
Prozessautomatisierung durch API-Eingliederung von Phantom (Splunk) an ServiceNow
Testing des Machine Learning Verfahrens sowie Fraud Detection auf Basis von Tensorflow
HadoopPhantomAmazon Web ServicesServiceNowActive DirectoryApache KafkaJiraConfluence
Senior Data Scientist | ProjektmanagerSQLPythonJavaScript...
Senior Data Scientist | Projektmanager
Im Rahmen des Projektes unterstützte ich die Security Analysten den Mandaten in der Erstellung eines Datenanalysetools. Hierzu gehörte sowohl die Prozessmodellierung sowie die Code Anwendung. Zu meinen Aufgaben gehörten u.a.:
Analyse von Sicherheitsprofilen: Ich führte detaillierte Analysen von Sicherheitsprofilen durch, indem ich statistische Metriken verwendete, um Muster und potenzielle Risiken zu erkennen.
Dashboard-Erstellung und Datenüberführung: Entwicklung und Gestaltung von Dashboards zur Visualisierung der Analyseergebnisse. Ich war ebenfalls verantwortlich für die Überführung dieser Daten in das Dashboard, was eine präzise und effektive Datenrepräsentation sicherstellte.
Konzepterstellung und Integration eines SCRUM-Frameworks: Entwurf eines Konzepts zur Integration des SCRUM-Frameworks in das Projektmanagement, um die Entwicklung und Implementierung des Tools zu optimieren und zu beschleunigen.
Anwendung eines NLP-Machine-Learning-Ansatzes zur Korrelationsanalyse: Implementierung und Nutzung von Natural Language Processing (NLP) und Machine Learning, um Korrelationen innerhalb der Sicherheitsdaten zu analysieren und tiefergehende Einblicke zu gewinnen.
Integration des Dashboards in eine Subdomäne des Mandanten: Technische Implementierung des Dashboards in eine spezifische Subdomäne des Mandanten, um eine sichere und zugängliche Präsentation der Analyseergebnisse zu gewährleisten.
Erstellung eines digitalen Reifegradmodell-Tools auf Basis von Abteilungsumfragen
Senior Data ScientistStatistikanalyseDashboardScoring...
Senior Data Scientist
Im Rahmen des Projektes unterstützte ich die interne Erstellung eines Webtools. Hierzu gehörte sowohl die Algorithmenentwicklung, Datenmodellierung sowie der Use Case Erstellung zu Big Data Plattformen. Zu meinen Aufgaben gehörten u.a.:
Entwicklung eines Scoring-Modells: Ich konzipierte und implementierte ein Scoring-Modell zur Bewertung digitaler Subkategorien. Dieses Modell wurde erfolgreich in ein von mir mitentwickeltes Datenanalysetool integriert, das auf SPSS basierte, um präzise Analysefunktionen zu ermöglichen.
Statistische Auswertungen: Durchführung fundierter statistischer Analysen zur Bewertung und Optimierung der Datenqualität und der darauf basierenden Entscheidungsprozesse.
Webseiten-Anpassungen und Dashboard-Integration: Ich übernahm die technische Anpassung des Befragungstools und integrierte interaktive Dashboards im Frontend, um die Benutzerinteraktion und Datendarstellung zu verbessern.
Use Case-Generierung durch Prozessmodellierung: Entwicklung spezifischer Use Cases durch detaillierte Prozessmodellierung in der Cloud-Infrastruktur, was die Grundlage für die Skalierbarkeit und Adaptivität des Systems bildete.
Dokumentation und Stakeholder-Kommunikation: Ich war verantwortlich für die fortlaufende Dokumentation des Projektfortschritts und führte regelmäßige Abstimmungen mit Stakeholdern durch, um sicherzustellen, dass alle Projektziele erreicht und Erwartungen erfüllt wurden.
AWS Certified Cloud Practitioner, Amazon Web Services Training and Certification
AWS Certified Cloud Practitioner
Amazon Web Services Training and Certification
4 Jahre 10 Monate
2015-05 - 2020-02
Master of Science Economics
Master of Science Economics, Ruhr Universität Bochum
Master of Science Economics
Ruhr Universität Bochum
Quantitative Economics / Macroeconomics
1 Monat
2019-06 - 2019-06
Certified IBM Data Science Professional
Certified IBM Data Science Professional, IBM
Certified IBM Data Science Professional
IBM
Data Science Analytics using IBM Watson.
1 Monat
2019-05 - 2019-05
Certified Scrum Product Owner Lvl 1
Zertifizierung zum Product Owner durch Scrum.org, Scrum.org
Zertifizierung zum Product Owner durch Scrum.org
Scrum.org
1 Monat
2019-04 - 2019-04
Certified Scrum Master Lvl 1
Zertifizierung zum Scrum Master durch Scrum.org, Scrum.org
Zertifizierung zum Scrum Master durch Scrum.org
Scrum.org
Position
Position
Als Senior Data Engineer und Solution Architect spezialisiere ich mich auf die Modernisierung von Dateninfrastrukturen und die Migration von Altsystemen in Cloud-Umgebungen. Mein Schwerpunkt liegt auf der Datenextraktion, -transformation und -automatisierung mit Technologien wie Snowflake, DBT und CI/CD-Pipelines, während ich zugleich umfangreiche Erfahrung im Stakeholder-Management und der Prozessoptimierung einbringe.
Als Solution Architect für die Migration der CRM-Lösung in die Azure Cloud bei einer führenden Fluggesellschaft spiele ich eine entscheidende Rolle bei der Entwicklung und Umsetzung eines ganzheitlichen Migrationsplans.
Zu meinen Aufgaben gehörten u.a.:
Erstellung des Migrationsplans und Design der BPMN-Prozesse: Entwicklung eines detaillierten Migrationsplans, der die schrittweise Überführung der CRM-Lösung in die Azure Cloud umfasst. Dies beinhaltet die Analyse der bestehenden Prozesse und die Erstellung von BPMN-Diagrammen zur Visualisierung der neuen Abläufe.
Stakeholder-Management und Kommunikation: Enge Zusammenarbeit mit verschiedenen internen Stakeholdern, einschließlich des IT-Teams, der Geschäftsführung und der Endbenutzer, um deren Anforderungen zu verstehen und sicherzustellen, dass die Migration reibungslos verläuft und ihre Bedürfnisse erfüllt.
Schnittstellenanalyse und Integration: Durchführung einer gründlichen Analyse der bestehenden Schnittstellen und Integrationen, um sicherzustellen, dass sie nahtlos in die neue Azure-Infrastruktur integriert werden können. Dies umfasst die Bewertung von APIs, Datenbankverbindungen und externen Systemen.
Generierung von Anwendungsfällen und Use-Case-Entwicklung: Identifizierung und Dokumentation verschiedener Anwendungsfälle für die CRM-Lösung in der Azure Cloud. Dies beinhaltet die Erstellung von Use Cases, die die Funktionalität der Lösung unter verschiedenen Szenarien demonstrieren.
Datenvalidierung und Bestandsaufnahme der Warehouselösungen: Durchführung einer umfassenden Bestandsaufnahme der vorhandenen Daten in den Warehouses, um sicherzustellen, dass sie für die Migration vorbereitet sind. Dies beinhaltet die Validierung der Datenqualität, Identifizierung von Datenbereinigungsbedarf und Festlegung von Strategien zur Datenmigration.
Azure CRMAzure CloudAzure DevOpsAzure Data FactoryAzure SQL DatabaseAzure FunctionsAzure Logic AppsAzure Kubernetes Service (AKS)Azure Active DirectoryAzure Virtual MachinesAzure Blob StorageBPMN
Modul ?Application System Plattforms - Einführung in Azure?
Senior Data Engineer | DozentT-SQLPythonLinux...
Senior Data Engineer | Dozent
Im Rahmen des Lehrmoduls ?Application System Plattforms - Einführung in Azure? übernahm ich eine zentrale Rolle bei der Entwicklung und Implementierung eines modernen Lehransatzes zur Vermittlung von Cloud-basierten Technologien im Masterstudiengang ?Data Engineering and Consulting?.
Zu meinen Aufgaben gehörten u.a.:
Entwicklung des Lehrplans und der Vorlesungsmaterialien: Erarbeitung eines detaillierten Lehrplans, der theoretische Konzepte und praktische Anwendungen von Azure umfasst. Dies beinhaltete die Vorbereitung von Vorlesungsmaterialien, die die neuesten Entwicklungen und Best Practices in der Cloud-Technologie abdeckten.
Durchführung von Praxisprojekten: Anleitung der Studierenden bei der Entwicklung einer Customer Data Platform. Dieses Projekt umfasste die Sammlung von Daten aus einem Webshop, deren Verarbeitung über Azure Data Factory und das Streaming via Azure Event Hub.
Aufbau und Management der Infrastruktur: Konfiguration und Management der notwendigen Azure-Ressourcen mithilfe von Terraform, um die verschiedenen Umgebungen für das Projekt bereitzustellen und zu verwalten. Dies förderte das Verständnis der Studierenden für DevOps-Praktiken in der Cloud.
Erstellung von Übungsmaterialien und Bewertung der Studierenden: Entwicklung von Übungen, die die Anwendung des in den Vorlesungen vermittelten Wissens vertieften. Zudem Übernahme der Bewertung der Projekte und Leistungen der Studierenden.
Förderung der analytischen Fähigkeiten und des technischen Verständnisses: Unterstützung der Studierenden bei der Analyse und Interpretation von Daten, um deren Fähigkeit zur Problemlösung und Entscheidungsfindung in realen Business-Szenarien zu stärken.
Azure Data FactoryAzure Event HubAzure SQL DatabaseAzure DevOpsAzure FunctionsAzure Logic AppsAzure Kubernetes Service (AKS)Azure Active DirectoryAzure Virtual MachinesAzure Blob StorageTerraformPower BIDatabricks
Senior Data EngineerData Warehouse ModelingT-SQLPython...
Senior Data Engineer
Im Rahmen des Projektes spielte ich eine zentrale Rolle bei der Modernisierung der Datenverarbeitungsprozesse und der Infrastruktur, wobei der Schwerpunkt auf der Integration von Snowflake und der Nutzung von DBT lag.
Zu meinen Aufgaben gehörten u.a.:
Datenextraktion und -verarbeitung mit DBT und Snowflake: Entwicklung und Verfeinerung von DBT-Skripten zur Extraktion und Verarbeitung großer Datenmengen in Snowflake, einschließlich der Implementierung von Bereinigungs- und Transformationsprozessen.
Framework Erstellung: Generierung von DBT-Konfigurationsfiles (Makros, Jinjas) zur Automatisierung der Selektion in Form von CI/CD Pipelines.
Migration und Anpassung bestehender Codes: Konvertierung vorhandener SAS-Codes in Python und DBT zur Verbesserung der Skalierbarkeit und Wartbarkeit sowie zur Anpassung an aktuelle Geschäftsanforderungen.
Erstellung von Datenbereinigungsskripten: Entwicklung von Python- und SQL-Skripten zur Bereinigung von Daten innerhalb von Snowflake, um die Qualität und Genauigkeit der Analyseergebnisse zu erhöhen.
Dokumentation und Optimierung von Prozessen: Erstellung umfassender Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Sicherstellung einer hohen Systemleistung.
Data Warehouse ModelingT-SQLPythonLinuxSQLDatenextraktionDatenverarbeitungFramework-ErstellungCI/CD-PipelinesCode-MigrationDatenbereinigungProzessoptimierungSkalierbarkeitWartbarkeit
Versicherungen
Köln
1 Jahr
2023-04 - 2024-03
Einführung von Adobe Campaign
Senior Python Developer | Senior Business Analyst | Senior Data EngineerPythonSQLDaten-Selektion...
Senior Python Developer | Senior Business Analyst | Senior Data Engineer
Im Rahmen des Projektes nahm ich Schlüsselrolle bei der Überführung von bestehenden Datenverarbeitungsprozessen und Infrastrukturen in eine modernere und effizientere Umgebung.
Zu meinen Aufgaben gehörten u.a.:
Daten-Selektion und -Verarbeitung mit Python: Entwicklung von Python-Skripten zur Selektion und Verarbeitung großer Datenmengen, einschließlich der Implementierung von Datenbereinigungs- und Transformationsprozessen.
Serverumzug und Linux-Systemmanagement: Mitwirkung bei der Planung und Durchführung des Umzugs von Servern auf Linux-Basis, einschließlich der Sicherstellung von Betriebssicherheit und Datenintegrität während des Transfers.
Migration und Refactoring von SAS zu Python: Umwandlung bestehender SAS-Codes in Python, um eine verbesserte Skalierbarkeit und Wartbarkeit zu erreichen, sowie Anpassung an neue Geschäftsanforderungen.
Entwicklung von Datenbereinigungsskripten: Erstellung von Python / SQL Skripten zur Datenbereinigung, um die Datenqualität und Genauigkeit der analytischen Ergebnisse zu verbessern.
Dokumentation und Prozessoptimierung: Erstellung detaillierter Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Gewährleistung einer hohen Systemleistung.
Azure Cloud-Integration: Implementierung und Management von Azure-Diensten zur Unterstützung der Datenverarbeitung und Analyse. Konfiguration von Azure Data Factory-Pipelines zur Automatisierung des Datenflusses und Integration von Azure SQL Database für skalierbare Datenlagerungslösungen.
LinuxSASGitDockerJenkinsOracle DatabasePowerPoint)BPMNAzureAdobe CampaignMSSQLDBTAzure Data FactoryAzure SQL DatabaseMS Excel
Im Rahmen des Projektes unterstütze ich die Optimierung einer Lead Engine. Hierzu gehörte sowohl die Weiterentwicklung eines weiteren Vertriebkanales (Mobiler Vertrieb) in die Ausspielung der Engine. Zudem wurde Fault Monitoring und Performance Optimierung des bestehendes BOTS mittels verschiedener Python Libraries.
Zu meinen Aufgaben gehörten u.a.:
Datenbank Bestandsvalidierung innerhalb des Warehouses: Ich führte umfassende Validierungsprozesse durch, um die Integrität und Genauigkeit der Daten in unserem Data Warehouse zu gewährleisten. Diese Validierungen waren entscheidend für die Zuverlässigkeit der Lead Engine.
Analyse der Prozesse und Integration von Multiprocessing Methoden: Zur Steigerung der Effizienz und Geschwindigkeit der Leadausspielung implementierte ich Multiprocessing-Methoden. Dies verbesserte die Parallelverarbeitung und optimierte die Leistung der Systeme signifikant.
Konzepterweiterung von Spark als Cluster-Lösung innerhalb der Systemarchitektur: Ich entwickelte ein Konzept zur Nutzung von Apache Spark als Cluster-Lösung, um die Datenverarbeitung zu skalieren und die Verarbeitungsgeschwindigkeit zu erhöhen.
Stakeholdermanagement und Integration weiterer Features in Sprint-Zyklen: Engagierte Zusammenarbeit mit Stakeholdern zur Identifizierung und Implementierung neuer Funktionen in regelmäßigen Sprint-Zyklen. Diese agile Arbeitsweise ermöglichte eine schnelle Anpassung an sich ändernde Geschäftsanforderungen.
Konzeption und Erstellung einer Verteillogik, um geeignete Berater für Leads auszuwählen: Ich entwarf eine Logik, die automatisch die passendsten Berater für die jeweiligen Leads ermittelte, basierend auf verschiedenen Kriterien und historischen Leistungsdaten.
Datenanalyse von ausgespielten Leads und Prüfung der Wertigkeit für Berater im Hinblick auf Business Requirements: Durchführung detaillierter Analysen der Lead-Daten, um deren Wertigkeit zu bewerten und sicherzustellen, dass die Leads den Geschäftsanforderungen entsprechen und effektiv genutzt werden.
Senior Business Analyst | Senior Technical ConsultantSQLPythonDatenpipeline-Engineering...
Senior Business Analyst | Senior Technical Consultant
Im Rahmen des Projekts unterstützte ich die Datenauswertung, das Engineering neuer Daten Pipelines und die Datenvisualisierung vorhandenen Datensets aus dem Azure Cloudumfeld. Dies umfasst des Weiteren jedoch auch Data Cleaning Prozesse und Data Modelling Tätigkeiten.
Zu meinen Aufgaben gehörten u.a.:
Automatisierung und Datenintegration über Azure Synapse: Implementierung von Datenflüssen und deren Automatisierung zur effizienten Analyse und Verarbeitung.
ETL-Erstellung innerhalb Databricks, Hosting über Azure. Aufbau eines Automatischen Upload Konzepstes zu ADLS
Integration einer Middleware-Lösung über Azure APIM und Data Factory: Einsatz von Middleware zur Optimierung der Datenzugänglichkeit und -steuerung.
Vorbereitung und Anlieferung von Dateien auf SAS VA Server und Überführung in SAS Viya Cloud Umgebung: Management der Datenbereitstellung und Migration in Cloud-basierte Analyseumgebungen.
Durchführung von Workshops: Leitung von Workshops zur Schulung des Teams bezüglich neuer Datenarchitekturen.
Erstellung von Reports und Dashboards: Entwicklung von Dashboards und Reports, die operative Daten visualisieren.
Erfassung und Erweiterung von Business Requirements: Analyse von Geschäftsanforderungen und Integration von Datenvalidierungsstandards.
Datenanalyse und Optimierung von Datenqualitätsanforderungen: Analyse und Verbesserung der Datenqualität zur Unterstützung präziserer Entscheidungsfindungen.
Azure SynapseAzure SQL DBAzure PurviewAzure Data FactorySAS CI 360SAS ViyaSAS Enterprise GuideAzure APIMDatabricksSAS VA ServerADLSMS ExcelPowerpoint
Senior Data EngineerPythonPySpark SQLImpala SQL...
Senior Data Engineer
Im Rahmen des Projekts unterstützte ich die Datenauswertung und das Datenmanagement (Data Governance / Datenqualitätsmanagement) der vorhandenen Datensees. Dies umfasst des Weiteren jedoch auch Data Engineering, das in Transformationsjobs und Automatisierungsjobs unterteilt ist. Darüber hinaus war eines der Hauptthemen die Modellierung von ETL-Pipelines.
Zu meinen Aufgaben gehörten u.a.:
Datenaufbereitung und -bereinigung: Einsatz von PySpark SQL, Impala und Hive SQL für die Aufbereitung und Bereinigung von Daten, die den Reporting Scrum Teams zur Verfügung gestellt wurden.
Entwicklung von Data Lake Lösungen: Konzeption und Implementierung von Data Lake Architekturen, die eine effektive Verbindung zu Cloud-Anbietern im Bereich Process Mining ermöglichten, unter Verwendung von Apache-Technologien wie Spark, Hive und Oozie.
Datenvorbereitung für Grunddatenlagen: Vorbereitung und Strukturierung von Basisdatensätzen zur weiteren Analyse und Verarbeitung.
Modellierung von mehrschichtigen Datenmodellen: Entwurf und Realisierung von komplexen Datenmodellen, die unter Berücksichtigung von Datenschutzrichtlinien durch Pseudonymisierung transformiert wurden.
Agiles Projektmanagement: Mitarbeit in einem agilen Scrum-Framework mit einem vollständig remote arbeitenden Team von 8 Mitgliedern, was eine flexible und effiziente Projektdurchführung erforderte.
Implementierung von Cluster-Einstellungen: Optimierung der Apache Spark Cluster-Konfigurationen zur Automatisierung von Einstellungen, effizientere Ressourcenzuweisung und Datenpartitionierung sowie Korrektur von Datenverzerrungen.
SparkHiveImpalaOozieInnovatorAmazon Web ServicesJiraConfluenceVisual Studio CodeCloudera Data Science WorkbenchDBTAirflow
PythonPySpark SQLImpala SQLData Lake ArchitekturApache-TechnologienDatenmodellierungPseudonymisierungagiles Projektmanagement (Scrum)Cluster-KonfigurationDatenaufbereitungDatenbereinigungRessourcenzuweisungDatenpartitionierungSQL
IT Operations Spezialist (Physical Security Analyst)
Senior Data Engineer | Senior Business AnalystSQLPythonTensorFlow...
Senior Data Engineer | Senior Business Analyst
Im Rahmen des Projektes unterstütze ich die operative Durchführung des Projektes. Hierzu gehörte sowohl die Business Analyse zur Anforderungserfassung, Datenmodellierung sowie Erstellung eines Analyseregelwerkes zur Auswertung von Mediendaten der Corporate Security. Zu meinen Aufgaben gehörten u.a.:
Datenbankadministration sowie Datenpflege des Video-Management-Systems sowie des ACS und Security Alarm Systems
Analyse der Prozesse und Ermittlung von Vorschlägen zur Verbesserung der Effizienz auf Basis von Big Data Plattform Integrationen (Hadoop)
Konzeptentwicklung sowie Erstellung von Best Practice Infrastruktur Lösungen über Cloud Plattformen (Transfer von Serverkapazitäten)
Repräsentantdes Corporate Security Physical Security Infrastructure Teams
Prozessautomatisierung durch API-Eingliederung von Phantom (Splunk) an ServiceNow
Testing des Machine Learning Verfahrens sowie Fraud Detection auf Basis von Tensorflow
HadoopPhantomAmazon Web ServicesServiceNowActive DirectoryApache KafkaJiraConfluence
Senior Data Scientist | ProjektmanagerSQLPythonJavaScript...
Senior Data Scientist | Projektmanager
Im Rahmen des Projektes unterstützte ich die Security Analysten den Mandaten in der Erstellung eines Datenanalysetools. Hierzu gehörte sowohl die Prozessmodellierung sowie die Code Anwendung. Zu meinen Aufgaben gehörten u.a.:
Analyse von Sicherheitsprofilen: Ich führte detaillierte Analysen von Sicherheitsprofilen durch, indem ich statistische Metriken verwendete, um Muster und potenzielle Risiken zu erkennen.
Dashboard-Erstellung und Datenüberführung: Entwicklung und Gestaltung von Dashboards zur Visualisierung der Analyseergebnisse. Ich war ebenfalls verantwortlich für die Überführung dieser Daten in das Dashboard, was eine präzise und effektive Datenrepräsentation sicherstellte.
Konzepterstellung und Integration eines SCRUM-Frameworks: Entwurf eines Konzepts zur Integration des SCRUM-Frameworks in das Projektmanagement, um die Entwicklung und Implementierung des Tools zu optimieren und zu beschleunigen.
Anwendung eines NLP-Machine-Learning-Ansatzes zur Korrelationsanalyse: Implementierung und Nutzung von Natural Language Processing (NLP) und Machine Learning, um Korrelationen innerhalb der Sicherheitsdaten zu analysieren und tiefergehende Einblicke zu gewinnen.
Integration des Dashboards in eine Subdomäne des Mandanten: Technische Implementierung des Dashboards in eine spezifische Subdomäne des Mandanten, um eine sichere und zugängliche Präsentation der Analyseergebnisse zu gewährleisten.
Erstellung eines digitalen Reifegradmodell-Tools auf Basis von Abteilungsumfragen
Senior Data ScientistStatistikanalyseDashboardScoring...
Senior Data Scientist
Im Rahmen des Projektes unterstützte ich die interne Erstellung eines Webtools. Hierzu gehörte sowohl die Algorithmenentwicklung, Datenmodellierung sowie der Use Case Erstellung zu Big Data Plattformen. Zu meinen Aufgaben gehörten u.a.:
Entwicklung eines Scoring-Modells: Ich konzipierte und implementierte ein Scoring-Modell zur Bewertung digitaler Subkategorien. Dieses Modell wurde erfolgreich in ein von mir mitentwickeltes Datenanalysetool integriert, das auf SPSS basierte, um präzise Analysefunktionen zu ermöglichen.
Statistische Auswertungen: Durchführung fundierter statistischer Analysen zur Bewertung und Optimierung der Datenqualität und der darauf basierenden Entscheidungsprozesse.
Webseiten-Anpassungen und Dashboard-Integration: Ich übernahm die technische Anpassung des Befragungstools und integrierte interaktive Dashboards im Frontend, um die Benutzerinteraktion und Datendarstellung zu verbessern.
Use Case-Generierung durch Prozessmodellierung: Entwicklung spezifischer Use Cases durch detaillierte Prozessmodellierung in der Cloud-Infrastruktur, was die Grundlage für die Skalierbarkeit und Adaptivität des Systems bildete.
Dokumentation und Stakeholder-Kommunikation: Ich war verantwortlich für die fortlaufende Dokumentation des Projektfortschritts und führte regelmäßige Abstimmungen mit Stakeholdern durch, um sicherzustellen, dass alle Projektziele erreicht und Erwartungen erfüllt wurden.
AWS Certified Cloud Practitioner, Amazon Web Services Training and Certification
AWS Certified Cloud Practitioner
Amazon Web Services Training and Certification
4 Jahre 10 Monate
2015-05 - 2020-02
Master of Science Economics
Master of Science Economics, Ruhr Universität Bochum
Master of Science Economics
Ruhr Universität Bochum
Quantitative Economics / Macroeconomics
1 Monat
2019-06 - 2019-06
Certified IBM Data Science Professional
Certified IBM Data Science Professional, IBM
Certified IBM Data Science Professional
IBM
Data Science Analytics using IBM Watson.
1 Monat
2019-05 - 2019-05
Certified Scrum Product Owner Lvl 1
Zertifizierung zum Product Owner durch Scrum.org, Scrum.org
Zertifizierung zum Product Owner durch Scrum.org
Scrum.org
1 Monat
2019-04 - 2019-04
Certified Scrum Master Lvl 1
Zertifizierung zum Scrum Master durch Scrum.org, Scrum.org
Zertifizierung zum Scrum Master durch Scrum.org
Scrum.org
Position
Position
Als Senior Data Engineer und Solution Architect spezialisiere ich mich auf die Modernisierung von Dateninfrastrukturen und die Migration von Altsystemen in Cloud-Umgebungen. Mein Schwerpunkt liegt auf der Datenextraktion, -transformation und -automatisierung mit Technologien wie Snowflake, DBT und CI/CD-Pipelines, während ich zugleich umfangreiche Erfahrung im Stakeholder-Management und der Prozessoptimierung einbringe.