Senior Data Engineer | Senior Cloud Engineer | Senior Data Analyst
Aktualisiert am 25.09.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.10.2024
Verfügbar zu: 100%
davon vor Ort: 0%
Engineering
Azure
Cloud
Datenanalyse
Datenbankadministrator
Big Data
Statische Analyse
internationale Projekterfahrung
Apache
AWS
JavaScript
Ansi SQL
R
MS Visual Studio
Phantom
Automation
Process Mining
Azure Devops
Oracle
Datawarehouse
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Spanisch
Fortgeschritten
Kurdisch
Muttersprache
Arabisch
Grundkenntnisse

Einsatzorte

Einsatzorte

Köln (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

8 Monate
2024-04 - heute

Migration der CRM-Lösung in die Azure Cloud

Senior Solution Architect Migrationsplanung BPMN-Prozesse Stakeholder-Management ...
Senior Solution Architect
Als Solution Architect für die Migration der CRM-Lösung in die Azure Cloud bei einer führenden Fluggesellschaft spiele ich eine entscheidende Rolle bei der Entwicklung und Umsetzung eines ganzheitlichen Migrationsplans.
Zu meinen Aufgaben gehörten u.a.:

  • Erstellung des Migrationsplans und Design der BPMN-Prozesse: Entwicklung eines detaillierten Migrationsplans, der die schrittweise Überführung der CRM-Lösung in die Azure Cloud umfasst. Dies beinhaltet die Analyse der bestehenden Prozesse und die Erstellung von BPMN-Diagrammen zur Visualisierung der neuen Abläufe.
  • Stakeholder-Management und Kommunikation: Enge Zusammenarbeit mit verschiedenen internen Stakeholdern, einschließlich des IT-Teams, der Geschäftsführung und der Endbenutzer, um deren Anforderungen zu verstehen und sicherzustellen, dass die Migration reibungslos verläuft und ihre Bedürfnisse erfüllt.
  • Schnittstellenanalyse und Integration: Durchführung einer gründlichen Analyse der bestehenden Schnittstellen und Integrationen, um sicherzustellen, dass sie nahtlos in die neue Azure-Infrastruktur integriert werden können. Dies umfasst die Bewertung von APIs, Datenbankverbindungen und externen Systemen.
  • Generierung von Anwendungsfällen und Use-Case-Entwicklung: Identifizierung und Dokumentation verschiedener Anwendungsfälle für die CRM-Lösung in der Azure Cloud. Dies beinhaltet die Erstellung von Use Cases, die die Funktionalität der Lösung unter verschiedenen Szenarien demonstrieren.
  • Datenvalidierung und Bestandsaufnahme der Warehouselösungen: Durchführung einer umfassenden Bestandsaufnahme der vorhandenen Daten in den Warehouses, um sicherzustellen, dass sie für die Migration vorbereitet sind. Dies beinhaltet die Validierung der Datenqualität, Identifizierung von Datenbereinigungsbedarf und Festlegung von Strategien zur Datenmigration.
Azure CRM Azure Cloud Azure DevOps Azure Data Factory Azure SQL Database Azure Functions Azure Logic Apps Azure Kubernetes Service (AKS) Azure Active Directory Azure Virtual Machines Azure Blob Storage BPMN
Migrationsplanung BPMN-Prozesse Stakeholder-Management Schnittstellenanalyse Integration API-Analyse Datenbankverbindungen Use-Case-Entwicklung Datenvalidierung Datenmigration Migration
Luftfahrt
Frankfurt am Main
2 Jahre 1 Monat
2022-11 - heute

Modul ?Application System Plattforms - Einführung in Azure?

Senior Data Engineer | Dozent T-SQL Python Linux ...
Senior Data Engineer | Dozent
Im Rahmen des Lehrmoduls ?Application System Plattforms - Einführung in Azure? übernahm ich eine zentrale Rolle bei der Entwicklung und Implementierung eines modernen Lehransatzes zur Vermittlung von Cloud-basierten Technologien im Masterstudiengang ?Data Engineering and Consulting?.
Zu meinen Aufgaben gehörten u.a.:


  • Entwicklung des Lehrplans und der Vorlesungsmaterialien: Erarbeitung eines detaillierten Lehrplans, der theoretische Konzepte und praktische Anwendungen von Azure umfasst. Dies beinhaltete die Vorbereitung von Vorlesungsmaterialien, die die neuesten Entwicklungen und Best Practices in der Cloud-Technologie abdeckten.
  • Durchführung von Praxisprojekten: Anleitung der Studierenden bei der Entwicklung einer Customer Data Platform. Dieses Projekt umfasste die Sammlung von Daten aus einem Webshop, deren Verarbeitung über Azure Data Factory und das Streaming via Azure Event Hub.
  • Aufbau und Management der Infrastruktur: Konfiguration und Management der notwendigen Azure-Ressourcen mithilfe von Terraform, um die verschiedenen Umgebungen für das Projekt bereitzustellen und zu verwalten. Dies förderte das Verständnis der Studierenden für DevOps-Praktiken in der Cloud.
  • Erstellung von Übungsmaterialien und Bewertung der Studierenden: Entwicklung von Übungen, die die Anwendung des in den Vorlesungen vermittelten Wissens vertieften. Zudem Übernahme der Bewertung der Projekte und Leistungen der Studierenden.
  • Förderung der analytischen Fähigkeiten und des technischen Verständnisses: Unterstützung der Studierenden bei der Analyse und Interpretation von Daten, um deren Fähigkeit zur Problemlösung und Entscheidungsfindung in realen Business-Szenarien zu stärken.

Azure Data Factory Azure Event Hub Azure SQL Database Azure DevOps Azure Functions Azure Logic Apps Azure Kubernetes Service (AKS) Azure Active Directory Azure Virtual Machines Azure Blob Storage Terraform Power BI Databricks
T-SQL Python Linux SAS Git SQL Docker Cloud-Technologie DevOps Infrastrukturmanagement Datenverarbeitung Streaming Projektmanagement Lehrplangestaltung Analyse Problemlösung
Hochschule Albstadt Sigmaringen
Remote
3 Monate
2024-06 - 2024-08

OKT ? Aufbau und Verwendung von Snowflake DWH

Senior Data Engineer Data Warehouse Modeling T-SQL Python ...
Senior Data Engineer
Im Rahmen des Projektes spielte ich eine zentrale Rolle bei der Modernisierung der Datenverarbeitungsprozesse und der Infrastruktur, wobei der Schwerpunkt auf der Integration von Snowflake und der Nutzung von DBT lag.
Zu meinen Aufgaben gehörten u.a.:

  • Datenextraktion und -verarbeitung mit DBT und Snowflake: Entwicklung und Verfeinerung von DBT-Skripten zur Extraktion und Verarbeitung großer Datenmengen in Snowflake, einschließlich der Implementierung von Bereinigungs- und Transformationsprozessen.
  • Framework Erstellung: Generierung von DBT-Konfigurationsfiles (Makros, Jinjas) zur Automatisierung der Selektion in Form von CI/CD Pipelines.
  • Migration und Anpassung bestehender Codes: Konvertierung vorhandener SAS-Codes in Python und DBT zur Verbesserung der Skalierbarkeit und Wartbarkeit sowie zur Anpassung an aktuelle Geschäftsanforderungen.
  • Erstellung von Datenbereinigungsskripten: Entwicklung von Python- und SQL-Skripten zur Bereinigung von Daten innerhalb von Snowflake, um die Qualität und Genauigkeit der Analyseergebnisse zu erhöhen.
  • Dokumentation und Optimierung von Prozessen: Erstellung umfassender Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Sicherstellung einer hohen Systemleistung.
DBT Snowflake Oracle Data Warehouse SAS Git Docker Databricks SQL Python
Data Warehouse Modeling T-SQL Python Linux SQL Datenextraktion Datenverarbeitung Framework-Erstellung CI/CD-Pipelines Code-Migration Datenbereinigung Prozessoptimierung Skalierbarkeit Wartbarkeit
Versicherungen
Köln
1 Jahr
2023-04 - 2024-03

Einführung von Adobe Campaign

Senior Python Developer | Senior Business Analyst | Senior Data Engineer Python SQL Daten-Selektion ...
Senior Python Developer | Senior Business Analyst | Senior Data Engineer
Im Rahmen des Projektes nahm ich Schlüsselrolle bei der Überführung von bestehenden Datenverarbeitungsprozessen und Infrastrukturen in eine modernere und effizientere Umgebung.
Zu meinen Aufgaben gehörten u.a.:

  • Daten-Selektion und -Verarbeitung mit Python: Entwicklung von Python-Skripten zur Selektion und Verarbeitung großer Datenmengen, einschließlich der Implementierung von Datenbereinigungs- und Transformationsprozessen.
  • Serverumzug und Linux-Systemmanagement: Mitwirkung bei der Planung und Durchführung des Umzugs von Servern auf Linux-Basis, einschließlich der Sicherstellung von Betriebssicherheit und Datenintegrität während des Transfers.
  • Migration und Refactoring von SAS zu Python: Umwandlung bestehender SAS-Codes in Python, um eine verbesserte Skalierbarkeit und Wartbarkeit zu erreichen, sowie Anpassung an neue Geschäftsanforderungen.
  • Entwicklung von Datenbereinigungsskripten: Erstellung von Python / SQL Skripten zur Datenbereinigung, um die Datenqualität und Genauigkeit der analytischen Ergebnisse zu verbessern.
  • Dokumentation und Prozessoptimierung: Erstellung detaillierter Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Gewährleistung einer hohen Systemleistung.
  • Azure Cloud-Integration: Implementierung und Management von Azure-Diensten zur Unterstützung der Datenverarbeitung und Analyse. Konfiguration von Azure Data Factory-Pipelines zur Automatisierung des Datenflusses und Integration von Azure SQL Database für skalierbare Datenlagerungslösungen.
Linux SAS Git Docker Jenkins Oracle Database PowerPoint) BPMN Azure Adobe Campaign MSSQL DBT Azure Data Factory Azure SQL Database MS Excel
Python SQL Daten-Selektion Datenverarbeitung Datenbereinigung Transformationsprozesse Serverumzug Linux-Systemmanagement Migration Refactoring Prozessoptimierung Cloud-Integration Automatisierung
Banken, Unternehmensgröße: > 80.000 Mitarbeitende
Bonn
6 Monate
2022-10 - 2023-03

Orchestration BOT

Senior Python Developer | Senior Daten Analyst SQL Python Datenbankvalidierung ...
Senior Python Developer | Senior Daten Analyst
Im Rahmen des Projektes unterstütze ich die Optimierung einer Lead Engine. Hierzu gehörte sowohl die Weiterentwicklung eines weiteren Vertriebkanales (Mobiler Vertrieb) in die Ausspielung der Engine. Zudem wurde Fault Monitoring und Performance Optimierung des bestehendes BOTS mittels verschiedener Python Libraries.
Zu meinen Aufgaben gehörten u.a.:

  • Datenbank Bestandsvalidierung innerhalb des Warehouses: Ich führte umfassende Validierungsprozesse durch, um die Integrität und Genauigkeit der Daten in unserem Data Warehouse zu gewährleisten. Diese Validierungen waren entscheidend für die Zuverlässigkeit der Lead Engine.
  • Analyse der Prozesse und Integration von Multiprocessing Methoden: Zur Steigerung der Effizienz und Geschwindigkeit der Leadausspielung implementierte ich Multiprocessing-Methoden. Dies verbesserte die Parallelverarbeitung und optimierte die Leistung der Systeme signifikant.
  • Konzepterweiterung von Spark als Cluster-Lösung innerhalb der Systemarchitektur: Ich entwickelte ein Konzept zur Nutzung von Apache Spark als Cluster-Lösung, um die Datenverarbeitung zu skalieren und die Verarbeitungsgeschwindigkeit zu erhöhen.
  • Stakeholdermanagement und Integration weiterer Features in Sprint-Zyklen: Engagierte Zusammenarbeit mit Stakeholdern zur Identifizierung und Implementierung neuer Funktionen in regelmäßigen Sprint-Zyklen. Diese agile Arbeitsweise ermöglichte eine schnelle Anpassung an sich ändernde Geschäftsanforderungen.
  • Konzeption und Erstellung einer Verteillogik, um geeignete Berater für Leads auszuwählen: Ich entwarf eine Logik, die automatisch die passendsten Berater für die jeweiligen Leads ermittelte, basierend auf verschiedenen Kriterien und historischen Leistungsdaten.
  • Datenanalyse von ausgespielten Leads und Prüfung der Wertigkeit für Berater im Hinblick auf Business Requirements: Durchführung detaillierter Analysen der Lead-Daten, um deren Wertigkeit zu bewerten und sicherzustellen, dass die Leads den Geschäftsanforderungen entsprechen und effektiv genutzt werden.
Jupyter Notebook Jira Confluence Linux Apache Spark Airflow PowerPoint MS Excel
SQL Python Datenbankvalidierung Fault Monitoring Performance-Optimierung Python Libraries Multiprocessing Cluster-Lösung Stakeholdermanagement Agile Entwicklung Datenanalyse Lead-Engine Optimierung Verteilungslogik Geschäftsanforderungen
Banken, Unternehmensgröße: > 80.000 Mitarbeitende
Frankfurt am Main
1 Jahr 2 Monate
2021-10 - 2022-11

Valhalla

Senior Business Analyst | Senior Technical Consultant SQL Python Datenpipeline-Engineering ...
Senior Business Analyst | Senior Technical Consultant
Im Rahmen des Projekts unterstützte ich die Datenauswertung, das Engineering neuer Daten Pipelines und die Datenvisualisierung vorhandenen Datensets aus dem Azure Cloudumfeld. Dies umfasst des Weiteren jedoch auch Data Cleaning Prozesse und Data Modelling Tätigkeiten.
Zu meinen Aufgaben gehörten u.a.:

  • Automatisierung und Datenintegration über Azure Synapse: Implementierung von Datenflüssen und deren Automatisierung zur effizienten Analyse und Verarbeitung.
  • ETL-Erstellung innerhalb Databricks, Hosting über Azure. Aufbau eines Automatischen Upload Konzepstes zu ADLS
  • Integration einer Middleware-Lösung über Azure APIM und Data Factory: Einsatz von Middleware zur Optimierung der Datenzugänglichkeit und -steuerung.
  • Vorbereitung und Anlieferung von Dateien auf SAS VA Server und Überführung in SAS Viya Cloud Umgebung: Management der Datenbereitstellung und Migration in Cloud-basierte Analyseumgebungen.
  • Durchführung von Workshops: Leitung von Workshops zur Schulung des Teams bezüglich neuer Datenarchitekturen.
  • Erstellung von Reports und Dashboards: Entwicklung von Dashboards und Reports, die operative Daten visualisieren.
  • Erfassung und Erweiterung von Business Requirements: Analyse von Geschäftsanforderungen und Integration von Datenvalidierungsstandards.
  • Datenanalyse und Optimierung von Datenqualitätsanforderungen: Analyse und Verbesserung der Datenqualität zur Unterstützung präziserer Entscheidungsfindungen.
Azure Synapse Azure SQL DB Azure Purview Azure Data Factory SAS CI 360 SAS Viya SAS Enterprise Guide Azure APIM Databricks SAS VA Server ADLS MS Excel Powerpoint
SQL Python Datenpipeline-Engineering Datenvisualisierung Data Cleaning Data Modelling Automatisierung Datenintegration ETL-Erstellung Middleware-Integration Cloud-Migration Workshop-Leitung Report-Erstellung Dashboard-Entwicklung Business Requirements Datenanalyse Datenqualitätsoptimierung
Handel, Unternehmensgröße: > 5.000 Mitarbeitende
Venlo (Holland)
1 Jahr 8 Monate
2020-12 - 2022-07

Customer Journey Log -Data Engineering

Senior Data Engineer Python PySpark SQL Impala SQL ...
Senior Data Engineer
Im Rahmen des Projekts unterstützte ich die Datenauswertung und das Datenmanagement (Data Governance / Datenqualitätsmanagement) der vorhandenen Datensees. Dies umfasst des Weiteren jedoch auch Data Engineering, das in Transformationsjobs und Automatisierungsjobs unterteilt ist. Darüber hinaus war eines der Hauptthemen die Modellierung von ETL-Pipelines.
Zu meinen Aufgaben gehörten u.a.:

  • Datenaufbereitung und -bereinigung: Einsatz von PySpark SQL, Impala und Hive SQL für die Aufbereitung und Bereinigung von Daten, die den Reporting Scrum Teams zur Verfügung gestellt wurden.
  • Entwicklung von Data Lake Lösungen: Konzeption und Implementierung von Data Lake Architekturen, die eine effektive Verbindung zu Cloud-Anbietern im Bereich Process Mining ermöglichten, unter Verwendung von Apache-Technologien wie Spark, Hive und Oozie.
  • Datenvorbereitung für Grunddatenlagen: Vorbereitung und Strukturierung von Basisdatensätzen zur weiteren Analyse und Verarbeitung.
  • Modellierung von mehrschichtigen Datenmodellen: Entwurf und Realisierung von komplexen Datenmodellen, die unter Berücksichtigung von Datenschutzrichtlinien durch Pseudonymisierung transformiert wurden.
  • Agiles Projektmanagement: Mitarbeit in einem agilen Scrum-Framework mit einem vollständig remote arbeitenden Team von 8 Mitgliedern, was eine flexible und effiziente Projektdurchführung erforderte.
  • Implementierung von Cluster-Einstellungen: Optimierung der Apache Spark Cluster-Konfigurationen zur Automatisierung von Einstellungen, effizientere Ressourcenzuweisung und Datenpartitionierung sowie Korrektur von Datenverzerrungen.
Spark Hive Impala Oozie Innovator Amazon Web Services Jira Confluence Visual Studio Code Cloudera Data Science Workbench DBT Airflow
Python PySpark SQL Impala SQL Data Lake Architektur Apache-Technologien Datenmodellierung Pseudonymisierung agiles Projektmanagement (Scrum) Cluster-Konfiguration Datenaufbereitung Datenbereinigung Ressourcenzuweisung Datenpartitionierung SQL
Telekommunikation, Unternehmensgröße: > 220.000 Mitarbeitende
Bonn
1 Jahr 3 Monate
2019-09 - 2020-11

IT Operations Spezialist (Physical Security Analyst)

Senior Data Engineer | Senior Business Analyst SQL Python TensorFlow ...
Senior Data Engineer | Senior Business Analyst
Im Rahmen des Projektes unterstütze ich die operative Durchführung des Projektes. Hierzu gehörte sowohl die Business Analyse zur Anforderungserfassung, Datenmodellierung sowie Erstellung eines Analyseregelwerkes zur Auswertung von Mediendaten der Corporate Security.
Zu meinen Aufgaben gehörten u.a.:
  • Datenbankadministration sowie Datenpflege des Video-Management-Systems sowie des ACS und Security Alarm Systems
  • Analyse der Prozesse und Ermittlung von Vorschlägen zur Verbesserung der Effizienz auf Basis von Big Data Plattform Integrationen (Hadoop)
  • Konzeptentwicklung sowie Erstellung von Best Practice Infrastruktur Lösungen über Cloud Plattformen (Transfer von Serverkapazitäten)
  • Repräsentantdes Corporate Security Physical Security Infrastructure Teams
  • Prozessautomatisierung durch API-Eingliederung von Phantom (Splunk) an ServiceNow
  • Testing des Machine Learning Verfahrens sowie Fraud Detection auf Basis von Tensorflow
Hadoop Phantom Amazon Web Services ServiceNow Active Directory Apache Kafka Jira Confluence
SQL Python TensorFlow Requirements Engineering Geschäftsprozessanalyse
Banken, Unternehmensgröße: > 80.000 Mitarbeitende
Frankfurt
1 Jahr 5 Monate
2019-05 - 2020-09

Datenanalyse von Security Profiles für Governance

Senior Data Scientist | Projektmanager SQL Python JavaScript ...
Senior Data Scientist | Projektmanager
Im Rahmen des Projektes unterstützte ich die Security Analysten den Mandaten in der Erstellung eines Datenanalysetools. Hierzu gehörte sowohl die Prozessmodellierung sowie die Code Anwendung.
Zu meinen Aufgaben gehörten u.a.:
  • Analyse von Sicherheitsprofilen: Ich führte detaillierte Analysen von Sicherheitsprofilen durch, indem ich statistische Metriken verwendete, um Muster und potenzielle Risiken zu erkennen.
  • Dashboard-Erstellung und Datenüberführung: Entwicklung und Gestaltung von Dashboards zur Visualisierung der Analyseergebnisse. Ich war ebenfalls verantwortlich für die Überführung dieser Daten in das Dashboard, was eine präzise und effektive Datenrepräsentation sicherstellte.
  • Konzepterstellung und Integration eines SCRUM-Frameworks: Entwurf eines Konzepts zur Integration des SCRUM-Frameworks in das Projektmanagement, um die Entwicklung und Implementierung des Tools zu optimieren und zu beschleunigen.
  • Anwendung eines NLP-Machine-Learning-Ansatzes zur Korrelationsanalyse: Implementierung und Nutzung von Natural Language Processing (NLP) und Machine Learning, um Korrelationen innerhalb der Sicherheitsdaten zu analysieren und tiefergehende Einblicke zu gewinnen.
  • Integration des Dashboards in eine Subdomäne des Mandanten: Technische Implementierung des Dashboards in eine spezifische Subdomäne des Mandanten, um eine sichere und zugängliche Präsentation der Analyseergebnisse zu gewährleisten.
Tableau Alteryx Designer Apache Spark MongoDB ElasticSearch Kibana JIRA Git Docker Kubernetes Excel PowerPoint Visio
SQL Python JavaScript Scikit-learn TensorFlow Natural Language Toolkit (NLTK) Pandas NumPy Projektmanagement Requirements Engineering Geschäftsprozessanalyse
Automobil, Unternehmensgröße: > 170.000 Mitarbeitende
Düsseldorf (Remote)
1 Jahr
2018-05 - 2019-04

Erstellung eines digitalen Reifegradmodell-Tools auf Basis von Abteilungsumfragen

Senior Data Scientist Statistikanalyse Dashboard Scoring ...
Senior Data Scientist
Im Rahmen des Projektes unterstützte ich die interne Erstellung eines Webtools. Hierzu gehörte sowohl die Algorithmenentwicklung, Datenmodellierung sowie der Use Case Erstellung zu Big Data Plattformen. Zu meinen Aufgaben gehörten u.a.:
  • Entwicklung eines Scoring-Modells: Ich konzipierte und implementierte ein Scoring-Modell zur Bewertung digitaler Subkategorien. Dieses Modell wurde erfolgreich in ein von mir mitentwickeltes Datenanalysetool integriert, das auf SPSS basierte, um präzise Analysefunktionen zu ermöglichen.
  • Statistische Auswertungen: Durchführung fundierter statistischer Analysen zur Bewertung und Optimierung der Datenqualität und der darauf basierenden Entscheidungsprozesse.
  • Webseiten-Anpassungen und Dashboard-Integration: Ich übernahm die technische Anpassung des Befragungstools und integrierte interaktive Dashboards im Frontend, um die Benutzerinteraktion und Datendarstellung zu verbessern.
  • Use Case-Generierung durch Prozessmodellierung: Entwicklung spezifischer Use Cases durch detaillierte Prozessmodellierung in der Cloud-Infrastruktur, was die Grundlage für die Skalierbarkeit und Adaptivität des Systems bildete.
  • Dokumentation und Stakeholder-Kommunikation: Ich war verantwortlich für die fortlaufende Dokumentation des Projektfortschritts und führte regelmäßige Abstimmungen mit Stakeholdern durch, um sicherzustellen, dass alle Projektziele erreicht und Erwartungen erfüllt wurden.
    Tableau Excel VBA SPSS Excel
    Statistikanalyse Dashboard Scoring Apache Java Webserver Datenanalyse BI-Reporting JavaScript Python T-SQL
    Energie, Unternehmensgröße: > 6.000 Mitarbeitende
    Düsseldorf

    Aus- und Weiterbildung

    Aus- und Weiterbildung

    1 Monat
    2020-06 - 2020-06

    AWS Certified Cloud Practitioner

    AWS Certified Cloud Practitioner, Amazon Web Services Training and Certification
    AWS Certified Cloud Practitioner
    Amazon Web Services Training and Certification
    4 Jahre 10 Monate
    2015-05 - 2020-02

    Master of Science Economics

    Master of Science Economics, Ruhr Universität Bochum
    Master of Science Economics
    Ruhr Universität Bochum

    Quantitative Economics / Macroeconomics

    1 Monat
    2019-06 - 2019-06

    Certified IBM Data Science Professional

    Certified IBM Data Science Professional, IBM
    Certified IBM Data Science Professional
    IBM

    Data Science Analytics using IBM Watson.

    1 Monat
    2019-05 - 2019-05

    Certified Scrum Product Owner Lvl 1

    Zertifizierung zum Product Owner durch Scrum.org, Scrum.org
    Zertifizierung zum Product Owner durch Scrum.org
    Scrum.org
    1 Monat
    2019-04 - 2019-04

    Certified Scrum Master Lvl 1

    Zertifizierung zum Scrum Master durch Scrum.org, Scrum.org
    Zertifizierung zum Scrum Master durch Scrum.org
    Scrum.org

    Position

    Position

    Als Senior Data Engineer und Solution Architect spezialisiere ich mich auf die Modernisierung von Dateninfrastrukturen und die Migration von Altsystemen in Cloud-Umgebungen. Mein Schwerpunkt liegt auf der Datenextraktion, -transformation und -automatisierung mit Technologien wie Snowflake, DBT und CI/CD-Pipelines, während ich zugleich umfangreiche Erfahrung im Stakeholder-Management und der Prozessoptimierung einbringe.

    Kompetenzen

    Kompetenzen

    Top-Skills

    Engineering Azure Cloud Datenanalyse Datenbankadministrator Big Data Statische Analyse internationale Projekterfahrung Apache AWS JavaScript Ansi SQL R MS Visual Studio Phantom Automation Process Mining Azure Devops Oracle Datawarehouse

    Programmiersprachen

    Excel VBA
    JavaScript
    Python
    R

    Datenbanken

    MongoDB
    NoSQL
    SQL

    Personalverantwortung

    Management
    mediation

    Branchen

    Branchen

    • Consulting
    • FMCG
    • Services
    • Energie
    • Bankenwesen
    • Automobil
    • Versicherungen

    Einsatzorte

    Einsatzorte

    Köln (+500km)
    Deutschland, Schweiz, Österreich
    möglich

    Projekte

    Projekte

    8 Monate
    2024-04 - heute

    Migration der CRM-Lösung in die Azure Cloud

    Senior Solution Architect Migrationsplanung BPMN-Prozesse Stakeholder-Management ...
    Senior Solution Architect
    Als Solution Architect für die Migration der CRM-Lösung in die Azure Cloud bei einer führenden Fluggesellschaft spiele ich eine entscheidende Rolle bei der Entwicklung und Umsetzung eines ganzheitlichen Migrationsplans.
    Zu meinen Aufgaben gehörten u.a.:

    • Erstellung des Migrationsplans und Design der BPMN-Prozesse: Entwicklung eines detaillierten Migrationsplans, der die schrittweise Überführung der CRM-Lösung in die Azure Cloud umfasst. Dies beinhaltet die Analyse der bestehenden Prozesse und die Erstellung von BPMN-Diagrammen zur Visualisierung der neuen Abläufe.
    • Stakeholder-Management und Kommunikation: Enge Zusammenarbeit mit verschiedenen internen Stakeholdern, einschließlich des IT-Teams, der Geschäftsführung und der Endbenutzer, um deren Anforderungen zu verstehen und sicherzustellen, dass die Migration reibungslos verläuft und ihre Bedürfnisse erfüllt.
    • Schnittstellenanalyse und Integration: Durchführung einer gründlichen Analyse der bestehenden Schnittstellen und Integrationen, um sicherzustellen, dass sie nahtlos in die neue Azure-Infrastruktur integriert werden können. Dies umfasst die Bewertung von APIs, Datenbankverbindungen und externen Systemen.
    • Generierung von Anwendungsfällen und Use-Case-Entwicklung: Identifizierung und Dokumentation verschiedener Anwendungsfälle für die CRM-Lösung in der Azure Cloud. Dies beinhaltet die Erstellung von Use Cases, die die Funktionalität der Lösung unter verschiedenen Szenarien demonstrieren.
    • Datenvalidierung und Bestandsaufnahme der Warehouselösungen: Durchführung einer umfassenden Bestandsaufnahme der vorhandenen Daten in den Warehouses, um sicherzustellen, dass sie für die Migration vorbereitet sind. Dies beinhaltet die Validierung der Datenqualität, Identifizierung von Datenbereinigungsbedarf und Festlegung von Strategien zur Datenmigration.
    Azure CRM Azure Cloud Azure DevOps Azure Data Factory Azure SQL Database Azure Functions Azure Logic Apps Azure Kubernetes Service (AKS) Azure Active Directory Azure Virtual Machines Azure Blob Storage BPMN
    Migrationsplanung BPMN-Prozesse Stakeholder-Management Schnittstellenanalyse Integration API-Analyse Datenbankverbindungen Use-Case-Entwicklung Datenvalidierung Datenmigration Migration
    Luftfahrt
    Frankfurt am Main
    2 Jahre 1 Monat
    2022-11 - heute

    Modul ?Application System Plattforms - Einführung in Azure?

    Senior Data Engineer | Dozent T-SQL Python Linux ...
    Senior Data Engineer | Dozent
    Im Rahmen des Lehrmoduls ?Application System Plattforms - Einführung in Azure? übernahm ich eine zentrale Rolle bei der Entwicklung und Implementierung eines modernen Lehransatzes zur Vermittlung von Cloud-basierten Technologien im Masterstudiengang ?Data Engineering and Consulting?.
    Zu meinen Aufgaben gehörten u.a.:


    • Entwicklung des Lehrplans und der Vorlesungsmaterialien: Erarbeitung eines detaillierten Lehrplans, der theoretische Konzepte und praktische Anwendungen von Azure umfasst. Dies beinhaltete die Vorbereitung von Vorlesungsmaterialien, die die neuesten Entwicklungen und Best Practices in der Cloud-Technologie abdeckten.
    • Durchführung von Praxisprojekten: Anleitung der Studierenden bei der Entwicklung einer Customer Data Platform. Dieses Projekt umfasste die Sammlung von Daten aus einem Webshop, deren Verarbeitung über Azure Data Factory und das Streaming via Azure Event Hub.
    • Aufbau und Management der Infrastruktur: Konfiguration und Management der notwendigen Azure-Ressourcen mithilfe von Terraform, um die verschiedenen Umgebungen für das Projekt bereitzustellen und zu verwalten. Dies förderte das Verständnis der Studierenden für DevOps-Praktiken in der Cloud.
    • Erstellung von Übungsmaterialien und Bewertung der Studierenden: Entwicklung von Übungen, die die Anwendung des in den Vorlesungen vermittelten Wissens vertieften. Zudem Übernahme der Bewertung der Projekte und Leistungen der Studierenden.
    • Förderung der analytischen Fähigkeiten und des technischen Verständnisses: Unterstützung der Studierenden bei der Analyse und Interpretation von Daten, um deren Fähigkeit zur Problemlösung und Entscheidungsfindung in realen Business-Szenarien zu stärken.

    Azure Data Factory Azure Event Hub Azure SQL Database Azure DevOps Azure Functions Azure Logic Apps Azure Kubernetes Service (AKS) Azure Active Directory Azure Virtual Machines Azure Blob Storage Terraform Power BI Databricks
    T-SQL Python Linux SAS Git SQL Docker Cloud-Technologie DevOps Infrastrukturmanagement Datenverarbeitung Streaming Projektmanagement Lehrplangestaltung Analyse Problemlösung
    Hochschule Albstadt Sigmaringen
    Remote
    3 Monate
    2024-06 - 2024-08

    OKT ? Aufbau und Verwendung von Snowflake DWH

    Senior Data Engineer Data Warehouse Modeling T-SQL Python ...
    Senior Data Engineer
    Im Rahmen des Projektes spielte ich eine zentrale Rolle bei der Modernisierung der Datenverarbeitungsprozesse und der Infrastruktur, wobei der Schwerpunkt auf der Integration von Snowflake und der Nutzung von DBT lag.
    Zu meinen Aufgaben gehörten u.a.:

    • Datenextraktion und -verarbeitung mit DBT und Snowflake: Entwicklung und Verfeinerung von DBT-Skripten zur Extraktion und Verarbeitung großer Datenmengen in Snowflake, einschließlich der Implementierung von Bereinigungs- und Transformationsprozessen.
    • Framework Erstellung: Generierung von DBT-Konfigurationsfiles (Makros, Jinjas) zur Automatisierung der Selektion in Form von CI/CD Pipelines.
    • Migration und Anpassung bestehender Codes: Konvertierung vorhandener SAS-Codes in Python und DBT zur Verbesserung der Skalierbarkeit und Wartbarkeit sowie zur Anpassung an aktuelle Geschäftsanforderungen.
    • Erstellung von Datenbereinigungsskripten: Entwicklung von Python- und SQL-Skripten zur Bereinigung von Daten innerhalb von Snowflake, um die Qualität und Genauigkeit der Analyseergebnisse zu erhöhen.
    • Dokumentation und Optimierung von Prozessen: Erstellung umfassender Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Sicherstellung einer hohen Systemleistung.
    DBT Snowflake Oracle Data Warehouse SAS Git Docker Databricks SQL Python
    Data Warehouse Modeling T-SQL Python Linux SQL Datenextraktion Datenverarbeitung Framework-Erstellung CI/CD-Pipelines Code-Migration Datenbereinigung Prozessoptimierung Skalierbarkeit Wartbarkeit
    Versicherungen
    Köln
    1 Jahr
    2023-04 - 2024-03

    Einführung von Adobe Campaign

    Senior Python Developer | Senior Business Analyst | Senior Data Engineer Python SQL Daten-Selektion ...
    Senior Python Developer | Senior Business Analyst | Senior Data Engineer
    Im Rahmen des Projektes nahm ich Schlüsselrolle bei der Überführung von bestehenden Datenverarbeitungsprozessen und Infrastrukturen in eine modernere und effizientere Umgebung.
    Zu meinen Aufgaben gehörten u.a.:

    • Daten-Selektion und -Verarbeitung mit Python: Entwicklung von Python-Skripten zur Selektion und Verarbeitung großer Datenmengen, einschließlich der Implementierung von Datenbereinigungs- und Transformationsprozessen.
    • Serverumzug und Linux-Systemmanagement: Mitwirkung bei der Planung und Durchführung des Umzugs von Servern auf Linux-Basis, einschließlich der Sicherstellung von Betriebssicherheit und Datenintegrität während des Transfers.
    • Migration und Refactoring von SAS zu Python: Umwandlung bestehender SAS-Codes in Python, um eine verbesserte Skalierbarkeit und Wartbarkeit zu erreichen, sowie Anpassung an neue Geschäftsanforderungen.
    • Entwicklung von Datenbereinigungsskripten: Erstellung von Python / SQL Skripten zur Datenbereinigung, um die Datenqualität und Genauigkeit der analytischen Ergebnisse zu verbessern.
    • Dokumentation und Prozessoptimierung: Erstellung detaillierter Dokumentationen für die neuen Prozesse und Systeme sowie kontinuierliche Überwachung und Optimierung zur Gewährleistung einer hohen Systemleistung.
    • Azure Cloud-Integration: Implementierung und Management von Azure-Diensten zur Unterstützung der Datenverarbeitung und Analyse. Konfiguration von Azure Data Factory-Pipelines zur Automatisierung des Datenflusses und Integration von Azure SQL Database für skalierbare Datenlagerungslösungen.
    Linux SAS Git Docker Jenkins Oracle Database PowerPoint) BPMN Azure Adobe Campaign MSSQL DBT Azure Data Factory Azure SQL Database MS Excel
    Python SQL Daten-Selektion Datenverarbeitung Datenbereinigung Transformationsprozesse Serverumzug Linux-Systemmanagement Migration Refactoring Prozessoptimierung Cloud-Integration Automatisierung
    Banken, Unternehmensgröße: > 80.000 Mitarbeitende
    Bonn
    6 Monate
    2022-10 - 2023-03

    Orchestration BOT

    Senior Python Developer | Senior Daten Analyst SQL Python Datenbankvalidierung ...
    Senior Python Developer | Senior Daten Analyst
    Im Rahmen des Projektes unterstütze ich die Optimierung einer Lead Engine. Hierzu gehörte sowohl die Weiterentwicklung eines weiteren Vertriebkanales (Mobiler Vertrieb) in die Ausspielung der Engine. Zudem wurde Fault Monitoring und Performance Optimierung des bestehendes BOTS mittels verschiedener Python Libraries.
    Zu meinen Aufgaben gehörten u.a.:

    • Datenbank Bestandsvalidierung innerhalb des Warehouses: Ich führte umfassende Validierungsprozesse durch, um die Integrität und Genauigkeit der Daten in unserem Data Warehouse zu gewährleisten. Diese Validierungen waren entscheidend für die Zuverlässigkeit der Lead Engine.
    • Analyse der Prozesse und Integration von Multiprocessing Methoden: Zur Steigerung der Effizienz und Geschwindigkeit der Leadausspielung implementierte ich Multiprocessing-Methoden. Dies verbesserte die Parallelverarbeitung und optimierte die Leistung der Systeme signifikant.
    • Konzepterweiterung von Spark als Cluster-Lösung innerhalb der Systemarchitektur: Ich entwickelte ein Konzept zur Nutzung von Apache Spark als Cluster-Lösung, um die Datenverarbeitung zu skalieren und die Verarbeitungsgeschwindigkeit zu erhöhen.
    • Stakeholdermanagement und Integration weiterer Features in Sprint-Zyklen: Engagierte Zusammenarbeit mit Stakeholdern zur Identifizierung und Implementierung neuer Funktionen in regelmäßigen Sprint-Zyklen. Diese agile Arbeitsweise ermöglichte eine schnelle Anpassung an sich ändernde Geschäftsanforderungen.
    • Konzeption und Erstellung einer Verteillogik, um geeignete Berater für Leads auszuwählen: Ich entwarf eine Logik, die automatisch die passendsten Berater für die jeweiligen Leads ermittelte, basierend auf verschiedenen Kriterien und historischen Leistungsdaten.
    • Datenanalyse von ausgespielten Leads und Prüfung der Wertigkeit für Berater im Hinblick auf Business Requirements: Durchführung detaillierter Analysen der Lead-Daten, um deren Wertigkeit zu bewerten und sicherzustellen, dass die Leads den Geschäftsanforderungen entsprechen und effektiv genutzt werden.
    Jupyter Notebook Jira Confluence Linux Apache Spark Airflow PowerPoint MS Excel
    SQL Python Datenbankvalidierung Fault Monitoring Performance-Optimierung Python Libraries Multiprocessing Cluster-Lösung Stakeholdermanagement Agile Entwicklung Datenanalyse Lead-Engine Optimierung Verteilungslogik Geschäftsanforderungen
    Banken, Unternehmensgröße: > 80.000 Mitarbeitende
    Frankfurt am Main
    1 Jahr 2 Monate
    2021-10 - 2022-11

    Valhalla

    Senior Business Analyst | Senior Technical Consultant SQL Python Datenpipeline-Engineering ...
    Senior Business Analyst | Senior Technical Consultant
    Im Rahmen des Projekts unterstützte ich die Datenauswertung, das Engineering neuer Daten Pipelines und die Datenvisualisierung vorhandenen Datensets aus dem Azure Cloudumfeld. Dies umfasst des Weiteren jedoch auch Data Cleaning Prozesse und Data Modelling Tätigkeiten.
    Zu meinen Aufgaben gehörten u.a.:

    • Automatisierung und Datenintegration über Azure Synapse: Implementierung von Datenflüssen und deren Automatisierung zur effizienten Analyse und Verarbeitung.
    • ETL-Erstellung innerhalb Databricks, Hosting über Azure. Aufbau eines Automatischen Upload Konzepstes zu ADLS
    • Integration einer Middleware-Lösung über Azure APIM und Data Factory: Einsatz von Middleware zur Optimierung der Datenzugänglichkeit und -steuerung.
    • Vorbereitung und Anlieferung von Dateien auf SAS VA Server und Überführung in SAS Viya Cloud Umgebung: Management der Datenbereitstellung und Migration in Cloud-basierte Analyseumgebungen.
    • Durchführung von Workshops: Leitung von Workshops zur Schulung des Teams bezüglich neuer Datenarchitekturen.
    • Erstellung von Reports und Dashboards: Entwicklung von Dashboards und Reports, die operative Daten visualisieren.
    • Erfassung und Erweiterung von Business Requirements: Analyse von Geschäftsanforderungen und Integration von Datenvalidierungsstandards.
    • Datenanalyse und Optimierung von Datenqualitätsanforderungen: Analyse und Verbesserung der Datenqualität zur Unterstützung präziserer Entscheidungsfindungen.
    Azure Synapse Azure SQL DB Azure Purview Azure Data Factory SAS CI 360 SAS Viya SAS Enterprise Guide Azure APIM Databricks SAS VA Server ADLS MS Excel Powerpoint
    SQL Python Datenpipeline-Engineering Datenvisualisierung Data Cleaning Data Modelling Automatisierung Datenintegration ETL-Erstellung Middleware-Integration Cloud-Migration Workshop-Leitung Report-Erstellung Dashboard-Entwicklung Business Requirements Datenanalyse Datenqualitätsoptimierung
    Handel, Unternehmensgröße: > 5.000 Mitarbeitende
    Venlo (Holland)
    1 Jahr 8 Monate
    2020-12 - 2022-07

    Customer Journey Log -Data Engineering

    Senior Data Engineer Python PySpark SQL Impala SQL ...
    Senior Data Engineer
    Im Rahmen des Projekts unterstützte ich die Datenauswertung und das Datenmanagement (Data Governance / Datenqualitätsmanagement) der vorhandenen Datensees. Dies umfasst des Weiteren jedoch auch Data Engineering, das in Transformationsjobs und Automatisierungsjobs unterteilt ist. Darüber hinaus war eines der Hauptthemen die Modellierung von ETL-Pipelines.
    Zu meinen Aufgaben gehörten u.a.:

    • Datenaufbereitung und -bereinigung: Einsatz von PySpark SQL, Impala und Hive SQL für die Aufbereitung und Bereinigung von Daten, die den Reporting Scrum Teams zur Verfügung gestellt wurden.
    • Entwicklung von Data Lake Lösungen: Konzeption und Implementierung von Data Lake Architekturen, die eine effektive Verbindung zu Cloud-Anbietern im Bereich Process Mining ermöglichten, unter Verwendung von Apache-Technologien wie Spark, Hive und Oozie.
    • Datenvorbereitung für Grunddatenlagen: Vorbereitung und Strukturierung von Basisdatensätzen zur weiteren Analyse und Verarbeitung.
    • Modellierung von mehrschichtigen Datenmodellen: Entwurf und Realisierung von komplexen Datenmodellen, die unter Berücksichtigung von Datenschutzrichtlinien durch Pseudonymisierung transformiert wurden.
    • Agiles Projektmanagement: Mitarbeit in einem agilen Scrum-Framework mit einem vollständig remote arbeitenden Team von 8 Mitgliedern, was eine flexible und effiziente Projektdurchführung erforderte.
    • Implementierung von Cluster-Einstellungen: Optimierung der Apache Spark Cluster-Konfigurationen zur Automatisierung von Einstellungen, effizientere Ressourcenzuweisung und Datenpartitionierung sowie Korrektur von Datenverzerrungen.
    Spark Hive Impala Oozie Innovator Amazon Web Services Jira Confluence Visual Studio Code Cloudera Data Science Workbench DBT Airflow
    Python PySpark SQL Impala SQL Data Lake Architektur Apache-Technologien Datenmodellierung Pseudonymisierung agiles Projektmanagement (Scrum) Cluster-Konfiguration Datenaufbereitung Datenbereinigung Ressourcenzuweisung Datenpartitionierung SQL
    Telekommunikation, Unternehmensgröße: > 220.000 Mitarbeitende
    Bonn
    1 Jahr 3 Monate
    2019-09 - 2020-11

    IT Operations Spezialist (Physical Security Analyst)

    Senior Data Engineer | Senior Business Analyst SQL Python TensorFlow ...
    Senior Data Engineer | Senior Business Analyst
    Im Rahmen des Projektes unterstütze ich die operative Durchführung des Projektes. Hierzu gehörte sowohl die Business Analyse zur Anforderungserfassung, Datenmodellierung sowie Erstellung eines Analyseregelwerkes zur Auswertung von Mediendaten der Corporate Security.
    Zu meinen Aufgaben gehörten u.a.:
    • Datenbankadministration sowie Datenpflege des Video-Management-Systems sowie des ACS und Security Alarm Systems
    • Analyse der Prozesse und Ermittlung von Vorschlägen zur Verbesserung der Effizienz auf Basis von Big Data Plattform Integrationen (Hadoop)
    • Konzeptentwicklung sowie Erstellung von Best Practice Infrastruktur Lösungen über Cloud Plattformen (Transfer von Serverkapazitäten)
    • Repräsentantdes Corporate Security Physical Security Infrastructure Teams
    • Prozessautomatisierung durch API-Eingliederung von Phantom (Splunk) an ServiceNow
    • Testing des Machine Learning Verfahrens sowie Fraud Detection auf Basis von Tensorflow
    Hadoop Phantom Amazon Web Services ServiceNow Active Directory Apache Kafka Jira Confluence
    SQL Python TensorFlow Requirements Engineering Geschäftsprozessanalyse
    Banken, Unternehmensgröße: > 80.000 Mitarbeitende
    Frankfurt
    1 Jahr 5 Monate
    2019-05 - 2020-09

    Datenanalyse von Security Profiles für Governance

    Senior Data Scientist | Projektmanager SQL Python JavaScript ...
    Senior Data Scientist | Projektmanager
    Im Rahmen des Projektes unterstützte ich die Security Analysten den Mandaten in der Erstellung eines Datenanalysetools. Hierzu gehörte sowohl die Prozessmodellierung sowie die Code Anwendung.
    Zu meinen Aufgaben gehörten u.a.:
    • Analyse von Sicherheitsprofilen: Ich führte detaillierte Analysen von Sicherheitsprofilen durch, indem ich statistische Metriken verwendete, um Muster und potenzielle Risiken zu erkennen.
    • Dashboard-Erstellung und Datenüberführung: Entwicklung und Gestaltung von Dashboards zur Visualisierung der Analyseergebnisse. Ich war ebenfalls verantwortlich für die Überführung dieser Daten in das Dashboard, was eine präzise und effektive Datenrepräsentation sicherstellte.
    • Konzepterstellung und Integration eines SCRUM-Frameworks: Entwurf eines Konzepts zur Integration des SCRUM-Frameworks in das Projektmanagement, um die Entwicklung und Implementierung des Tools zu optimieren und zu beschleunigen.
    • Anwendung eines NLP-Machine-Learning-Ansatzes zur Korrelationsanalyse: Implementierung und Nutzung von Natural Language Processing (NLP) und Machine Learning, um Korrelationen innerhalb der Sicherheitsdaten zu analysieren und tiefergehende Einblicke zu gewinnen.
    • Integration des Dashboards in eine Subdomäne des Mandanten: Technische Implementierung des Dashboards in eine spezifische Subdomäne des Mandanten, um eine sichere und zugängliche Präsentation der Analyseergebnisse zu gewährleisten.
    Tableau Alteryx Designer Apache Spark MongoDB ElasticSearch Kibana JIRA Git Docker Kubernetes Excel PowerPoint Visio
    SQL Python JavaScript Scikit-learn TensorFlow Natural Language Toolkit (NLTK) Pandas NumPy Projektmanagement Requirements Engineering Geschäftsprozessanalyse
    Automobil, Unternehmensgröße: > 170.000 Mitarbeitende
    Düsseldorf (Remote)
    1 Jahr
    2018-05 - 2019-04

    Erstellung eines digitalen Reifegradmodell-Tools auf Basis von Abteilungsumfragen

    Senior Data Scientist Statistikanalyse Dashboard Scoring ...
    Senior Data Scientist
    Im Rahmen des Projektes unterstützte ich die interne Erstellung eines Webtools. Hierzu gehörte sowohl die Algorithmenentwicklung, Datenmodellierung sowie der Use Case Erstellung zu Big Data Plattformen. Zu meinen Aufgaben gehörten u.a.:
    • Entwicklung eines Scoring-Modells: Ich konzipierte und implementierte ein Scoring-Modell zur Bewertung digitaler Subkategorien. Dieses Modell wurde erfolgreich in ein von mir mitentwickeltes Datenanalysetool integriert, das auf SPSS basierte, um präzise Analysefunktionen zu ermöglichen.
    • Statistische Auswertungen: Durchführung fundierter statistischer Analysen zur Bewertung und Optimierung der Datenqualität und der darauf basierenden Entscheidungsprozesse.
    • Webseiten-Anpassungen und Dashboard-Integration: Ich übernahm die technische Anpassung des Befragungstools und integrierte interaktive Dashboards im Frontend, um die Benutzerinteraktion und Datendarstellung zu verbessern.
    • Use Case-Generierung durch Prozessmodellierung: Entwicklung spezifischer Use Cases durch detaillierte Prozessmodellierung in der Cloud-Infrastruktur, was die Grundlage für die Skalierbarkeit und Adaptivität des Systems bildete.
    • Dokumentation und Stakeholder-Kommunikation: Ich war verantwortlich für die fortlaufende Dokumentation des Projektfortschritts und führte regelmäßige Abstimmungen mit Stakeholdern durch, um sicherzustellen, dass alle Projektziele erreicht und Erwartungen erfüllt wurden.
      Tableau Excel VBA SPSS Excel
      Statistikanalyse Dashboard Scoring Apache Java Webserver Datenanalyse BI-Reporting JavaScript Python T-SQL
      Energie, Unternehmensgröße: > 6.000 Mitarbeitende
      Düsseldorf

      Aus- und Weiterbildung

      Aus- und Weiterbildung

      1 Monat
      2020-06 - 2020-06

      AWS Certified Cloud Practitioner

      AWS Certified Cloud Practitioner, Amazon Web Services Training and Certification
      AWS Certified Cloud Practitioner
      Amazon Web Services Training and Certification
      4 Jahre 10 Monate
      2015-05 - 2020-02

      Master of Science Economics

      Master of Science Economics, Ruhr Universität Bochum
      Master of Science Economics
      Ruhr Universität Bochum

      Quantitative Economics / Macroeconomics

      1 Monat
      2019-06 - 2019-06

      Certified IBM Data Science Professional

      Certified IBM Data Science Professional, IBM
      Certified IBM Data Science Professional
      IBM

      Data Science Analytics using IBM Watson.

      1 Monat
      2019-05 - 2019-05

      Certified Scrum Product Owner Lvl 1

      Zertifizierung zum Product Owner durch Scrum.org, Scrum.org
      Zertifizierung zum Product Owner durch Scrum.org
      Scrum.org
      1 Monat
      2019-04 - 2019-04

      Certified Scrum Master Lvl 1

      Zertifizierung zum Scrum Master durch Scrum.org, Scrum.org
      Zertifizierung zum Scrum Master durch Scrum.org
      Scrum.org

      Position

      Position

      Als Senior Data Engineer und Solution Architect spezialisiere ich mich auf die Modernisierung von Dateninfrastrukturen und die Migration von Altsystemen in Cloud-Umgebungen. Mein Schwerpunkt liegt auf der Datenextraktion, -transformation und -automatisierung mit Technologien wie Snowflake, DBT und CI/CD-Pipelines, während ich zugleich umfangreiche Erfahrung im Stakeholder-Management und der Prozessoptimierung einbringe.

      Kompetenzen

      Kompetenzen

      Top-Skills

      Engineering Azure Cloud Datenanalyse Datenbankadministrator Big Data Statische Analyse internationale Projekterfahrung Apache AWS JavaScript Ansi SQL R MS Visual Studio Phantom Automation Process Mining Azure Devops Oracle Datawarehouse

      Programmiersprachen

      Excel VBA
      JavaScript
      Python
      R

      Datenbanken

      MongoDB
      NoSQL
      SQL

      Personalverantwortung

      Management
      mediation

      Branchen

      Branchen

      • Consulting
      • FMCG
      • Services
      • Energie
      • Bankenwesen
      • Automobil
      • Versicherungen

      Vertrauen Sie auf Randstad

      Im Bereich Freelancing
      Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

      Fragen?

      Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

      Das Freelancer-Portal

      Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.