Data- und ML-Engineer & System Architect mit speziellem Fokus auf Azure Implementierungen.
Aktualisiert am 02.12.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 13.01.2025
Verfügbar zu: 10%
davon vor Ort: 50%
Solution Architect
Data Engineer
Apache Spark
Data Lake
Python
MS Azure SQL Database
Azure
Microsoft Fabric
Datenarchitektur
REST

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

3 Jahre 1 Monat
2021-12 - heute

Aufbau eines Data-Hubs, Implementierung von zahlreichen Use Cases

System Architect & Data Engineer Python delta Lake data lake
System Architect & Data Engineer

  • Missionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.
  • Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.
  • Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.
  • Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews. 

Azure Azure Data Factory Synapse Analytics Data Lake
Python delta Lake data lake
Fujitsu Deutschland
remote / Augsburg / München
1 Jahr 9 Monate
2021-05 - 2023-01

Aufbau eines Data Warehouses

Data Engineer Python
Data Engineer
  • Mission: Ein bestehendes Data Warehouse neu zu strukturieren und weitere Use Cases gemeinsam mit dem BI-Tech Lead zu implementieren. 
  • Wir deckten gemeinsam dem kompletten Zyklus von der Anforderungsanalyse, über Implementierung bis Testing und Operations ab. 
Pentaho Oracle
Python
Bayern Invest
remote / München
7 Monate
2020-09 - 2021-03

Aufbau eines Data Warehouses

Data Engineer
Data Engineer

  • Mission: Ein Data Warehouse from-scratch aufzubauen. 
  • Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.

MS SQL Server Integration Services PostgreSQL MS Power BI Talend Fabric SSIS
Magna Powertrain
remote / Lannach
1 Jahr 6 Monate
2019-02 - 2020-07

Data Architecture | System Architecture | Process Management

Teamlead Data Engineering From-Scratch Cloudera Data Lake ...
Teamlead Data Engineering

  • Mission: Einen globalen Data Lake from-scratch zu designen und zu implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. 
  • Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. 
  • Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.

Apache Spark Apache Stack Python Kafka Cloudera auf einer Hadoop Platform Scala Streaming Technologien (v.a. Kafka)
From-Scratch Cloudera Data Lake Machine Learning Business Analysis
Wirecard CEE
Graz / München
2 Jahre 2 Monate
2017-01 - 2019-02

Analysis | Data Architecture | System Architecture

Data Warehouse Engineer & Analyst From-Scratch Pentaho MYSQL ...
Data Warehouse Engineer & Analyst

  • Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen. 
  • Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. 
  • Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. 
  • Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.

Pentaho MySQL Python PHP
From-Scratch Pentaho MYSQL Metabase Python PHP Business
Wirecard CEE
Graz

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

3 Jahre 1 Monat
2021-12 - heute

Aufbau eines Data-Hubs, Implementierung von zahlreichen Use Cases

System Architect & Data Engineer Python delta Lake data lake
System Architect & Data Engineer

  • Missionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.
  • Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.
  • Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.
  • Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews. 

Azure Azure Data Factory Synapse Analytics Data Lake
Python delta Lake data lake
Fujitsu Deutschland
remote / Augsburg / München
1 Jahr 9 Monate
2021-05 - 2023-01

Aufbau eines Data Warehouses

Data Engineer Python
Data Engineer
  • Mission: Ein bestehendes Data Warehouse neu zu strukturieren und weitere Use Cases gemeinsam mit dem BI-Tech Lead zu implementieren. 
  • Wir deckten gemeinsam dem kompletten Zyklus von der Anforderungsanalyse, über Implementierung bis Testing und Operations ab. 
Pentaho Oracle
Python
Bayern Invest
remote / München
7 Monate
2020-09 - 2021-03

Aufbau eines Data Warehouses

Data Engineer
Data Engineer

  • Mission: Ein Data Warehouse from-scratch aufzubauen. 
  • Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.

MS SQL Server Integration Services PostgreSQL MS Power BI Talend Fabric SSIS
Magna Powertrain
remote / Lannach
1 Jahr 6 Monate
2019-02 - 2020-07

Data Architecture | System Architecture | Process Management

Teamlead Data Engineering From-Scratch Cloudera Data Lake ...
Teamlead Data Engineering

  • Mission: Einen globalen Data Lake from-scratch zu designen und zu implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. 
  • Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. 
  • Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.

Apache Spark Apache Stack Python Kafka Cloudera auf einer Hadoop Platform Scala Streaming Technologien (v.a. Kafka)
From-Scratch Cloudera Data Lake Machine Learning Business Analysis
Wirecard CEE
Graz / München
2 Jahre 2 Monate
2017-01 - 2019-02

Analysis | Data Architecture | System Architecture

Data Warehouse Engineer & Analyst From-Scratch Pentaho MYSQL ...
Data Warehouse Engineer & Analyst

  • Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen. 
  • Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. 
  • Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. 
  • Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.

Pentaho MySQL Python PHP
From-Scratch Pentaho MYSQL Metabase Python PHP Business
Wirecard CEE
Graz

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.