SAP- und BI-Experte, Projektmanager, Projektleiter, Senior Consultant
Aktualisiert am 20.12.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 30.03.2025
Verfügbar zu: 90%
davon vor Ort: 100%
BI und Big Data
Projektmanagement agil und hybrid
Edge-/IoT-Plattform
SAP SAC
KI
Proof of Concepts Edge-/IoT-Anbieter mit Kriterienkatalog zur Entscheidungsfindung
MES und IoT
Prozessoptimierung
KPI und Dashboarding
Produktionscontrolling
Deutsch
Englisch

Einsatzorte

Einsatzorte

Berlin (+100km) Malchin (+100km) Stade (+150km) Höxter (+100km) Haldensleben (+75km) Schwalmstadt (+75km) Essen (+75km) Ibbenbüren (+75km) Cochem (+75km) Bonn (+75km) Soest (+50km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km)
möglich

Projekte

Projekte

3 Jahre 11 Monate
2021-01 - heute

Remote-Workshops

Technologie/Architektur-Reviews
Technologie/Architektur-Reviews
  • Data-Platform (Rolle von Hadoop/HDFS, Rolle von EXASOL und Snowflake) und Tendenzen bei ETL/ELT-Anbietern wie denodo und WhereScape
7 Jahre 8 Monate
2017-04 - heute

Testkonfiguration für BI-Dienstleister

Lead Architekt, Komponentenberatung
Lead Architekt, Komponentenberatung

Testkonfiguration für BI-Dienstleister (Informotion GmbH) zur Vorbereitung eines Kundenauftrags

  • Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend  (Spezialistenvon Infomotion)
  • Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
9 Jahre 9 Monate
2015-03 - heute

Change Management, Datenstrategien

Ausschnitt aus Big Data Seminare, Vorträge, Workshops und PoC-Initiativen, Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement

  • Change Management, Datenstrategien, Data Science Management, Transformationsmodell
  • Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big
  • Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance)
  • Fachliche und technische Architektur
    • Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnenmanagement heben
    • Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz
    • Optimierung der analogen und digitalen Vertriebswege und deren Mischung
    • Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung
    • Analytische Elemente zur Bereicherung der Produktstrategien
    • Interaktion „Big“ Data und CRM aus fachlicher und technischer Sicht
    • Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche
    • Self-Service und Daten-Visualisierung
10 Jahre 4 Monate
2014-08 - heute

diverse Projekte

Testreihe April 2015:

  • Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
  • Auf Hadoop/HDFS zugeschnittene Speicherformate:
    • NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py Stack
    • Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet

HDFS/ MapReduce Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit

 

Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS

 

Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware

  • Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop
  • Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0
  • Cloud:  Analytik mit SAS Visual Analytics
  • Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL
  • Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement)
  • Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One
  • Cloud Microsoft Azure – erste Versuche im April 2015
  • Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung
Big Data-Lab
3 Monate
2021-02 - 2021-04

PoC mit IoT-Plattformanbieter PTC

  • Dokumentation des Architekturkonzepts
Maschinenbau
1 Jahr 6 Monate
2019-08 - 2021-01

ERP/PPS/IoT - Suite Einführung

Interimsmanager, Gesamtprojektleiter
Interimsmanager, Gesamtprojektleiter
Hahn Kunststoffe GmbH
Hahn
2 Jahre 6 Monate
2018-08 - 2021-01

Hybrides Projektmanagement

Interims-Manager und Gesamtprojektleiter
Interims-Manager und Gesamtprojektleiter
  • Über sechs Monate Erfahrung im REMOTE MANGEMENT in der Führung der internen Projektmitarbeiter und des Dienstleisters proALPHA,
  • Hybrides Projektmanagement:
    • agil = Konzeptions- und Realisierungsphasen
    • klassisch = Projektorganisation, Gesamtprojektplanung, Status- und Risikomanagement, Budgetplanung und -kontrolle, CR-Management, Schulung/Training, Datenmanagement, Integrationstest, Golive und Abnahme.
    • Aktive Begleitung in der Grobkonzeptphase:
      • FiBu, Anlagenbuchhaltung
      • Investitions- und Finanzplanung
      • Einführung Kostenrechnung, DMS, Inventur,
      • Projektmanagement
      • Vertriebsmodule/Neuausrichtung mit Vertragsmanagement
      • Materialwirtschaft
      • Lagerführung im Wareneingang und Aufbau neuer Lagerlogik für den Warenausgang
      • Produktion (3-Schichten-/7-Tage-Betrieb mit 42 Extrudern mit über 500 Werkzeugen) und komplexe Produktionsplanung
      • Aufbau bzw. Erweiterung des Produktionscontrollings
      • Fertigung in Montage (z.B. Bänke, Tische, Gartenhäuser, Sondermontage für Außenanlagen, Zuschnitt)
      • mehrstufige Kommissionierung bis zur Versandsteuerung und dem Transportwesen, ATLAS (Evaluierung und Entscheidung für einen Dienstleister).
      • Rückmeldung aus der Aufbereitung vom Kunststoffabfall zum Pallet und die Rückmeldung aus der Produktion für IoT. Mobile Lösung mit Handscannern und Monitoren zur Labelung von Paletten von der Produktion bis zur LKW-Beladung.
      • Einführung eines Tools zur Qualitätsverfolgung und dem Reklamationsmanagement.   
      • Enge Begleitung bei der Erstellung von Pflichtenheften mit den Fachseiten und proALPHA – Beratern (34 Pflichtenhefte).
      • Aufgrund der Komplexität in Produktion und Kommissionierung sind 15 Change Requests in Erweiterung des proALPA–Standards entstanden.

Zielerreichung Digitalisierung:

  • digitale Prozesse vom Auftrag, über Beschaffung, Produktion, Fertigung, Lager bis zum Versand.
  • Erfassung ab Produktion über APPS und Barcode-Scanning (Paletten aus der Produktion, Fertigung, Lager/Lagerbewegungen bis zum Ersatz)
  • Evaluierung Tool für die Finanz und Investitionsplanung sowie der Unternehmens- Konsolidierung (vier Auslandsgesellschaften). Entscheidung für LucaNet mit Umsetzung (Consultant vom Anbieter) mit Einsatz zum GiLive zum 01.01.2021.
  • Konzept und Realisierung eines Management-Control-Systems mit QLIK-View auf Basis der proALPHA Datenbasis.

IoT mit Manufacturing Execution System (MES) von BÖHME & WEIHS SYSTEMTECHNIK GMBH & CO. KG (Partner von proALPHA)

  • OPC UA – standardisierter Datenaustausch für die Industrie 4.0 / IoT; TCP-basiertes Binärprotokoll für High-Performance Anwendungen und HTTP/HTTPS Webservice Kennzahlen zur Überwachung der Produktion
  • Synchronisierung von MES/IoT und ERP proALPHA von Maschinendaten (MDE), Betriebsdaten (BDE), Prozessdaten, Qualitätsdaten und Personaldaten Das MES in der Produktionsplanung siehe Synchronisierung
  • Managementprozesse mit MES:
    • Durchlaufzeiten
    • Termintreue, beispielsweise eines einzelnen Arbeitsplatzes
    • Maschinenauslastung, zur Bewertung von Kapazitätsreserven
    • Maschinennutzungsgrad
    • Ausschussquote
    • Prozesseffizienz (OEE Overall Equipment Effectiveness)
  • GoLive für FiBu und Einkauf ist abgeschlossen.
  • Die weiteren Module sind im Integrationstest abgenommen, die Datenmigration erfolgreich auf zwei Testinstanzen und der Produktionsumgebung verfügbar und der GoLive im Januar 2021 war erfolgreich und ist im Status „Stabilisierungsphase“.
  • Wir konnten einen Nachfolger für meine Position gewinnen. Der Kollege ist seit September an Board und wird die weitere Stabilisierungsphase verantwortlich meistern.
Hahn Kunststoffe GmbH
6 Monate
2018-03 - 2018-08

Analyse der bestehenden Systemumgebung

Beratung
Beratung
  • Analyse der bestehenden Systemumgebung (Infrastruktur und Applikation)
  • Technologieszenarien zur Ablösung
  • Zentrale Anforderung Big Data-Framework: Security-Architektur und Tools
  • Drei Technologie-Frameworks (Analytische Datenbank, Hadoop/Spark, NoSQL-Datenbanken wie Cassandra, MongoDB und Redis, Analytik mit TensorFlow, Caffe, Python, Graphen, Geospatial)
  • Ergebnisse in Powerpoint (146 Slites) und Word
  • Technologie-Bewertung und -Empfehlung
  • Benchmark mit MongoDB und Redis vs. Solr, Security-Empfehlung
  • Zwei ganztägige Workshop zur Präsentation der Ergebnisse und Dialog zur Entscheidungsfindung
diverse
3 Monate
2018-05 - 2018-07

?digitale Zwillinge für zwei Windkraftanlagen-Typen?

  • Technologie - Review (siehe Projektbeschreibung) und neue Stacks IIoT (Edge-Computing) mit lokalem Datenspeicher und Analytik RedisLab (Datenspeicher) vs. Cassandra/DataStax Datenspeicher) und Analytik (auch Graph- und Search-Funktionen) mit R/MatLab.
  • Kafka und Spark für Ingestion an Hadoop-Cluster (bereits produktiv).
  • Das Ziel aus 2016 „digitale Zwillinge für zwei Windkraftanlagen-Typen“ im Datenspeicher für Analytik und Simulation abzubilden, ist erfüllt.
Nordex
11 Monate
2017-09 - 2018-07

Einführung eines hybriden Modells mit PRINCE2 und Scrum

Beratung zum Projektmanagement:

  • Einführung eines hybriden Modells mit PRINCE2 und Scrum. 
  • SAP BO, Qlik, Oracle, SQL-Server, Power Designer
  • Strategieberatung; BI-Produkte (Dashboarding, Service Operation (ITIL-Grundsätze) Self-Services, Standardreportging, ad-hoc-Reporting, Planung und Simulation, Advanced Analytic) und deren Konsolidierung (SAP BO, SAS, Qlik, Jedox).
  • Beratung zum Aufbau einer Data Governance-Organisation Einführung in Scrum und Kanban und Erprobung für eine BI-Anforderung

Operative Beratung:

  • Analyse der bestehenden DWH-Lösung und Lösungs-vorschlag zur Optimierung und Design einer BI-Architektur unter Berücksichtigung einer Hadoop-Komponente (Cloudera)
  • Prozessanalyse zur Einführung eines Workflows-Management zur Datenbereinigung (DWH - Quellsysteme).
  • Herleitung zur Prozessanalyse zum optimierten Zeitmanagement in Prozessen des Kundenmanagements in Service, Technische Analyse der BO-Universen mit Optimierung der Datenmodelle und Bereinigung von KPIs und Strukturierung der Dimensionen und Transaktionsdaten nach Domänen und Subdomänen im Zuge der DWH/Data Marts-Analyse Identifikation von Objekten mit DSGVO-„Verdacht“ und maschinelle Zuordnung zu  zeitgesteuerten und manuellen Reports mit Handlungsempfehlung eine fachseitige Zweckgebundenheit der Reports einzuholen.
  • Beratung im BI/DWH-Dokumentationsmanagement: Nennung der GAPs, Nennung der Dokumentationstypen und Vorschläge für Templates
  • Maschinelle Ableitung der datenschutzrelevanten Elemente aus Reporting (ca. 3.000 zeitgesteuerte Reports, ca. 2.000 manuell aktive Reports) im Core-DWH.
  • Bewertung der DWH-Datenmodellierung (aktuell eine Data Vauld-Interpreation) und Aufzeichnen von notwendigen Optimierungsmaßnahme - Fask-Force mit weiteren drei Mitarbeitern
Unitymedia Köln
1 Jahr
2017-08 - 2018-07

Technologieberatung zur Weiterentwicklung der Hadoop-Cluster-Lösung

  • Technologieberatung zur Weiterentwicklung der Hadoop-Cluster-Lösung (MapR, SAS mit HiveQL) nach Szenarien:
    • SAS Viya, Spark- und Flink-Framework (Lambda-Architektur mit Batch- und Realtime). 
  • BI-Technologieberatung -und Standortbestimmung von Anbietern am Markt
  • Bewertung einer Cloud-Infrastruktur für SAS und Hadoop-Cluster sowie alternative Szenarien mit MS Azure und AWS.
  • Workshop und diverse Präsentationen/Verträge zu Themen wie Data Lake, Datenbanktechnologien, BI-Frontendtools
LunarIT / -EDEKA
1 Jahr 4 Monate
2016-08 - 2017-11

Technologie-Beratung/-Ausrichtung

Mircosoft Azure SQL Server 2016 R-Integration SQL Server 2016 ...

Technologie-Beratung/-Ausrichtung, Prozessanalyse- und Analyse (Alarme- und Incident-Prozesse) Lead-Architekt BI/IoT/Big Data, Impulsgeber/Coach für den Enterprise Architekten, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung

  • Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster)
  • Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
  • Grundlagen der Data Warehouse und Data Mart-Modellierung
  • IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter
  • Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
  • Beratung zum Aufbau einer Data Governance
  • Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
  • Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center) und          Fehlermanagement 
  • Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) 

 

Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung

Pilot Phase 1:

  • Aufbau DWH, 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik
    BI-Services für Engineering, Service, Product Strategiy  und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management

Pilot:Phase 2:

  • Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
  • WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse

 

Produktivbetrieb ab Mai 2017 !

Mircosoft Azure SQL Server 2016 R-Integration SQL Server 2016 SSIS Power BI Hadoop mit Kafka Spark 2.0 (R-Integration ML; Spark Streaming Spark SQL)
Nordex SE Windkraftanlagen
6 Monate
2016-07 - 2016-12

Strategische Beratung, Lead-Architekt

Hadoop-Komponenten-Beratung, DWH- und Big Data-Architektur zur Umsetzung eines PoC im CRM und Empfehlung an Generali, Management-Präsentation (Vorstand), Workshops mit IT und Fachseite

  • Definition von Use Cases
  • Kündigeranalyse aus eMail Textmaining
  • Cross Selling aus eMail Textmaining
  • Einbindung der Ergebnisse aus Analytik in Testkampagnen
  • Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement
  • Beschreibung von Alternativen SAS Enterprise Miner
  • SAS Textmaining auf HDFS-Cluster sowie R-Integration/ Spark ML auf HDFS
  • Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.

Produktivbetrieb seit Januar 2017 !

PoC mit Cloudera Phyhton/Spark ML HDFS Sqoop
Cosmos Direkt/Generali
1 Jahr 1 Monat
2015-06 - 2016-06

Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?

Projektleitung und Testmanager
Projektleitung und Testmanager

Führung von Teams mit folgenden Schwerpunkten:

  • Team des Generalunternehmers für die Komponenten der Datenversorgung
  • Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements
  • Testteam (interne und externe Mitarbeiter)

 

Steuerung in Konzeption, Realisierung und Qualitätssicherung:

IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.

 

Die Komponenten des Output-Managements im Detail:

  • Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen
  • Aufbau Data Mart zur Datenversorgung des Output Managements
  • XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung)
  • Auftragsmanagement zur Steuerung von Aktionen
  • Dateitransfer über TravicLink
  • Belegerstellung mit DOC1GEN (Engage One Pitney Bowes)
  • DocBridge Pilot (Compart)
  • DocBridge Queue Processor (Compart)
  • Konfiguration der Böwe-Kuvertiermaschinen
  • Outputmanagement-Planung und-reporting (Cognos)
  • Nagios

 

Testmanagement mit folgenden Schwerpunkten:

  • Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement
  • Bugfixing
  • Testreporting
  • Regressionstest
  • Steuerung der Entwickler für das Bugfixing

 

Projektmanagement

  • Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität)
  • Projektplanung für alle Komponenten
  • Einsatzplanung für den Generalunternehmen
  • Tägliches Monitoring Montag bis Donnerstag (Daily Scrums)
  • Wöchentliches JF mit Management-Projektreporting (Fachseite und IT)
  • JF mit IT Service, IT-Produktion und IT-Architektur
  • JF mit Fachseiten
  • Coaching der Scrum Master
  • Moderation Fachseite und Management
  • Mitarbeiterführung des General- und Subunternehmers
  • Arbeitsausschuss (monatlicher Zyklus)
  • Risikomanagement
Sybase PowerDesigner Informatica PowerCenter Version 9.0.1 Informatica B2B Data Exchange SQL Views/MatViews DB2 V 9.7.03 MS SQL Server Java Tomcat UNIX XMLSpy Altova. MS Server Webservices Nagios TravicLink Filenet Cognos 10 Engage One/DOC1GEN (Pitney Bowes) DocBridge Pilot und Queue-Processor (Compart) Böwe Bugzilla (Testmanagement) MS-Qffice MS Visio MS Project XSD/XML AFP mit Grafik PDF TLE
Generalunternehmers
4 Monate
2015-03 - 2015-06

DNA-Analyse

PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim)
Gemeinsame Aktivität mit AWS-Partnerunternehmen

  • Hadoop-Komponenten:
    • Cloud AWS Big Data-Lösung,
    • S3
    • Elastic MapReduce (EMR)
    • MongoDB
    • Redsift
    • Kafka
    • Storm
    • Solv
  • Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
  • Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
Pharmaindustrie in Rheinland-Pfalz
9 Monate
2014-09 - 2015-05

Produktivsetzung der PoC-Ergebnisse

Lead Architekt, Strategieberatung, Projektleitung, tech. Consult
Lead Architekt, Strategieberatung, Projektleitung, tech. Consult

PoCs und Piloten mit zwei Big Data-Dienstleistern (Cloudera, MapR, Cloudera/Oracle) und SAS Visual Analytics
Pilot-Betrieb mit Cloudera und SAS als SaaS-Dienstleistung

(IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)

  • Manage & Monitoring:
    • CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie    (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar)
    • Lamdba-Architektur (Storage, Batch Layer, Speed Layer)
    • Data Management:
      • YARN, HDFS
    • Metadata Management:
      • HCatalog
    • Data Access:
      • Datenbanken:
        • HBase, MongoDB
      • SQL/In Memory:
        • HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala
      • Batch:
        • MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH)
      • Script:
        • Python, SparkShell
      • Kafka/Storm (Trift Python) zum stream processing

SAS 9.2 mit SAS Visual Analytics 7.1

Resümee aus PoC:

Aktuelle Anforderung:

  • Planung zur Produktivsetzung des PoC-Release
  • Festlegung der anforderungsrelevanten Hadoop-Komponenten 

Die fachlichen Anforderungen wurden komplett erfüllt:

  • Schnelle Verfügbarkeit über Cloud bzw. Sandbox
  • Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
  • Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
  • Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten  
  • SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik

  • Sandbox-Service der Big Data-Suite-Dienstleister  Cloudera und.MapR - SUSE Linux Enterprise Server 12
    • Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
  • Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
  • Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
    • Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
    • Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
    • Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB
      Dateiformate wie JSON (JavaScript Object Notation), XML etc.

    • Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)

  • Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
  • Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
  • Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration

Proof of Concept

  • Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.

    Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework – Zielarchitektur der Hadoop-Komponenten empfohlen.
    • SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur

    • Oracle Workshop und Dokumentation (PoC mit Cloudera):  Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)

    • BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights

    • PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce

    • Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL
      PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL

    • PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce

    • PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,

    • Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung)

    • Präsentationen IT und Fachseite zum Themen  Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse

Dokumente

  • Powerpoint-Dokumente:
    • Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem
    • Einführung in Big Data-Hadoop Fachseite
    • Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen
    • Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting)
      Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach
  • Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42

Produktivbetrieb 08/2015

Cloudera Data Hub Editon Version 5.1.3 Cloudra Impala Version 2.0 MapR Enterprise Database Edition Verson3.1 Oracle  12c Version 12.1.02 Oracle Exadata Cloud X2-2 Oracle Big Data SQL SAS Visual Analytics 7.1 MongoDB 2.6.4 Eclipse Python Linux Projektmanagmenttool: Cloud Microsoft VisualStudio
Deutsche Telekom / T-Mobile
Bonn/ Darmstadt
9 Monate
2014-01 - 2014-09

Vorgehensmodell zur BCBS #239-Einführung

Projektleitung, technisches und fachliches Consulting
Projektleitung, technisches und fachliches Consulting

Vorgehensmodell zur BCBS #239-Einführung

BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration

ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA

 

Aufbau eines Excel-basierten Analyse- und Ergebnistemplates

BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration

Dokumentationsstand (Vollständigkeit  und Qualität)

Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9

Scan-GAP mit Beschreibung der fachlichen Handlungsfelder

Zielbild für Handlungsstränge „zentrales Finance Data Warehouse“

 

PoC-Abschlussbericht mit fachlicher und technischer Empfehlung

 

Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell „GAP-Analyse“ und deren Ergebnistypen vorgelegt werden

LBBS Stuttgart
7 Monate
2014-02 - 2014-08

Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)

Business Analyst / Projektleiter
Business Analyst / Projektleiter
  • Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
  • Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42

  • Qualitätssicherung und Anpassung einer Detailspezifikation: Internationaler Zahlungsverkehr als GAP-Analyse der ISO20022 2006 versus 2009-Version für pacs008 und pacs 003; Anpassung der Mappingverfahren der internen Schnittstellen und den Zahlungsverkehrsschnittstellen zu Providern für SCT und SDD Modifikation in den Datenmodellen in diversen operativen Systemen (UML mit Visio)

  • Projektmanagement-Tool: Hermes, SAS, Oracle, Temenos, Bosch, operative Systeme der PostFinance AG, SAP PPM, MS Visio (UML)

PostFinance AG
Schweiz
2 Jahre 1 Monat
2012-01 - 2014-01

Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration

IT-Projektleitung Bank SEPA-Einführung
IT-Projektleitung Bank SEPA-Einführung

Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration^ Leader der Architekturkonzepte Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014  

 

Sonderaufgaben:

  • Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen
  • Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs
  • Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft
  • Mitwirkung an der Dokumenterstellung
  • Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns
  • Mitwirkung -Konzept Zahlungsverkehr

 

Projekt:

  • Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework -
  • auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL)
    • Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation
    • Formate: pacs 002, 003, 004 und 007 sowie supl. 017
    • Lastenhefte liegen bereits vor
  • Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
  • SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie
  • der Wertpapier- und Handelsabwicklung
  • SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx)
  • SEPA-Umstellung der Außendienstsysteme
  • Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM
  • Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM
  • Ablösung der Eigenentwicklung „zentrales Inkasso“ durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen

 

Details:

  • Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene
  • Anforderungen an das Formularmanagement und Scan-Prozesse
  • Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen)
  • Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen
  • Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung
  • intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review
  • ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen
  • Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022
  • Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen
  • Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen
  • Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift
  • Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank
  • SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren
  • Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank
  • DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP
  • fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST
  • SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt-stelle(ZV-Schnittstelle)
  • Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI)
  • Embargo- und Vollständigskeitsprüfung im PPM
  • Implementierung derr Black- und Whitelist-Prüfung im PPM
  • Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen)
  • Redesign der Zahlungsverkehrsschnitte SAP/BCA – vdB/PPM im ZV-Eingang und - Ausgang
  • umfangreiche Testverfahren mit der Deutschen Bundesbank
  • Umstellung der Korrespondenz auf SEPA-Anforderungen
  • SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände
  • Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverarbeitung, Monats- und Quartalabschluss) im SAP/BCA
  • Formatumstellung der dwpbank auf WP21-SEPA-Format
  • Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen
  • Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA
  • Redesign der Zahlungsverkehrsstatistik
  • alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig

 

  • Anforderungsmanagement an SAP über DSAG
  • Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel
  • End-to-End-Test mit der Deutschen Bundesbank
  • Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap)
  • Aufbau Projektmanagement und PMO
  • Einsatz der Projektmanagementstandards des Konzerns

 

Kritische Retrospektive aus Scrum-Sicht:

  • Mit zunehmender Projektdauer methodisches Verständnis der Scrum-Artefakte (Product Backlog mit Definition des SEPA-Regelwerks) beim Kunden und damit deutlich reduzierte Aufwandspositionen zur Erstellung von Sprint Backlogs (User Stories in Arbeitspaketen) in Ablösung der klassischen Lasten- und Pflichtenhefte jedoch Bewahrung der Architekturspezifikationen sowie der Qualitätssicherung- und Testtemplates.
  • Reduzierung der aus dem Projektmanagement / V-Modell definierten über 20 Rollen und über 100 Artefakte in Maßnahme einer methodischen Anpassung Aufnahme der V-Modell-Artefakte in die Done-Kriterien von Scrum.
  • SEPA-spezifische Implementierungsplanung: Entkopplung von der offiziellen Releaseplanung, jedoch Bewahrung des Regelwerks.
  • Rollendefinition und -verantwortung des Product Owners und Scrum Masters in Projektphasen nicht eindeutig geklärt bzw. organisatorisch verankert.
  • Management und organisatorische Verankerung: mangelhafte Etablierung des agilen Leaderships (Akzeptanz, Zweifel und Sinnfragen).
SAP BCA (Enhancement Framework BTE BAPI) SAP-FC-CD (Ablösung der Eigenentwicklung ?Zentrales Inkasso?) SAP-CML SAP FI Java (J2EE) ? Online Banking und Auftragsverwaltung) PL/1   Format-SEPA- und IBAN-Konverter vbB/PPM (Anbieter: van den Berg) Charity SAP PPM ClearQuest SQS dwpbank mit WP2-Format Sfirm LBBW MQ-Series ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete mit SCRUM-Methodik)
W&W Informatik Ludwigsburg
7 Monate
2011-11 - 2012-05

Finanzplanung/Konzernreporting/Konsoliderung

IT- und fachliche Beratung sowie Coaching Projektmanagement
IT- und fachliche Beratung sowie Coaching Projektmanagement

Finanzplanung/Konzernreporting/Konsoliderung auf Basis SAP EC-CS und SAP BW für IFRS und HGB: Bilanz, GuV, sonstiges Ergebnis, Anlagen-, Rücklagen- und Eigenkapitalspiegel, Kapitalflussrechnung. Aufbau Special Ledger für HGB-Reporting

Bewertung und Abnahme Fach- und IT-Konzept; Bewertung der Machbarkeit Projektmanagement unter PRINCE2-Methodik (Nutzung des Frameworks incl. Templates)

Review/Optimierung des SAP BW-Datenmodells und der ETL-Prozesse Projektmanagement für alle Projektphasen (Konzeption bis Betriebsübergabe)

 

SAP ERP (FI Ledger/AA), SAP EC-CS, Solution Manager, Business Content, SAP BW, Oracle, SharePoint, ARIS

Projektmanagementmethode: PRINCE2 und Scrum (Team- und Softwareentwicklungsprozesse)

           

Kritische Retrospektive aus Scrum-Sicht:

  • Klare Aufgabentrennung der Rollen Product Owner und Scrum Master
  • Klassisches Lastenheft statt Product Backlog
  • User Stories mit starker Anlehnung an klassische Pflichtenhefte (Managemententscheidung)
Infraserv GimbH
Höchst
9 Monate
2011-04 - 2011-12

SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter)

Multiprojektmanagement / Testleitung Aufbau PMO
Multiprojektmanagement / Testleitung Aufbau PMO

SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter) und Einführung DI-Studio für zentrales DWH und Data Marts unter z/OS und AIX, Übernahme im kritischen Projektstatus Laufzeit (20 Monate) und signifikantem Budgetüberzug mit erfolgreichem Abschluss nach fünf Monaten incl. Aufbau von  Entwicklungs-, Test- und Produktionsplattform

OP-Liste aus Migration und Planung der Umsetzung

Etablierung des Releasemanagements im DWH-Umfeld

Analyse der Shell-Scripte und Überführung der „Bypass-Lösung“ in DI-Studio DB2-Optimierung, Performanceoptimierung im SAS-Umfeld, ITIL-Einführung im DWH-Umfeld incl. Testverfahren, PVCS, Clear Quest Clarity-Projektmanagement-Tool

 

Projektleitung im Bereich CRM- und Kampagnenmanagement mit fünf Teilprojekten (SAS Kampagnenmanagement, SAS Base, DI-Studio, BI-Studio, HOST-basierte Systeme, DB2);

Review/Optimierung der Datenmodelle im SAS-DWH und Datamarts für Kampagnenmanagement und der Vertriebsreports davon Freistellungsauftrag/Abgeltungssteuer (PL/1) mit OCR-Verarbeitung der Rückläufer und Adressabgleich mit über 400 PT Agile Softwareentwicklung (SCRUM)

davon:

Planung und Steuerung von ca. 30 Kampagnen/Aktionen

GAP-Analyse Bewirtschaftung Basis Warehouse, Data Mart und Kampagnen-Data-Mart (SAS-Kampagnenmanagement) in Ergänzung zur Migration

SAS 9.2 DI-Studio und  BI-Studio DB2 Charity Clear Quest SQS PL/1 GPM-IPMA PVCS Projektmanagementmethode
W&W Informatik
Ludwigsburg

Aus- und Weiterbildung

Aus- und Weiterbildung

  • Abitur (Abendschule)
  • Dipl. Kaufmann, Bank Betriebswirt
  • Systemanalytiker

Zertifizierungen

  • SAP BO
  • HANA
  • IBM Cognos/TM1
  • Oracle Hyperion EssBase
  • Projektmanagement:
    • SCRUM Master/Product Owner
    • PRINCE2 Foundation/Practitioner
    • GPM Level B und C
    • ITIL V3 Foundation
  • Hadoop:
    • Cloudera Apache Hadoop Developer and Administrator 

11/2013 ? 08/2014

Schulung über e-Learning

SAP HANA Implementierung & Modellierung/ BW auf SAP HANA

  • Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA

Weiterbildung und Zertifizierung:

  • Informatica Power Center und Master Data Management / Big Data Integration

10/2020 - haute:

  • Online-Zertifizierungen SAP S/4 HANA Finance (Finanzbuchhaltung, Controlling, Planung, Konsolidierung, Abschluss und Reporting)
    SAP Analytics Cloud, BW/4 HANA, Data Warehouse Cloud, Data Intelligence
  • Weitere Zertifizierungen für die Migration von ECC 6.0 nach S/4 HANA (Methodik nach Brownfield, Greenfield oder der Methodik von SNP (Bluefield).
  • Ab 01/2020 bis heute parallel zur Zertifizierung: Use Cases in oben genannten Themenfeldern mit einem SAP- und führenden BI-Dienstleister.

Position

Position

Lead - Architekt

Business Analysist

Projektleitung, Projektmanagement

Interims-Management

Business Intelligence, Analytik (KI) und Digitale Transformation (Big Data, IIOT)

PPS und IIoT-Integration

Kompetenzen

Kompetenzen

Top-Skills

BI und Big Data Projektmanagement agil und hybrid Edge-/IoT-Plattform SAP SAC KI Proof of Concepts Edge-/IoT-Anbieter mit Kriterienkatalog zur Entscheidungsfindung MES und IoT Prozessoptimierung KPI und Dashboarding Produktionscontrolling

Schwerpunkte

  • Projekt- und Programmmanagement, , Multiprojektmanagement, Projektleitung, Business Analyst, SAP- und BI-Senior Consultant, BI-IT-Architekt, CRM- und Kampagnenmanagement-Experte
  • Informations- und Anforderungsanalysen, Audits, GAP-Analysen, BI-Konsolidierungsszenarien
  • Planung und Simulation (Budget, Forecasting, Better Budgeting, Simulationsverfahren), Reporting- und Enterprise Reporting, KPIs für Finanzen/Controlling, Balance Scorecard, Vertrieb, Marketing und Kampagnen-Management, Customer Journey-Erweiterung aus Email und Social Media, Kundensegmentierung, , analytisches CRM / Retention Marketing
  • Datenmodellierung mit Schwerpunkt:
    • DWH-Storage ROLAP, MOLAP, Star-, Snowflake-Schema)
    • DWH-Modellierung nach R. Kimball/Kimball Group (The Define to Dimensional Modeling)
    • DWH-Modellierung nach B. Immon (3NF)
    • DWH-Modellierung nach D. Linstedt (Data Vault) mit Vorbereitung zur Zertifizierung
  • Proof of Concepts u.a. BI-Tools: Vorauswahl, Entscheidungsparameter zur Toolauswahl
  • Reviews auf Lasten- und Pflichtenheft bzw. SAP-Blueprints, Scrum Product Backlog und User Stories
  • Aufwandsschätzung z.B. Aufwandsschätzung nach Function Point Analyse/Methode (FPA, COCOMO)
  • Moderator zwischen IT und Fachseiten
  • Business Case-Ermittlung; nach Analyse der Projektanforderung erstellen von Entscheidungsdokumenten zur Projektfreigabe und Präsentation bei Entscheidungsträgern
  • V-Modell / V-Modell des Bundes / S-O-S - Methode / V-Modell und Agilität
  • GPM: Projektmanager Level C, Senior Projektmanager Level B
  • PRINCE2: PRINCE Foundation, PRINCE Practioner
  • SCRUM: Scrum Master, Scrum Product Owner
  • SAFe Scaled Agile Framework-Verfahren/Methode für Großprojekte
  • IIBA Mitgliedschaft bei der IIBA und dem IIBA Germany Chapter; jedoch noch keine Zertifizierung
  • ITIL V3, ITIL-Konzepte und -Umsetzung
  • CMMI, CMMI (insbesondere Verfahren zum Projektmanagement) und Scrum
  • Consulting Projektmanagement:
    • Lean Project Management und agile Methodik
    • Aufbau bzw. Optimierung von PMO-Strukturen
    • Strategien und Handlungsstränge im Kontext agiler Methodik und dem klassischen Projektmanagement (keine Patentrezepte sondern behutsamer Umgang mit der Unternehmenskultur)
    • Business Analyse und Requirements Engineering im Kontext agiler Projekte
  • Reflektion der Sophist-Regelwerke zum Requirements Engineering-Management
    • Aktivitäten im agilen Netzwerk
  • Toyota-Modell

Produkte / Standards / Erfahrungen / Methoden

  • Projektmanagement-Tool: MS-Project
  • Projektmanagement-Tool: Clarity mit Verknüpfung ClearQuest und SQS
  • Projektmanagement-Tool: SharePoint
  • Projektmanagement-Tool: SAP PS
  • UML
  • ARIS
  • Viso
  • arc42
  • ClearQuest
  • SQS
  • HP Quality Center
  • Mind Mapping
  • SAP ? CRM 6.0, BW > 8.0, SEM, Planning and Consolidation, HANA, EC-CS, BCA, FS-CD, CML, FI, CO, SD, MM (Erfahrungslevel bzw. aktuelles Know How ist modulabhängig)
  • IBM Cognos V10.1
  • IBM Cognos TM1 Enterprise Planning
  • Informatica Power Center
  • Apache Foundation Hadoop, Cloudera, Hortenworks, MapR, Oracle 12c/Exadata, SAP HANA, HDFS, WebHDFS, Map Reduce, YARN, Hue, Oozie, Cascading, Zookeeper, HBase, MongoDB, Oracle NoSQL Database (Exadata), Hive, Hive on Spark, Apache Drill, Pig, Spark SQL, Spark Streaming, Impala, Big SQL, Python, Strom Streaming, Kafka, Sqoop, Cloudera Manager, Hortenworks Ambari, MapR Control System
  • SAS DI- und BI ?Studio, SAS Visualisierung / Big Data-Integration
  • MS-Office
  • 1999 ? 2002: Entwicklung einer Standardsoftware für Kampagnenmanagement, analytisches CRM und Mediaplanung (Java, J2EE, WebSphere, SAS)

IIoT-Plattform

  • PTC (operativ beim Kunden im Einsatz)
  • HP (HPE Dashboard für IoT (produktiv beim Kunden im Einsatz)
  • CONTACT Software Produktionsempfehlung nach Erprobung bei zwei Kunden
  • SAP-Leonardo (als PoC beim Kunden
  • MS Azure Stacks (als PoC; Entscheidung des Kunden für AWS IoT)
  • BÖHME & WEIHS SYSTEMTECHNIK GMBH & CO. KG (operativ beim Kunden im Einsatz)
  • AWS IoT bei der DB Systel GmbH (Vorstudie, Marktübersicht und Kriterien für IoT in der Cloud (Entscheidung für AWS geben Microsoft Azure; Entscheidung nicht aus IoT-Leistungssicht sondern auf monetärer und vertragstechnischer Ebene)

   

Leitende Funktionen

  • Projektleitung- und -management (mehr als 20 Jahre Erfahrung)
  • Senior-Consultant, Senior Management Consultant (mehr als 20 Jahre Erfahrung)
  • Führung von Teams bis zu 100 Mitarbeitern
  • Projektbudgets wesentlich über 5 Mio. Euro
  • Führung von heterogenen Projektgruppen (diverse externe Dienstleister)
  • Vertragsverhandlungen, Werksverträge, Angebotsprüfung
  • Agiler Festpreis bei Werksverträgen

Grundsätzliche Hinweise zu Projektleitung und -management ? Funktionen.

Die Wahrnehmung der Funktion beinhaltet grundsätzlich folgende Projektmanagement-standards:

  • Auftragsmanagement als Leistungselement bei allen Projekten ab 2006:
    • Definition von Gewerken (Festpreis)
    • Definition von Leistungen ohne Gewerk
    • Angebots- und Ausschreibungsmanagement
    • Bewertung von Angeboten und Lieferantenauswahl
    • Abstimmungsworkshops mit Lieferanten
    • Zusammenarbeit mit den Einkaufsabteilungen
  • Projektmanagementmethodik (IPMA, GMP, PMBOK, Prince2, Scrum oder in Kombination klassische Projektmanagement und agile Methodik)
  • Erstellung Business Case
  • Projektleitdokumentation unabhängig der Projektmanagementmethodik
  • Budgetverantwortung und Projektcontrolling
  • Statusreports zu Planung, Fortschritt, Risiken und Change
  • Stakeholder-Management und Projektorganisation
  • Aufbau PMO
  • Risiko- und Konfliktmanagement
  • Lessons learned als permanenter Verfahrungs- und Lernprozess
  • Management des Requirement Engineerings
  • Qualitätsmanagement
  • Releasemanagement
  • Steuerung des Testmanagements
  • Führen, motivieren, Teambildung, Teamleader
  • Aufbau und Optimierung von PMO-Einheiten; PMO-Verantwortung im Kontext der Projektleitung
  • Elemente der systemischen Organisationberatung und des systemischen Coachings (Projektmanagement ist mehr als Verfahren und Methodik)
  • Artefakte und Rollen bei agiler Methodik; Scrum als Projektmanagementverfahren
  • Business Analytik und Requirements Engineering im Zusammenspiel mit agiler Methodik
  • Zusammenspiel klassisches Projektmanagement und agile Methodik
  • SAFe Scaled Agile Framework / Methoden, Prinzipien und Praktiken zur Einführung
  • Lernen aus dem Toyota-Modell

Grundsätzliche Hinweise zu Coaching und Schulung:

  • Mehrjährige Erfahrung im Coaching von neuen Technologien mit Schwerpunkt BI-Produkte und Technologien der digitalen Transformation
  • Coaching/Schulung zur Einführung agiler Methoden und hybrider Projektmanagementmodelle.

Betriebssysteme

Enterprise Linux
MVS
OS/390
Unix
Windows

Programmiersprachen

ABAP-OO
ABAP4
Flink
Impala
JavaScript
Grundkenntnisse
MapR Streaming
MDX
PL/SQL
SAS
Spark
SQL

Datenbanken

Adabas
DB2
IBM Cognos TM1
IMS
Informatica
Informix
Ingres
ISAM
JDBC
Lotus Notes
ODBC
Oracle
aktuell Oracle 12c, Oracle Exadata, Oracle Big Data SQL
Oracle EssBase 12g
SAP HANA
SAS
BI- und DI-Studie
Snowflake im Test
mit einem BI-Dienstleister
SQL
Talend
WhereScape im Test
mit einem BI-Dienstleiter
  • Big Data-Tools/ Dienstleiter wie MS Azure, AWS, Cloudera, Hortonworks und MapR, Spark und Flink-Framework

Datenkommunikation

DCAM/ISAM
Ethernet
IBM LAN Server
IMS/DC
Internet, Intranet
ISO/OSI
LAN, LAN Manager
LU6.2
SNA
SNADS
TCP/IP
VTAM

Hardware

Digital
IBM Großrechner
IBM RS6000
PC
Siemens Großrechner
Siemens MX
SNI RM-Rechner
Teradata
VAX

Branchen

Branchen

  • Transportwesen / Logistik
  • Banken / Finanzdienstleister / Versicherung
  • Pharmaindustrie und Gesundheitswesen
  • Autoindustrie
  • Handel
  • Kunststoff-Verarbeitung

Einsatzorte

Einsatzorte

Berlin (+100km) Malchin (+100km) Stade (+150km) Höxter (+100km) Haldensleben (+75km) Schwalmstadt (+75km) Essen (+75km) Ibbenbüren (+75km) Cochem (+75km) Bonn (+75km) Soest (+50km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km)
möglich

Projekte

Projekte

3 Jahre 11 Monate
2021-01 - heute

Remote-Workshops

Technologie/Architektur-Reviews
Technologie/Architektur-Reviews
  • Data-Platform (Rolle von Hadoop/HDFS, Rolle von EXASOL und Snowflake) und Tendenzen bei ETL/ELT-Anbietern wie denodo und WhereScape
7 Jahre 8 Monate
2017-04 - heute

Testkonfiguration für BI-Dienstleister

Lead Architekt, Komponentenberatung
Lead Architekt, Komponentenberatung

Testkonfiguration für BI-Dienstleister (Informotion GmbH) zur Vorbereitung eines Kundenauftrags

  • Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend  (Spezialistenvon Infomotion)
  • Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
9 Jahre 9 Monate
2015-03 - heute

Change Management, Datenstrategien

Ausschnitt aus Big Data Seminare, Vorträge, Workshops und PoC-Initiativen, Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement

  • Change Management, Datenstrategien, Data Science Management, Transformationsmodell
  • Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big
  • Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance)
  • Fachliche und technische Architektur
    • Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnenmanagement heben
    • Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz
    • Optimierung der analogen und digitalen Vertriebswege und deren Mischung
    • Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung
    • Analytische Elemente zur Bereicherung der Produktstrategien
    • Interaktion „Big“ Data und CRM aus fachlicher und technischer Sicht
    • Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche
    • Self-Service und Daten-Visualisierung
10 Jahre 4 Monate
2014-08 - heute

diverse Projekte

Testreihe April 2015:

  • Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
  • Auf Hadoop/HDFS zugeschnittene Speicherformate:
    • NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py Stack
    • Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet

HDFS/ MapReduce Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit

 

Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS

 

Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware

  • Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop
  • Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0
  • Cloud:  Analytik mit SAS Visual Analytics
  • Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL
  • Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement)
  • Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One
  • Cloud Microsoft Azure – erste Versuche im April 2015
  • Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung
Big Data-Lab
3 Monate
2021-02 - 2021-04

PoC mit IoT-Plattformanbieter PTC

  • Dokumentation des Architekturkonzepts
Maschinenbau
1 Jahr 6 Monate
2019-08 - 2021-01

ERP/PPS/IoT - Suite Einführung

Interimsmanager, Gesamtprojektleiter
Interimsmanager, Gesamtprojektleiter
Hahn Kunststoffe GmbH
Hahn
2 Jahre 6 Monate
2018-08 - 2021-01

Hybrides Projektmanagement

Interims-Manager und Gesamtprojektleiter
Interims-Manager und Gesamtprojektleiter
  • Über sechs Monate Erfahrung im REMOTE MANGEMENT in der Führung der internen Projektmitarbeiter und des Dienstleisters proALPHA,
  • Hybrides Projektmanagement:
    • agil = Konzeptions- und Realisierungsphasen
    • klassisch = Projektorganisation, Gesamtprojektplanung, Status- und Risikomanagement, Budgetplanung und -kontrolle, CR-Management, Schulung/Training, Datenmanagement, Integrationstest, Golive und Abnahme.
    • Aktive Begleitung in der Grobkonzeptphase:
      • FiBu, Anlagenbuchhaltung
      • Investitions- und Finanzplanung
      • Einführung Kostenrechnung, DMS, Inventur,
      • Projektmanagement
      • Vertriebsmodule/Neuausrichtung mit Vertragsmanagement
      • Materialwirtschaft
      • Lagerführung im Wareneingang und Aufbau neuer Lagerlogik für den Warenausgang
      • Produktion (3-Schichten-/7-Tage-Betrieb mit 42 Extrudern mit über 500 Werkzeugen) und komplexe Produktionsplanung
      • Aufbau bzw. Erweiterung des Produktionscontrollings
      • Fertigung in Montage (z.B. Bänke, Tische, Gartenhäuser, Sondermontage für Außenanlagen, Zuschnitt)
      • mehrstufige Kommissionierung bis zur Versandsteuerung und dem Transportwesen, ATLAS (Evaluierung und Entscheidung für einen Dienstleister).
      • Rückmeldung aus der Aufbereitung vom Kunststoffabfall zum Pallet und die Rückmeldung aus der Produktion für IoT. Mobile Lösung mit Handscannern und Monitoren zur Labelung von Paletten von der Produktion bis zur LKW-Beladung.
      • Einführung eines Tools zur Qualitätsverfolgung und dem Reklamationsmanagement.   
      • Enge Begleitung bei der Erstellung von Pflichtenheften mit den Fachseiten und proALPHA – Beratern (34 Pflichtenhefte).
      • Aufgrund der Komplexität in Produktion und Kommissionierung sind 15 Change Requests in Erweiterung des proALPA–Standards entstanden.

Zielerreichung Digitalisierung:

  • digitale Prozesse vom Auftrag, über Beschaffung, Produktion, Fertigung, Lager bis zum Versand.
  • Erfassung ab Produktion über APPS und Barcode-Scanning (Paletten aus der Produktion, Fertigung, Lager/Lagerbewegungen bis zum Ersatz)
  • Evaluierung Tool für die Finanz und Investitionsplanung sowie der Unternehmens- Konsolidierung (vier Auslandsgesellschaften). Entscheidung für LucaNet mit Umsetzung (Consultant vom Anbieter) mit Einsatz zum GiLive zum 01.01.2021.
  • Konzept und Realisierung eines Management-Control-Systems mit QLIK-View auf Basis der proALPHA Datenbasis.

IoT mit Manufacturing Execution System (MES) von BÖHME & WEIHS SYSTEMTECHNIK GMBH & CO. KG (Partner von proALPHA)

  • OPC UA – standardisierter Datenaustausch für die Industrie 4.0 / IoT; TCP-basiertes Binärprotokoll für High-Performance Anwendungen und HTTP/HTTPS Webservice Kennzahlen zur Überwachung der Produktion
  • Synchronisierung von MES/IoT und ERP proALPHA von Maschinendaten (MDE), Betriebsdaten (BDE), Prozessdaten, Qualitätsdaten und Personaldaten Das MES in der Produktionsplanung siehe Synchronisierung
  • Managementprozesse mit MES:
    • Durchlaufzeiten
    • Termintreue, beispielsweise eines einzelnen Arbeitsplatzes
    • Maschinenauslastung, zur Bewertung von Kapazitätsreserven
    • Maschinennutzungsgrad
    • Ausschussquote
    • Prozesseffizienz (OEE Overall Equipment Effectiveness)
  • GoLive für FiBu und Einkauf ist abgeschlossen.
  • Die weiteren Module sind im Integrationstest abgenommen, die Datenmigration erfolgreich auf zwei Testinstanzen und der Produktionsumgebung verfügbar und der GoLive im Januar 2021 war erfolgreich und ist im Status „Stabilisierungsphase“.
  • Wir konnten einen Nachfolger für meine Position gewinnen. Der Kollege ist seit September an Board und wird die weitere Stabilisierungsphase verantwortlich meistern.
Hahn Kunststoffe GmbH
6 Monate
2018-03 - 2018-08

Analyse der bestehenden Systemumgebung

Beratung
Beratung
  • Analyse der bestehenden Systemumgebung (Infrastruktur und Applikation)
  • Technologieszenarien zur Ablösung
  • Zentrale Anforderung Big Data-Framework: Security-Architektur und Tools
  • Drei Technologie-Frameworks (Analytische Datenbank, Hadoop/Spark, NoSQL-Datenbanken wie Cassandra, MongoDB und Redis, Analytik mit TensorFlow, Caffe, Python, Graphen, Geospatial)
  • Ergebnisse in Powerpoint (146 Slites) und Word
  • Technologie-Bewertung und -Empfehlung
  • Benchmark mit MongoDB und Redis vs. Solr, Security-Empfehlung
  • Zwei ganztägige Workshop zur Präsentation der Ergebnisse und Dialog zur Entscheidungsfindung
diverse
3 Monate
2018-05 - 2018-07

?digitale Zwillinge für zwei Windkraftanlagen-Typen?

  • Technologie - Review (siehe Projektbeschreibung) und neue Stacks IIoT (Edge-Computing) mit lokalem Datenspeicher und Analytik RedisLab (Datenspeicher) vs. Cassandra/DataStax Datenspeicher) und Analytik (auch Graph- und Search-Funktionen) mit R/MatLab.
  • Kafka und Spark für Ingestion an Hadoop-Cluster (bereits produktiv).
  • Das Ziel aus 2016 „digitale Zwillinge für zwei Windkraftanlagen-Typen“ im Datenspeicher für Analytik und Simulation abzubilden, ist erfüllt.
Nordex
11 Monate
2017-09 - 2018-07

Einführung eines hybriden Modells mit PRINCE2 und Scrum

Beratung zum Projektmanagement:

  • Einführung eines hybriden Modells mit PRINCE2 und Scrum. 
  • SAP BO, Qlik, Oracle, SQL-Server, Power Designer
  • Strategieberatung; BI-Produkte (Dashboarding, Service Operation (ITIL-Grundsätze) Self-Services, Standardreportging, ad-hoc-Reporting, Planung und Simulation, Advanced Analytic) und deren Konsolidierung (SAP BO, SAS, Qlik, Jedox).
  • Beratung zum Aufbau einer Data Governance-Organisation Einführung in Scrum und Kanban und Erprobung für eine BI-Anforderung

Operative Beratung:

  • Analyse der bestehenden DWH-Lösung und Lösungs-vorschlag zur Optimierung und Design einer BI-Architektur unter Berücksichtigung einer Hadoop-Komponente (Cloudera)
  • Prozessanalyse zur Einführung eines Workflows-Management zur Datenbereinigung (DWH - Quellsysteme).
  • Herleitung zur Prozessanalyse zum optimierten Zeitmanagement in Prozessen des Kundenmanagements in Service, Technische Analyse der BO-Universen mit Optimierung der Datenmodelle und Bereinigung von KPIs und Strukturierung der Dimensionen und Transaktionsdaten nach Domänen und Subdomänen im Zuge der DWH/Data Marts-Analyse Identifikation von Objekten mit DSGVO-„Verdacht“ und maschinelle Zuordnung zu  zeitgesteuerten und manuellen Reports mit Handlungsempfehlung eine fachseitige Zweckgebundenheit der Reports einzuholen.
  • Beratung im BI/DWH-Dokumentationsmanagement: Nennung der GAPs, Nennung der Dokumentationstypen und Vorschläge für Templates
  • Maschinelle Ableitung der datenschutzrelevanten Elemente aus Reporting (ca. 3.000 zeitgesteuerte Reports, ca. 2.000 manuell aktive Reports) im Core-DWH.
  • Bewertung der DWH-Datenmodellierung (aktuell eine Data Vauld-Interpreation) und Aufzeichnen von notwendigen Optimierungsmaßnahme - Fask-Force mit weiteren drei Mitarbeitern
Unitymedia Köln
1 Jahr
2017-08 - 2018-07

Technologieberatung zur Weiterentwicklung der Hadoop-Cluster-Lösung

  • Technologieberatung zur Weiterentwicklung der Hadoop-Cluster-Lösung (MapR, SAS mit HiveQL) nach Szenarien:
    • SAS Viya, Spark- und Flink-Framework (Lambda-Architektur mit Batch- und Realtime). 
  • BI-Technologieberatung -und Standortbestimmung von Anbietern am Markt
  • Bewertung einer Cloud-Infrastruktur für SAS und Hadoop-Cluster sowie alternative Szenarien mit MS Azure und AWS.
  • Workshop und diverse Präsentationen/Verträge zu Themen wie Data Lake, Datenbanktechnologien, BI-Frontendtools
LunarIT / -EDEKA
1 Jahr 4 Monate
2016-08 - 2017-11

Technologie-Beratung/-Ausrichtung

Mircosoft Azure SQL Server 2016 R-Integration SQL Server 2016 ...

Technologie-Beratung/-Ausrichtung, Prozessanalyse- und Analyse (Alarme- und Incident-Prozesse) Lead-Architekt BI/IoT/Big Data, Impulsgeber/Coach für den Enterprise Architekten, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung

  • Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster)
  • Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
  • Grundlagen der Data Warehouse und Data Mart-Modellierung
  • IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter
  • Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
  • Beratung zum Aufbau einer Data Governance
  • Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
  • Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center) und          Fehlermanagement 
  • Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) 

 

Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung

Pilot Phase 1:

  • Aufbau DWH, 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik
    BI-Services für Engineering, Service, Product Strategiy  und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management

Pilot:Phase 2:

  • Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
  • WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse

 

Produktivbetrieb ab Mai 2017 !

Mircosoft Azure SQL Server 2016 R-Integration SQL Server 2016 SSIS Power BI Hadoop mit Kafka Spark 2.0 (R-Integration ML; Spark Streaming Spark SQL)
Nordex SE Windkraftanlagen
6 Monate
2016-07 - 2016-12

Strategische Beratung, Lead-Architekt

Hadoop-Komponenten-Beratung, DWH- und Big Data-Architektur zur Umsetzung eines PoC im CRM und Empfehlung an Generali, Management-Präsentation (Vorstand), Workshops mit IT und Fachseite

  • Definition von Use Cases
  • Kündigeranalyse aus eMail Textmaining
  • Cross Selling aus eMail Textmaining
  • Einbindung der Ergebnisse aus Analytik in Testkampagnen
  • Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement
  • Beschreibung von Alternativen SAS Enterprise Miner
  • SAS Textmaining auf HDFS-Cluster sowie R-Integration/ Spark ML auf HDFS
  • Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.

Produktivbetrieb seit Januar 2017 !

PoC mit Cloudera Phyhton/Spark ML HDFS Sqoop
Cosmos Direkt/Generali
1 Jahr 1 Monat
2015-06 - 2016-06

Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?

Projektleitung und Testmanager
Projektleitung und Testmanager

Führung von Teams mit folgenden Schwerpunkten:

  • Team des Generalunternehmers für die Komponenten der Datenversorgung
  • Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements
  • Testteam (interne und externe Mitarbeiter)

 

Steuerung in Konzeption, Realisierung und Qualitätssicherung:

IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.

 

Die Komponenten des Output-Managements im Detail:

  • Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen
  • Aufbau Data Mart zur Datenversorgung des Output Managements
  • XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung)
  • Auftragsmanagement zur Steuerung von Aktionen
  • Dateitransfer über TravicLink
  • Belegerstellung mit DOC1GEN (Engage One Pitney Bowes)
  • DocBridge Pilot (Compart)
  • DocBridge Queue Processor (Compart)
  • Konfiguration der Böwe-Kuvertiermaschinen
  • Outputmanagement-Planung und-reporting (Cognos)
  • Nagios

 

Testmanagement mit folgenden Schwerpunkten:

  • Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement
  • Bugfixing
  • Testreporting
  • Regressionstest
  • Steuerung der Entwickler für das Bugfixing

 

Projektmanagement

  • Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität)
  • Projektplanung für alle Komponenten
  • Einsatzplanung für den Generalunternehmen
  • Tägliches Monitoring Montag bis Donnerstag (Daily Scrums)
  • Wöchentliches JF mit Management-Projektreporting (Fachseite und IT)
  • JF mit IT Service, IT-Produktion und IT-Architektur
  • JF mit Fachseiten
  • Coaching der Scrum Master
  • Moderation Fachseite und Management
  • Mitarbeiterführung des General- und Subunternehmers
  • Arbeitsausschuss (monatlicher Zyklus)
  • Risikomanagement
Sybase PowerDesigner Informatica PowerCenter Version 9.0.1 Informatica B2B Data Exchange SQL Views/MatViews DB2 V 9.7.03 MS SQL Server Java Tomcat UNIX XMLSpy Altova. MS Server Webservices Nagios TravicLink Filenet Cognos 10 Engage One/DOC1GEN (Pitney Bowes) DocBridge Pilot und Queue-Processor (Compart) Böwe Bugzilla (Testmanagement) MS-Qffice MS Visio MS Project XSD/XML AFP mit Grafik PDF TLE
Generalunternehmers
4 Monate
2015-03 - 2015-06

DNA-Analyse

PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim)
Gemeinsame Aktivität mit AWS-Partnerunternehmen

  • Hadoop-Komponenten:
    • Cloud AWS Big Data-Lösung,
    • S3
    • Elastic MapReduce (EMR)
    • MongoDB
    • Redsift
    • Kafka
    • Storm
    • Solv
  • Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
  • Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
Pharmaindustrie in Rheinland-Pfalz
9 Monate
2014-09 - 2015-05

Produktivsetzung der PoC-Ergebnisse

Lead Architekt, Strategieberatung, Projektleitung, tech. Consult
Lead Architekt, Strategieberatung, Projektleitung, tech. Consult

PoCs und Piloten mit zwei Big Data-Dienstleistern (Cloudera, MapR, Cloudera/Oracle) und SAS Visual Analytics
Pilot-Betrieb mit Cloudera und SAS als SaaS-Dienstleistung

(IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)

  • Manage & Monitoring:
    • CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie    (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar)
    • Lamdba-Architektur (Storage, Batch Layer, Speed Layer)
    • Data Management:
      • YARN, HDFS
    • Metadata Management:
      • HCatalog
    • Data Access:
      • Datenbanken:
        • HBase, MongoDB
      • SQL/In Memory:
        • HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala
      • Batch:
        • MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH)
      • Script:
        • Python, SparkShell
      • Kafka/Storm (Trift Python) zum stream processing

SAS 9.2 mit SAS Visual Analytics 7.1

Resümee aus PoC:

Aktuelle Anforderung:

  • Planung zur Produktivsetzung des PoC-Release
  • Festlegung der anforderungsrelevanten Hadoop-Komponenten 

Die fachlichen Anforderungen wurden komplett erfüllt:

  • Schnelle Verfügbarkeit über Cloud bzw. Sandbox
  • Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
  • Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
  • Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten  
  • SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik

  • Sandbox-Service der Big Data-Suite-Dienstleister  Cloudera und.MapR - SUSE Linux Enterprise Server 12
    • Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
  • Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
  • Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
    • Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
    • Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
    • Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB
      Dateiformate wie JSON (JavaScript Object Notation), XML etc.

    • Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)

  • Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
  • Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
  • Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration

Proof of Concept

  • Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.

    Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework – Zielarchitektur der Hadoop-Komponenten empfohlen.
    • SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur

    • Oracle Workshop und Dokumentation (PoC mit Cloudera):  Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)

    • BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights

    • PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce

    • Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL
      PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL

    • PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce

    • PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,

    • Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung)

    • Präsentationen IT und Fachseite zum Themen  Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse

Dokumente

  • Powerpoint-Dokumente:
    • Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem
    • Einführung in Big Data-Hadoop Fachseite
    • Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen
    • Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting)
      Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach
  • Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42

Produktivbetrieb 08/2015

Cloudera Data Hub Editon Version 5.1.3 Cloudra Impala Version 2.0 MapR Enterprise Database Edition Verson3.1 Oracle  12c Version 12.1.02 Oracle Exadata Cloud X2-2 Oracle Big Data SQL SAS Visual Analytics 7.1 MongoDB 2.6.4 Eclipse Python Linux Projektmanagmenttool: Cloud Microsoft VisualStudio
Deutsche Telekom / T-Mobile
Bonn/ Darmstadt
9 Monate
2014-01 - 2014-09

Vorgehensmodell zur BCBS #239-Einführung

Projektleitung, technisches und fachliches Consulting
Projektleitung, technisches und fachliches Consulting

Vorgehensmodell zur BCBS #239-Einführung

BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration

ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA

 

Aufbau eines Excel-basierten Analyse- und Ergebnistemplates

BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration

Dokumentationsstand (Vollständigkeit  und Qualität)

Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9

Scan-GAP mit Beschreibung der fachlichen Handlungsfelder

Zielbild für Handlungsstränge „zentrales Finance Data Warehouse“

 

PoC-Abschlussbericht mit fachlicher und technischer Empfehlung

 

Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell „GAP-Analyse“ und deren Ergebnistypen vorgelegt werden

LBBS Stuttgart
7 Monate
2014-02 - 2014-08

Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)

Business Analyst / Projektleiter
Business Analyst / Projektleiter
  • Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
  • Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42

  • Qualitätssicherung und Anpassung einer Detailspezifikation: Internationaler Zahlungsverkehr als GAP-Analyse der ISO20022 2006 versus 2009-Version für pacs008 und pacs 003; Anpassung der Mappingverfahren der internen Schnittstellen und den Zahlungsverkehrsschnittstellen zu Providern für SCT und SDD Modifikation in den Datenmodellen in diversen operativen Systemen (UML mit Visio)

  • Projektmanagement-Tool: Hermes, SAS, Oracle, Temenos, Bosch, operative Systeme der PostFinance AG, SAP PPM, MS Visio (UML)

PostFinance AG
Schweiz
2 Jahre 1 Monat
2012-01 - 2014-01

Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration

IT-Projektleitung Bank SEPA-Einführung
IT-Projektleitung Bank SEPA-Einführung

Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration^ Leader der Architekturkonzepte Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014  

 

Sonderaufgaben:

  • Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen
  • Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs
  • Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft
  • Mitwirkung an der Dokumenterstellung
  • Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns
  • Mitwirkung -Konzept Zahlungsverkehr

 

Projekt:

  • Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework -
  • auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL)
    • Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation
    • Formate: pacs 002, 003, 004 und 007 sowie supl. 017
    • Lastenhefte liegen bereits vor
  • Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
  • SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie
  • der Wertpapier- und Handelsabwicklung
  • SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx)
  • SEPA-Umstellung der Außendienstsysteme
  • Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM
  • Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM
  • Ablösung der Eigenentwicklung „zentrales Inkasso“ durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen

 

Details:

  • Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene
  • Anforderungen an das Formularmanagement und Scan-Prozesse
  • Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen)
  • Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen
  • Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung
  • intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review
  • ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen
  • Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022
  • Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen
  • Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen
  • Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift
  • Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank
  • SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren
  • Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank
  • DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP
  • fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST
  • SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt-stelle(ZV-Schnittstelle)
  • Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI)
  • Embargo- und Vollständigskeitsprüfung im PPM
  • Implementierung derr Black- und Whitelist-Prüfung im PPM
  • Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen)
  • Redesign der Zahlungsverkehrsschnitte SAP/BCA – vdB/PPM im ZV-Eingang und - Ausgang
  • umfangreiche Testverfahren mit der Deutschen Bundesbank
  • Umstellung der Korrespondenz auf SEPA-Anforderungen
  • SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände
  • Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverarbeitung, Monats- und Quartalabschluss) im SAP/BCA
  • Formatumstellung der dwpbank auf WP21-SEPA-Format
  • Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen
  • Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA
  • Redesign der Zahlungsverkehrsstatistik
  • alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig

 

  • Anforderungsmanagement an SAP über DSAG
  • Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel
  • End-to-End-Test mit der Deutschen Bundesbank
  • Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap)
  • Aufbau Projektmanagement und PMO
  • Einsatz der Projektmanagementstandards des Konzerns

 

Kritische Retrospektive aus Scrum-Sicht:

  • Mit zunehmender Projektdauer methodisches Verständnis der Scrum-Artefakte (Product Backlog mit Definition des SEPA-Regelwerks) beim Kunden und damit deutlich reduzierte Aufwandspositionen zur Erstellung von Sprint Backlogs (User Stories in Arbeitspaketen) in Ablösung der klassischen Lasten- und Pflichtenhefte jedoch Bewahrung der Architekturspezifikationen sowie der Qualitätssicherung- und Testtemplates.
  • Reduzierung der aus dem Projektmanagement / V-Modell definierten über 20 Rollen und über 100 Artefakte in Maßnahme einer methodischen Anpassung Aufnahme der V-Modell-Artefakte in die Done-Kriterien von Scrum.
  • SEPA-spezifische Implementierungsplanung: Entkopplung von der offiziellen Releaseplanung, jedoch Bewahrung des Regelwerks.
  • Rollendefinition und -verantwortung des Product Owners und Scrum Masters in Projektphasen nicht eindeutig geklärt bzw. organisatorisch verankert.
  • Management und organisatorische Verankerung: mangelhafte Etablierung des agilen Leaderships (Akzeptanz, Zweifel und Sinnfragen).
SAP BCA (Enhancement Framework BTE BAPI) SAP-FC-CD (Ablösung der Eigenentwicklung ?Zentrales Inkasso?) SAP-CML SAP FI Java (J2EE) ? Online Banking und Auftragsverwaltung) PL/1   Format-SEPA- und IBAN-Konverter vbB/PPM (Anbieter: van den Berg) Charity SAP PPM ClearQuest SQS dwpbank mit WP2-Format Sfirm LBBW MQ-Series ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete mit SCRUM-Methodik)
W&W Informatik Ludwigsburg
7 Monate
2011-11 - 2012-05

Finanzplanung/Konzernreporting/Konsoliderung

IT- und fachliche Beratung sowie Coaching Projektmanagement
IT- und fachliche Beratung sowie Coaching Projektmanagement

Finanzplanung/Konzernreporting/Konsoliderung auf Basis SAP EC-CS und SAP BW für IFRS und HGB: Bilanz, GuV, sonstiges Ergebnis, Anlagen-, Rücklagen- und Eigenkapitalspiegel, Kapitalflussrechnung. Aufbau Special Ledger für HGB-Reporting

Bewertung und Abnahme Fach- und IT-Konzept; Bewertung der Machbarkeit Projektmanagement unter PRINCE2-Methodik (Nutzung des Frameworks incl. Templates)

Review/Optimierung des SAP BW-Datenmodells und der ETL-Prozesse Projektmanagement für alle Projektphasen (Konzeption bis Betriebsübergabe)

 

SAP ERP (FI Ledger/AA), SAP EC-CS, Solution Manager, Business Content, SAP BW, Oracle, SharePoint, ARIS

Projektmanagementmethode: PRINCE2 und Scrum (Team- und Softwareentwicklungsprozesse)

           

Kritische Retrospektive aus Scrum-Sicht:

  • Klare Aufgabentrennung der Rollen Product Owner und Scrum Master
  • Klassisches Lastenheft statt Product Backlog
  • User Stories mit starker Anlehnung an klassische Pflichtenhefte (Managemententscheidung)
Infraserv GimbH
Höchst
9 Monate
2011-04 - 2011-12

SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter)

Multiprojektmanagement / Testleitung Aufbau PMO
Multiprojektmanagement / Testleitung Aufbau PMO

SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter) und Einführung DI-Studio für zentrales DWH und Data Marts unter z/OS und AIX, Übernahme im kritischen Projektstatus Laufzeit (20 Monate) und signifikantem Budgetüberzug mit erfolgreichem Abschluss nach fünf Monaten incl. Aufbau von  Entwicklungs-, Test- und Produktionsplattform

OP-Liste aus Migration und Planung der Umsetzung

Etablierung des Releasemanagements im DWH-Umfeld

Analyse der Shell-Scripte und Überführung der „Bypass-Lösung“ in DI-Studio DB2-Optimierung, Performanceoptimierung im SAS-Umfeld, ITIL-Einführung im DWH-Umfeld incl. Testverfahren, PVCS, Clear Quest Clarity-Projektmanagement-Tool

 

Projektleitung im Bereich CRM- und Kampagnenmanagement mit fünf Teilprojekten (SAS Kampagnenmanagement, SAS Base, DI-Studio, BI-Studio, HOST-basierte Systeme, DB2);

Review/Optimierung der Datenmodelle im SAS-DWH und Datamarts für Kampagnenmanagement und der Vertriebsreports davon Freistellungsauftrag/Abgeltungssteuer (PL/1) mit OCR-Verarbeitung der Rückläufer und Adressabgleich mit über 400 PT Agile Softwareentwicklung (SCRUM)

davon:

Planung und Steuerung von ca. 30 Kampagnen/Aktionen

GAP-Analyse Bewirtschaftung Basis Warehouse, Data Mart und Kampagnen-Data-Mart (SAS-Kampagnenmanagement) in Ergänzung zur Migration

SAS 9.2 DI-Studio und  BI-Studio DB2 Charity Clear Quest SQS PL/1 GPM-IPMA PVCS Projektmanagementmethode
W&W Informatik
Ludwigsburg

Aus- und Weiterbildung

Aus- und Weiterbildung

  • Abitur (Abendschule)
  • Dipl. Kaufmann, Bank Betriebswirt
  • Systemanalytiker

Zertifizierungen

  • SAP BO
  • HANA
  • IBM Cognos/TM1
  • Oracle Hyperion EssBase
  • Projektmanagement:
    • SCRUM Master/Product Owner
    • PRINCE2 Foundation/Practitioner
    • GPM Level B und C
    • ITIL V3 Foundation
  • Hadoop:
    • Cloudera Apache Hadoop Developer and Administrator 

11/2013 ? 08/2014

Schulung über e-Learning

SAP HANA Implementierung & Modellierung/ BW auf SAP HANA

  • Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA

Weiterbildung und Zertifizierung:

  • Informatica Power Center und Master Data Management / Big Data Integration

10/2020 - haute:

  • Online-Zertifizierungen SAP S/4 HANA Finance (Finanzbuchhaltung, Controlling, Planung, Konsolidierung, Abschluss und Reporting)
    SAP Analytics Cloud, BW/4 HANA, Data Warehouse Cloud, Data Intelligence
  • Weitere Zertifizierungen für die Migration von ECC 6.0 nach S/4 HANA (Methodik nach Brownfield, Greenfield oder der Methodik von SNP (Bluefield).
  • Ab 01/2020 bis heute parallel zur Zertifizierung: Use Cases in oben genannten Themenfeldern mit einem SAP- und führenden BI-Dienstleister.

Position

Position

Lead - Architekt

Business Analysist

Projektleitung, Projektmanagement

Interims-Management

Business Intelligence, Analytik (KI) und Digitale Transformation (Big Data, IIOT)

PPS und IIoT-Integration

Kompetenzen

Kompetenzen

Top-Skills

BI und Big Data Projektmanagement agil und hybrid Edge-/IoT-Plattform SAP SAC KI Proof of Concepts Edge-/IoT-Anbieter mit Kriterienkatalog zur Entscheidungsfindung MES und IoT Prozessoptimierung KPI und Dashboarding Produktionscontrolling

Schwerpunkte

  • Projekt- und Programmmanagement, , Multiprojektmanagement, Projektleitung, Business Analyst, SAP- und BI-Senior Consultant, BI-IT-Architekt, CRM- und Kampagnenmanagement-Experte
  • Informations- und Anforderungsanalysen, Audits, GAP-Analysen, BI-Konsolidierungsszenarien
  • Planung und Simulation (Budget, Forecasting, Better Budgeting, Simulationsverfahren), Reporting- und Enterprise Reporting, KPIs für Finanzen/Controlling, Balance Scorecard, Vertrieb, Marketing und Kampagnen-Management, Customer Journey-Erweiterung aus Email und Social Media, Kundensegmentierung, , analytisches CRM / Retention Marketing
  • Datenmodellierung mit Schwerpunkt:
    • DWH-Storage ROLAP, MOLAP, Star-, Snowflake-Schema)
    • DWH-Modellierung nach R. Kimball/Kimball Group (The Define to Dimensional Modeling)
    • DWH-Modellierung nach B. Immon (3NF)
    • DWH-Modellierung nach D. Linstedt (Data Vault) mit Vorbereitung zur Zertifizierung
  • Proof of Concepts u.a. BI-Tools: Vorauswahl, Entscheidungsparameter zur Toolauswahl
  • Reviews auf Lasten- und Pflichtenheft bzw. SAP-Blueprints, Scrum Product Backlog und User Stories
  • Aufwandsschätzung z.B. Aufwandsschätzung nach Function Point Analyse/Methode (FPA, COCOMO)
  • Moderator zwischen IT und Fachseiten
  • Business Case-Ermittlung; nach Analyse der Projektanforderung erstellen von Entscheidungsdokumenten zur Projektfreigabe und Präsentation bei Entscheidungsträgern
  • V-Modell / V-Modell des Bundes / S-O-S - Methode / V-Modell und Agilität
  • GPM: Projektmanager Level C, Senior Projektmanager Level B
  • PRINCE2: PRINCE Foundation, PRINCE Practioner
  • SCRUM: Scrum Master, Scrum Product Owner
  • SAFe Scaled Agile Framework-Verfahren/Methode für Großprojekte
  • IIBA Mitgliedschaft bei der IIBA und dem IIBA Germany Chapter; jedoch noch keine Zertifizierung
  • ITIL V3, ITIL-Konzepte und -Umsetzung
  • CMMI, CMMI (insbesondere Verfahren zum Projektmanagement) und Scrum
  • Consulting Projektmanagement:
    • Lean Project Management und agile Methodik
    • Aufbau bzw. Optimierung von PMO-Strukturen
    • Strategien und Handlungsstränge im Kontext agiler Methodik und dem klassischen Projektmanagement (keine Patentrezepte sondern behutsamer Umgang mit der Unternehmenskultur)
    • Business Analyse und Requirements Engineering im Kontext agiler Projekte
  • Reflektion der Sophist-Regelwerke zum Requirements Engineering-Management
    • Aktivitäten im agilen Netzwerk
  • Toyota-Modell

Produkte / Standards / Erfahrungen / Methoden

  • Projektmanagement-Tool: MS-Project
  • Projektmanagement-Tool: Clarity mit Verknüpfung ClearQuest und SQS
  • Projektmanagement-Tool: SharePoint
  • Projektmanagement-Tool: SAP PS
  • UML
  • ARIS
  • Viso
  • arc42
  • ClearQuest
  • SQS
  • HP Quality Center
  • Mind Mapping
  • SAP ? CRM 6.0, BW > 8.0, SEM, Planning and Consolidation, HANA, EC-CS, BCA, FS-CD, CML, FI, CO, SD, MM (Erfahrungslevel bzw. aktuelles Know How ist modulabhängig)
  • IBM Cognos V10.1
  • IBM Cognos TM1 Enterprise Planning
  • Informatica Power Center
  • Apache Foundation Hadoop, Cloudera, Hortenworks, MapR, Oracle 12c/Exadata, SAP HANA, HDFS, WebHDFS, Map Reduce, YARN, Hue, Oozie, Cascading, Zookeeper, HBase, MongoDB, Oracle NoSQL Database (Exadata), Hive, Hive on Spark, Apache Drill, Pig, Spark SQL, Spark Streaming, Impala, Big SQL, Python, Strom Streaming, Kafka, Sqoop, Cloudera Manager, Hortenworks Ambari, MapR Control System
  • SAS DI- und BI ?Studio, SAS Visualisierung / Big Data-Integration
  • MS-Office
  • 1999 ? 2002: Entwicklung einer Standardsoftware für Kampagnenmanagement, analytisches CRM und Mediaplanung (Java, J2EE, WebSphere, SAS)

IIoT-Plattform

  • PTC (operativ beim Kunden im Einsatz)
  • HP (HPE Dashboard für IoT (produktiv beim Kunden im Einsatz)
  • CONTACT Software Produktionsempfehlung nach Erprobung bei zwei Kunden
  • SAP-Leonardo (als PoC beim Kunden
  • MS Azure Stacks (als PoC; Entscheidung des Kunden für AWS IoT)
  • BÖHME & WEIHS SYSTEMTECHNIK GMBH & CO. KG (operativ beim Kunden im Einsatz)
  • AWS IoT bei der DB Systel GmbH (Vorstudie, Marktübersicht und Kriterien für IoT in der Cloud (Entscheidung für AWS geben Microsoft Azure; Entscheidung nicht aus IoT-Leistungssicht sondern auf monetärer und vertragstechnischer Ebene)

   

Leitende Funktionen

  • Projektleitung- und -management (mehr als 20 Jahre Erfahrung)
  • Senior-Consultant, Senior Management Consultant (mehr als 20 Jahre Erfahrung)
  • Führung von Teams bis zu 100 Mitarbeitern
  • Projektbudgets wesentlich über 5 Mio. Euro
  • Führung von heterogenen Projektgruppen (diverse externe Dienstleister)
  • Vertragsverhandlungen, Werksverträge, Angebotsprüfung
  • Agiler Festpreis bei Werksverträgen

Grundsätzliche Hinweise zu Projektleitung und -management ? Funktionen.

Die Wahrnehmung der Funktion beinhaltet grundsätzlich folgende Projektmanagement-standards:

  • Auftragsmanagement als Leistungselement bei allen Projekten ab 2006:
    • Definition von Gewerken (Festpreis)
    • Definition von Leistungen ohne Gewerk
    • Angebots- und Ausschreibungsmanagement
    • Bewertung von Angeboten und Lieferantenauswahl
    • Abstimmungsworkshops mit Lieferanten
    • Zusammenarbeit mit den Einkaufsabteilungen
  • Projektmanagementmethodik (IPMA, GMP, PMBOK, Prince2, Scrum oder in Kombination klassische Projektmanagement und agile Methodik)
  • Erstellung Business Case
  • Projektleitdokumentation unabhängig der Projektmanagementmethodik
  • Budgetverantwortung und Projektcontrolling
  • Statusreports zu Planung, Fortschritt, Risiken und Change
  • Stakeholder-Management und Projektorganisation
  • Aufbau PMO
  • Risiko- und Konfliktmanagement
  • Lessons learned als permanenter Verfahrungs- und Lernprozess
  • Management des Requirement Engineerings
  • Qualitätsmanagement
  • Releasemanagement
  • Steuerung des Testmanagements
  • Führen, motivieren, Teambildung, Teamleader
  • Aufbau und Optimierung von PMO-Einheiten; PMO-Verantwortung im Kontext der Projektleitung
  • Elemente der systemischen Organisationberatung und des systemischen Coachings (Projektmanagement ist mehr als Verfahren und Methodik)
  • Artefakte und Rollen bei agiler Methodik; Scrum als Projektmanagementverfahren
  • Business Analytik und Requirements Engineering im Zusammenspiel mit agiler Methodik
  • Zusammenspiel klassisches Projektmanagement und agile Methodik
  • SAFe Scaled Agile Framework / Methoden, Prinzipien und Praktiken zur Einführung
  • Lernen aus dem Toyota-Modell

Grundsätzliche Hinweise zu Coaching und Schulung:

  • Mehrjährige Erfahrung im Coaching von neuen Technologien mit Schwerpunkt BI-Produkte und Technologien der digitalen Transformation
  • Coaching/Schulung zur Einführung agiler Methoden und hybrider Projektmanagementmodelle.

Betriebssysteme

Enterprise Linux
MVS
OS/390
Unix
Windows

Programmiersprachen

ABAP-OO
ABAP4
Flink
Impala
JavaScript
Grundkenntnisse
MapR Streaming
MDX
PL/SQL
SAS
Spark
SQL

Datenbanken

Adabas
DB2
IBM Cognos TM1
IMS
Informatica
Informix
Ingres
ISAM
JDBC
Lotus Notes
ODBC
Oracle
aktuell Oracle 12c, Oracle Exadata, Oracle Big Data SQL
Oracle EssBase 12g
SAP HANA
SAS
BI- und DI-Studie
Snowflake im Test
mit einem BI-Dienstleister
SQL
Talend
WhereScape im Test
mit einem BI-Dienstleiter
  • Big Data-Tools/ Dienstleiter wie MS Azure, AWS, Cloudera, Hortonworks und MapR, Spark und Flink-Framework

Datenkommunikation

DCAM/ISAM
Ethernet
IBM LAN Server
IMS/DC
Internet, Intranet
ISO/OSI
LAN, LAN Manager
LU6.2
SNA
SNADS
TCP/IP
VTAM

Hardware

Digital
IBM Großrechner
IBM RS6000
PC
Siemens Großrechner
Siemens MX
SNI RM-Rechner
Teradata
VAX

Branchen

Branchen

  • Transportwesen / Logistik
  • Banken / Finanzdienstleister / Versicherung
  • Pharmaindustrie und Gesundheitswesen
  • Autoindustrie
  • Handel
  • Kunststoff-Verarbeitung

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.