2021 - heute: System ETL
Rolle: Technischer Service-Verantwortlicher für System ETL (Informatica) und BIG/DWH
Kunde: GEMA/IT4IPM München
Aufgaben:
- Wartung der Informatica workflows für BIG/DWH, ANUBIS-Sync und FUNK/DDEX
- Bau von Deploymentpaketen für Informatica, Vertica, Oracle und Installation
- Ausbildungsbeauftragter für bisher 5 Auszubildende im Bereich Fachinformatik
2019 - heute: Projekt Enzian
Rolle: Entwickler in Projekt Enzian für ZPÜ
Kunde: GEMA/IT4IPM München
Aufgaben:
- Datenabzug aus Enaio DMS- und Workflow-System per REST-Schnittstelle für Reporting-Zwecke.
- Anpassung und Erstellung von XSD-Spezifikationen
- Datenmodellierung und Aufbau Staging-Area für Vertica-DWH mit ca. 90 Tabellen.
- Erstellung von Informatica-Mappings und Workflows auf Basis von XSD-Spezifkationen (Source) und Vertica-Tabellen (Target). Dazu Erstellung von Informatica Command-Tasks zur Datenextraktion (Curl, Perl).
Kenntnisse:
Vertica 9.2, Informatica 10.4, MicroStrategy 10.4, Enaio DMS, XML-Spy 2018, Aqua Data Studio 19.5, Jira, Confluence
2018 - heute: System ODS
Rolle: Technischer Service-Verantwortlicher für System ODS (?Operational Data Store?)
Kunde: GEMA/IT4IPM München
Aufgaben:
- Umsetzung logischer Datenmodell-Vorgaben in physikalisches Datenmodell
- Verskriptung und Deployment in ETAP-Umgebungen
- Koordination mit den für den DAL-Layer (Denodo) zuständigen Kollegen
- Performance Analyse und Tuning
- Erstellung und Wartung einer Test-VM für Auslieferungszwecke
- Steuerung der Datenbank-Migration von Oracle 12 auf 19
- Erstellung von PL/SQL-Package zur Verwaltung von Testdaten innerhalb des EndToEnd-Tests im Projekt ?Verteilung?
- Erstellung eines Wiederanlaufplans und Steuerung der Testdurchführung
- Erstellung und Implementation eines Partitionierungs-Konzeptes für einige sehr große Tabellen (#rows >> 10 Mrd)
- Einführung einer künstlichen Identity-Spalte als neuer Partition-Key für Intervalpartitionierte Master-Tabelle
- Referential partitionierte Detail-Tabellen mit lokalen Indexen und Hash-partitioniertem globalem Index
- Erstellung und Implementation eines CDC-Verfahrens (?Changed Data Capture?) für ANUBIS sowie EDGE (Google Cloud).
- Unterstützung bei der Auswahl eines Cloudbasierten Nachfolgesystems für die ODS-DB
Kenntnisse:
Oracle 19.21, SQL-Developer 23.1.1, Jira, Confluence, cvs, github
2018 - heute: BIG/DWH/Reporting
Kunde: GEMA/IT4IPM München
Aufgaben:
Mitarbeit im Bereich BIG/DWH/Reporting. Speziell KOMET (Außendienst)
- Spezifikation für KOMET-Kennzahlen im Bereich Kennzahlenwürfel, MNS (?Music Notification Service?), VGM (?Vorgangsmanagement?) zur ETL-Beladung in Informatica aus SAP-Extraktoren nach fachlichen Vorgaben. Zur Beauftragung die Verwendung von Jira-Tickets (?Requease?).
- DDL-Skript-Erstellung und Checkin nach CVS.
- Modellierung und Erstellung diverser Dimensions- und Fakt-Tabellen nach vorliegenden Entwickler-Richtlinien.
- Entwicklung diverser Vertica Utility-Funktionen.
- umfangreiche Confluence-Dokumentation (Themen z.B. Aqua Data Studio, Entwicklerrichtlinien, Datenmodellierung mit Enterprise Architect, CRM-Objekttypen, KOMET-Vorgangsarten, Einrichtung ODBC-Treiber für Vertica, Nützliche SQL-Skripte, Vertica Einschränkungen, Vertica VM, Stornogründe und deren Gruppierung, Geschäftsvorfälle und Vorgangsarten, etc.)
- Einarbeitung in Informatica und MicroStrategy (inkl. Entwicklerschulung).
- Planung und Steuerung der cvs-Migration nach git
Kenntnisse:
SAP ERP und CRM, Vertica 9.2, Informatica PowerCenter 10.4, MicroStrategy 10.4, Aqua Data Studio 19, CVS, GIT, JIRA, Confluence.
2013 - heute: System MEGA
Rolle: System- und Wartungs-Verantwortlicher
Kunde: GEMA/IT4IPM München
Aufgaben:
System- und Wartungs-Verantwortlicher für das System MEGA sowie stellvertretender System-Verantwortlicher für das Vorsystem MAX (?Matching Index?), Technische Projektleitung im Projekt MPLUS/Zentrales Matching der GEMA.
- Erstellung technisches Grobkonzept für MPLUS, Mitarbeit und Review des fachlichen Grobkonzepts. Ausarbeitung von Lösungsvarianten in Abstimmung mit Software- und Enterprise-Architekten. Steuerung von 3 internen und zwei externen Entwicklern (Java-Lead-Developer sowie Elasticsearch-Experte). Maßgebliche Konzeption der Prototyp-Entwicklungsiterationen.
- Planung und Steuerung eines PoC für den geplanten Einsatz von Elasticsearch in MPLUS
- Betreuung von vier internen sowie vier externen Mitarbeitern zur Aufrechterhaltung des Betriebs (Troubleshooting)
- Planung, Überwachung und Verteilung von JIRA-Trackern (Change Requests und Incidents) an die Entwickler.
- Leitung wöchentlicher Telefonkonferenzen mit Berliner Kollegen, Protokoll-Erstellung, die Teilnahme an diversen anderen Jour Fixes und die Erstellung eines wöchentlichen Statusberichts für die Abteilungsleitung.
- Grobkonzept für die Systemarchitektur eines Nachfolgesystems MAX-Redesign/MEGA (Ablösung von Oracle Text Index durch Java Lucene als In-Memory-DB, alternativ TIBCO Patterns)
- Erstellung von Projektplänen für zwei Migrations-Szenarien
- Mitarbeit an High Level Architekturstudie zur Einbettung von MAX-Redesign in künftige EAI-Landschaft
- Requirements Specifications für DELTA/ICE Projekt
- Technische Leitung DELTA/MAX-Redesign, verantwortlich für technische Feinspezifikationen
- Technische Abnahme von technischen Feinkonzepten und Erstellung von Spezifikationen für neues Identifikatorsystem (GEWIS), globale Systemarchitektur und Reporting-System für den Fachbereich sowie DELTA.
- Erstellung von Schnittstellen-Specs inkl. XSDs.
- Einführung von APEX-Technologie für GEWIS-Dialogfunktionen und Reporting/Statistiken.
- Evaluierung von Enterprise Architect für Software-Dokumentations-Belange.
- Unterstützung bei Aufbau MDM-Produktdaten und Migrationsprojekt MDM-Partnerdaten aus Vorsystemen AIDA, MIKOS, LIPO, LIRA, LION-CLK über TIBCO-MDM nach SAP/CRM und SAP/ERP.
Kenntnisse:
ORACLE 12c, Oracle Text Index, Oracle Advanced Queueing, Java Lucene, Elasticsearch 5, SQL-Developer 4, Oracle Developer Data Modeler 4, UC4, Toad 12.5, Windows XP/7, CVS, GIT, MS Office 2003/2010, Linux, JBOSS Application Server, JIRA, Confluence, Maven, TIBCO ActiveSpaces, TIBCO Patterns, APEX 4.2.4, XML-Spy, Enterprise Architect, Cherwell ITSM, TIBCO MDM, Trillium Datacleansing, Kanban.
2017 - 2024: Unterstützung im Bereich NAVAS/VAS-Ablösung
Kunde: GEMA/IT4IPM München
Aufgaben:
- SR20181203-0299: Steuerung zur Vervollständigung des zugehörigen Betriebshandbuchs.
- CR20181203-0303: UC4-Konfiguration für VAS im Rahmen von ETAP.
- Analyse der bestehenden Informatica workflows und mappings sowie der zugehörigen Automic (UC4) workflows und Sichtung der vorhanden Dokumentation.
- Identifikation bestehender Source-Files und Projektstruktur mit nachfolgender Übernahme ins CVS.
- Kostenanalyse auf Basis der umgesetzten Lines of Code zur vollständigen Cobol-Ablösung.
- Erstellung und Beauftragung von Deployment-Paketen für die Test/Abnahme/Produktionsumgebungen
- Wartung der bestehenden Informatica-Workflows
Kenntnisse:
Informatica PowerCenter 10.4, Microfocus COBOL, Automic ONE Automation 2015, CVS, Confluence.
2017 - 2018: Unterstützung für SCALA
Kunde: GEMA/IT4IPM München
Aufgaben:
Unterstützung für SCALA (?System für Controlling und Auslandsabrechnung?).
- SR20180221-0432: ?Daten löschen älter als 10 Jahre? (Design, Entwicklung, Test).
- SR20180124-0346: ?Diverse Funktionen in den Arbeitspaketen?. Analyse bestehender UIX- und PL/SQL-Logik und darauf aufbauend Erstellung einer Erweiterung bestehender Einzelverarbeitung für eine Massenverarbeitung.
- Analyse von Performance-Problemen und Erstellung Grobkonzept für eine geeignete Partitionierung zur physischen Abspaltung abgerechneter Altdaten.
- Erstellung diverser Teildatenmodelle für bestehende Tabellen.
- Diverse Dokumentation in Confluence (z.B. UIXDebugging, Aufgabentracking, Erweiterung Systemlandschaft)
Kenntnisse:
ORACLE 12c, JBOSS EAP 6.2, Java 1.7_51, UIX-Framework, PL/SQL.
2011 - 2012: Entwicklungsarbeiten
Kunde: Siemens CIT München
Aufgaben:
Entwicklungsarbeiten im Bereich CIO/CFO-DAsh (?central reporting Dashboard for Sector/Cluster CIOs?) und PSCAN/PRESULT (Staging/Reporting-DB).
- Sonderprojekt SIPA (Siemens Partnerschaft mit ATOS). CCM-Datenbereitstellung SIPA und ITrelevante Rechnungen / Bestellungen. Da die Datenselektion u.a. durch ARE-spezifische Parameter bestimmt wird, wird die Abfrage je ARE dynamisch zusammengesetzt und ausgeführt. Hierbei werden die jeweils täglich aktuellen Parameter verwendet. Eine retrograde Veränderung von Daten bei Parameteränderungen findet nicht statt. Hierbei kommen folgende Filter zur Anwendung:
- 1. Filterung auf ATOS
- 2. Filterung auf IT-relevante ESN0
- 3. Filterung auf Konten(gruppen) innerhalb Punkt 3 und 4
- 4. Filterung externes/internes Geschäft innerhalb Punkt 3 und 4
- Über eine Prozedur wird über alle SAP Aren iteriert. Das Selektionsstatement wird dynamisch generiert und ausgeführt, die Daten werden in eine nach ARE partitionierte Tabelle geschrieben.
- Fehlerbehebung in Apex-Anwendung CFO-DAsh (fehlerhafte Darstellung von risk remediation details für einzelne AREn und Sub-AREn).
- Umsetzung von CR67 ? Add Status Information in Alert Detail within CCM-Web Frontend (Apex).
- Umsetzung CR210 ? T3 ? Alerts wegen verdichteter Bestellung. Dazu umfangreiche Anpassungen an PL/SQL Moduln Dataload und MD (Steuerlogik). Konfiguration eines neuen Tablesets für neue Spalten in Staging Tabellen (SAP).
- Umsetzung CR191 ? T1- Redesign to create only one Alert for a Purchase Order.
- Umsetzung von CR21 und CR98 für CCM (?Continuous Controls Monitoring). Dazu Fehlerbehebungen/Anpassungen in der Datenbank (neue Spalten und Business-Funktionalität) wie auch am Apex-GUI.
- Behebung kritischer Störungen bei lang laufenden Analyse-Jobs mit großen AREn durch gezieltes Performance-Tuning.
- Erstellung eines Löschkonzepts für zeitlich nicht mehr benötigte Staging- und BO-Daten. Danach Realisierung in PL/SQL und Tests.
- Refactoring des Analyse-Packages in Teil-Module zur leichteren Wartung und Tests.
- Die Zusammenfassung mehrerer inkrementeller Schritte bei der Bereitstellung von Analysedaten in das Reporting-Schema. Dazu Verwendung von Zwischenergebnistabellen, die jetzt erst nach einem erfolgreichen Analyselauf überspielt werden. Das erleichtert die Fehlerbehandlung bei lang laufenden Jobs.
- Umsetzung von CR118/CR157. Dabei Umstellung von BO-Tabellen auf (inkrementelle) Staging-Tabellen (cdpos/cdhdr) für Analyse T5 (Prüfung von Bestellvorgängen). Dazu musste das bestehende Verfahren für Währungsumrechnungen komplett auf eine neue Quelle und Systematik umgestellt werden (ARE-übergreifende Market Rates / FX Daily Rates statt tcurf).
- Erstellung von Spezialreports für Siemens Global und China (CR183, CR194). Validierung von Änderungen in den Organisationseinheiten. Dazu XML-Path Queries, Triggerlogik, Packages und DBMS-Jobs.
- Fehlerbehebungen (CR9) und Erweiterungen (CR67) im CCM-Webfrontend (APEX und PL/SQL).
- Umsetzung von CR154 (?Redesign of control logic to reduce unnecessary alerts?). Realisierung und Tests.
- Entwicklung eines PL/SQL Packages und eines Perl-Programms, um vollautomatisch Skripte für Tabellen, Views, Packages etc. im Dateisystem abzulegen und per Subversion einchecken zu können.
Kenntnisse:
ORACLE 11.2, SQL-Developer 3.1, APEX 3.2/4.11, Ext-JS, Windows XP / Citrix, Subversion, MS Office 2003, Linux
2010 - 2011: Entwicklungsarbeiten
Kunde: Telekom Darmstadt
Aufgaben:
Entwicklungsarbeiten im Bereich RDWH (?Reporting DWH?)/TOMAS (?T-Online Monitoring für Access Statistiken?).
- Übernahme Datenmodell, Berechnung von Kennzahlen bzgl. Verfügbarkeit und Servicequalität der Telekom-Dienste und Bereitstellung von Data-Marts für das Reporting.
- Erstellung von Aggregationen, PL/SQL-Packages und Views für Messdaten zum qualitativen Plattformvergleich Witbe.
- Erstellung von Data-Marts für Auswertung von durch Ineoquest erfasster Ausfalldaten (Multicast oder einzelne PIDs innerhalb des Multicast-Streams (z.B. nur Audio-Ausfall)). Dazu Erstellung von nach Sender und Location gewichtete sowie selektive (TOP20) Aggregationen, PL/SQL-Packages, Kennzahlenberechnung und Einbindung der Ergebnisse in Reports (SLA, QSR).
- Architektur, Datenmodellierung und Implementation der Anwendung Supplier Management (Supplier and Contracts Database) in Form einer Datenbasis zur Verbesserung der internen Abläufe und Kommunikation (Einkauf, Legal, Supplier Manager, Servicemanager, Entwicklung). Bereitstellung für eine Portal-Web-Anwendung auf Basis von PHP in Form lesender (Views) und schreibender (funktional über PL/SQL-Packages) Zugriffe. Verantwortlich für Dokumentation und Deployment in Form des monatlichen Release-Zyklus.
- Aufbau und Inbetriebnahme virtueller Zonen (Hopping-Konfiguration):
- Zugriff mit TOAD auf die Datenbanken ermöglichen
- Zugriff mit winscp auf die virtuellen Server (Homeverzeichnisse) ermöglichen
- Aufbau und Inbetriebnahme der virtuellen Zone für die Entwicklungsumgebung des RDWH (vturdwh):
- Datenbanklinks zu ACM-DB, LZA, MARS, CLARP2, SDB zum Laufen bringen
- Shellskripte auf neue Plattform anpassen und testen
- crontab einrichten und Prozesse überwachen
- Vergleich der Verarbeitung über einen längeren Zeitraum
- svn: aktuelle Produktionsversion als Basis-Version in Subversion aufbauen. Struktur RDWH: je Schema, dann je Objekttyp.
- THS: Nachberechnungsstart (Kalendertage der Vorwoche automatisieren)
- QSR-Kommentierung: Implementierung/Anpassung der Invalidierungsprozesse zur Pflege von Kommentaren für den QSR (im Zuge der 'normalen' Invalidierung sollen schon die Kommentare gepflegt werden können; bei der QSR-Erstellung sollen die Kommentare integrierbar sein)
- Implementierung der Datenstrukturen/Datamarts für die 'Systemarchitektur unter Flex'
- Benutzerkonzept/Sicherheitskonzept für Entwicklung und Produktion der Reportingdatenbanken ('weg vom universellen SDWH', Oracle-User/Passwörter für RDWH )
- SuM/SCD: Implementierung der Datenbankfunktionalität im RDWH
- neuer User/Schema
- Datenbankobjekte und Prozesse implementieren
- GUI-Entwicklung
- Dokumentation, Test, Inbetriebnahme ?
- Implementierung der Datenstrukturen/Funktionalitäten für ein 'Konfig-Cockpit'
Kenntnisse:
ORACLE 10.2, Toad 10.6.1.3, APEX 4.02, Windows XP / Windwos 7, Subversion, MS Office 2003, SunOS 5.8
2010 - 2010: Entwicklungsarbeiten im Bereich Datenrücklauf
Kunde: Medent GmbH
Aufgaben:
- Erstellung eines Perl-Programmes zur Ausführung parametrisierbarer SQL-Anweisungen und Ausgabe wahlweise als csv-Datei, Excel-Dokument oder als Access-Datenbank. Dokumentation ins MS-Word.
- Erstellung diverser Perl-Programme zum Parsen fehlerhafter Edifakt-Dateien und Ausgabe in csvDateien. Import der csv-Dateien in Datenbank und Vergleich/Analyse mit Bestandsdaten.
- Erstellung von Oracle-Packages zur Korrektur von Verordnungsdaten/Positionen mit anschließendem Export als Edifakt-Datei.
- verschiedene Batch-Skripte erstellt und angepasst.
- Fehlerbehebung an C-Programm zur Erstellung von Abrechnungsdaten im Bereich Heilmittel-Verordnung.
Kenntnisse:
ORACLE 10.2, Toad 9.7.2, Windows XP, Subversion, Active Perl (WIN32), Per2Exe, PerTidy, MS Visual C++ 6.0, MS Office 2003
2010 - 2010: Entwicklungsarbeiten
Kunde: Telefónica O2 GmbH
Aufgaben:
Entwicklungsarbeiten im Bereich DWH/BIC Special Services Vorratsdatenspeicherung / PQT
- Integration von TDe-Verkehrsdaten für Voice, Broadband und Narrowband
- Umbau der Datenspeicherung im PQT (?police query tool?) von § 113a TKG (Vorratsdatenspeicherung) auf § 96 TKG (abrechnungsrelevante und sonstige Daten)
- Abschaltung des Datenbezugs von o2 DSL Data und o2 DSL Voice über das DWH, sondern direkt aus TDe-Daten
- Einlesen der SMSC Outbound Roaming CDRs von Mediation statt über das DWH, so dass (neben den Bestandsdaten) nur noch TAP-Roaming-CDRs vom DWH bezogen werden
- Erstellen technischer Dokumentationen
Die oben genannten Tätigkeiten beinhalteten die Erstellung von PL/SQL Packages sowie Shell-Skripts, das Anlegen neuer subpartitionierter Tabellen, Views und external tables.
- Erstellung eines .NET 3.5 Moduls inkl. GUI zur Anzeige von Statistiken zum Fortschritt der durchgeführten Beauskunftungen.
- Tages-Eingang insgesamt
- Tages-Eingang per Fax
- Tages-Eingang ESB
- Tages-Eingang manuell angelegt
- Anzahl Sachbearbeiter, die Vorgänge auf laufend gestellt oder abgeschlossen haben
- am Tag insgesamt auf laufend gestellte oder abgeschlossene Vorgänge
- davon automatisch (ESB)
- davon manuell
- Hau-Rein-Index (Verhältnis Eingang/abgearbeitet)
Kenntnisse:
ORACLE 10.2, Toad 9.7.2, Windows Vista Clients, Visual-Studio 2008, Subversion, ASP.NET 2.0 und 3.5 mit Visual C, Shell-Skripts unter SunOS 5.1
2007 - 2010: Wartung und Weiterentwicklung
Kunde: Münchener Rück
Aufgaben:
Wartung und Weiterentwicklung als Produktverantwortlicher für das Pricing Tool MR-ANJAPRO.
- Analyse von Absturzursachen und Fehlerbehebung
- Umsetzung verschiedener defects und change requests aus tracking system Atlas.
- Einbau der Erweiterung ?Linking Dialog?
- Einbau der Erweiterung ?Predecessor Treaty?
- Anpassungen und Tests für Client 3.0 Release im Rahmen der Windows 2000 nach Vista-Umstellung
- Migration von Datenbankdesign-Werkzeug ERWIN zu Power Designer
- Erstellung von Releases für Test- und Produktionsumgebungen
- Erstellung von Freigabeunterlagen und Durchführung des weltweiten Rollouts
Wartung und Weiterentwicklung der AnjaPro und Basic Module Datenbanken (Oracle 10.2).
- Erstellung und Anpassung von Tabellen, Views und Grants für die Anbindung an externe Systeme (SAP, global reporting, global key data)
- Erstellung und Durchführung zahlreicher Migrations-Aufgaben z.B. im Bereich Health-Care und Result Responsibility oder Edifice.
- Pflege der einzelnen Schemata-Datenmodelle mit Powerdesigner.
Migration von MR-ANJAPRO nach Edifice (?Anjapro-?)
- Einbettung von Anjapro als MFC-Modul (DLL) innerhalb der neuen Edifice-Architektur (UAB, SCSF). Dabei Umstellung von VS2005 zu einer VS2008 Solution.
- Entfernung und Anpassung bestehender Dialoge in Anjapro sowie Bereitstellung neuer Schnittstellen für Edifice (Global Save, Global Validation, Copy/Renew/Delete). Dazu Bereitstellung geeigneter Wrapper-Methoden in C++/CLI.
- Erstellung von workitems und Business-Methoden in C# zur Integration in Edifice.
- Anbindung des Legacy-Codes über die zuvor erstellten CLI-Wrapper (managed code).
Bereitstellung einer Entwicklungsumgebung für CU (Fachabteilung) zum Testen derer mathematischer Methoden in Form von Legacy-C++ Modulen.
- Erstellung von C++/CLI Wrapper-Modulen zur Anbindung an C#
- Erstellung einer Test-Fassade in C#
Kenntnisse:
ORACLE 10.2, Toad 9.7, Powerdesigner, Windows W2K und Vista Clients, Visual-Studio 2005 und 2008, Team Foundation Server, ASP.NET 2.0 und 3.5 mit Visual C#, Visual C++, Microsoft Foundation Classes (MFC), Microsoft Composite UI Application Block and Smart Client Software Factory
2008 - 2008: DWH Projekt
Kunde: Hewlett Packard
Aufgaben:
DWH Projekt (ASD ? amtliche Schuldaten für das bayrische Kultusministerium)
- Erstellung der PL/SQL Backend Funktionalität für verschiedene Erfassungs-Dialoge des OLTP-Systems
- Konfiguration zur Steuerung der DWH-Beladungen mit APEX-Anwendung (ASD-Cockpit)
Kenntnisse:
ORACLE 10.2, Toad 9.7, Apex 3.2 (Oracle Application Express), Linux, Windows XP, VMWare
2007 - 2007: Informationsplattform Vieh- und Fleischwirtschaft
Kunde: Fleischprüfrin
Aufgaben:
Informationsplattform Vieh- und Fleischwirtschaft. Softwareentwicklung und Beratung.
- Erstellung eines Konzeptes für die Verknüpfung von redundanten nicht normalisierten Rohdaten von Schlachthöfen mit den bereits vorhandenen Stammdaten (Lieferant, Mastbetrieb, Klassifizierer etc) aus einer bestehenden Tierdatenbank.
- der Abgleich und die Vereinheitlichung zweier marginal unterschiedlicher Importdateien (für Schwein und Großvieh). Dadurch konnten Redundanzen in den Programmen vermieden werden. Dabei wurde die aktuell gültige PK21-Formatdefinition verwendet mit den gewünschten Feldumbenennungen.
- die Umstellung der Spaltentypen für die Beladung der Rohdaten einheitlich auf VARCHAR-Werte. Dadurch entfielen undefinierte Fehlerabbrüche bei der Beladung, wenn sich z.B. in numerischen Werten Sonderzeichen in der Upload-Datei befanden. Stattdessen wurde erst im zweiten Schritt (Stammdaten-Mapping) eine Konvertierung und Prüfung durchgeführt. Durch die Kapselung erhöhte sich die Wartbarkeit und es konnte entschieden werden, ob Fehler lediglich in einem Protokoll zu vermerken oder dazu führten, dass ein Schlachtdatensatz nicht übernommen werden konnte (wenn z.B. notwendige Idente wie die Anlagen-Nr. des Schlachthofs fehlten).
- die Übernahme und Anpassung der notwendigen Stammdaten-Tabellen aus der Tier-DB. Z.B. haben jetzt sämtliche Tabellen eine ID-Spalte mit Autoinkrement-Eigenschaft als Primärschlüssel.
- die Identifizierung und Eliminierung redundanter Einträge bzgl. Stammdaten. Dadurch konnten von 200 Spalten ca. 50 eingespart werden.
- Definition von Fremdschlüsselbeziehungen nach einem einheitlichen Namensschema. Erstellung zugehöriger Indexe.
- Erstellung der Mapping-Programme als stored procedures in Transact-SQL erstellt mit folgender Funktionalität:
- Kapselung als Transaktion (eine "Schlachtdatei" kann nur ganz oder gar nicht verarbeitet werden).
- Prüfung und Konvertierung aller Felder in den Zieldatentyp mit Exception-Handling.
- Protokollierung aller Fehler sowie eindeutiger Hinweis, wenn ein Datensatz aus fachlichen Gründen nicht übernommen werden konnte.
- Ermittlung der Stammdatensätze anhand ihrer Idente sowie Setzen des zugehörigen Fremdschlüsseleitrags. Dies erfolgte zur besseren Wartbarkeit in jeweils einer eigenen Prozedur pro Stammdatum.
- Stored Procedures lassen sich im SQL-Server schlecht modularisieren, da es hier kein Modul-Konzept wie etwa in Oracle (Packages) gibt. Als Behelfslösung habe ich pro Modul ein Schema eingerichtet, dem die Prozeduren zugeordnet wurden. Damit gab es auch keine Namenskonflikte mehr.
Kenntnisse:
Microsoft SQL-Server 2005 auf Windows 2003 Server, Windows XP Clients, Visual-Studio 2005, Qdesigner 12, Visual Source Safe 2005, ASP.NET 2.0 mit Visual C# 2005, Transact SQL
2005 - 2007: KVAI-Erweiterungen
Kunde: KVB (Kassenärztliche Vereinigung Bayern)
Aufgaben:
KVAI-Erweiterungen im Bereich Arztregister sowie Abrechnung I/II. Erstellung von Aggregationen im Data Warehouse-Umfeld. Erweiterung bestehender OracleDeveloper Reports im Bereich Arzneimittelmanagement. Erstellung wesentlicher Teile der Architektur für ein Management-Informations-System (MIS). Definition und Implementation von Schnittstellen und Datenmodellen sowie Erstellung von zahlreichen Webfocus-Reports im Bereich Personal-Controlling/SAP-HR und Zentrales Controlling SAP CO/FI (Finanzen / Projektcontrolling / Kennzahlen).
- Umstellung eines Shell-Skriptes nach PL/SQL und Anpassung an ein Tool für die Ablaufsteuerung sowie nachfolgende Erweiterungen und Tuning.
- Erstellung eines PL/SQL-Package zum Versenden von Emails aus PL/SQL heraus. Dazu Erstellung von Datenbank-Tabellen für die Pflege Anwendungs- und Rollen-bezogener Email-Adressen.
- Erzeugung von HTML-Dateien für Gebührenordnungspositions-Regeln und anschließender Benachrichtigung der Anwender per Email.
- Einführung von Subversion als Sourcecode-Verwaltung im Bereich Anwendungsentwicklung.
- Erstellung eines komplexen Tabellen-gesteuerten Kopier-Programmes (PL/SQL) für Dateninhalte von einem Schema in ein anderes. Dazu temporäres Aus- und Einschalten beteiligter referential constraints.
- fachliche Anpassungen und Erweiterungen an diversen vorhandenen PL/SQL Packages.
- Erstellung eines PL/SQL-Package für die Ermittlung von Honorarsummen aus vorhandenen Aggregations-Tabellen und Verdichtung nach vorgegebenen Kriterien.
- Erstellung von Power-Point Folien zur Darstellung der Aktivitäten der Abteilung IT im Bereich Anwendungssoftware. Dazu Ermittlung von DBMengengerüsten und Beschreibung eines Fallbeispiels im Bereich ?Problemlösung".
- Erstellung verschiedener OWB-Mappings für Dimensions-, Fakten- und Aggregationstabellen. Tabellen-Design mit Powerdesigner 9.5.
- Erweiterung bestehender Berichte mit OracleReports-Developer 9i im Bereich Arzneimittelmanagement
- Erstellung eines PL/SQL Packages für eine Konfigurations-gesteuerte Schemakopie des sog. Arztregisters für die Regress-Nachverrechnung. Dabei Einsatz des Oracle Standard-Packages dbms_metadata.
- Erstellung von owb-Mappings und zweier CrystalReports im Bereich Richtgrößenprüfung.
- Erstellung komplexer Auswertungen für die Bereinigung bzw. Restauration eines defekten SAP Organisations-Managements. Dazu Kosten- und Planstellen-Analyse von hierarchischen SAPTabellen.
- Erstellung eines Perl-Skriptes mit lesendem Zugriff auf SAP-Tabellen und Reports/Varianten via RFC zum Befüllen von Basisdaten in eine OracleDatenbank zur Berichtserstellung mit Webfocus 5.3.
- Erstellung verschiedener Webfocus-Berichte im Bereich HR wie Jahresurlaub, Fluktuationsanalyse oder eine Gesamtübersicht für Führungskräfte.
- Aufbau Datawarehouse und Erstellung von Webfocus-Reports für das MIS (Kostenstellen-Verteilung, Eckdaten Lohn- und Gehalt, Urlaubsübersicht.
- Aufbau Datawarehouse und Erstellung von Webfocus-Reports für ein Projekt-Controlling-System (Projektübersichten für Vorstand, Key Account Manager, Projekt- und Fachbereichs-Leiter)
- Aufbau Datawarehouse für Finanzbericht und Einzelbuchungen. Bereitstellung von Schnittstellen für nachgelagerte Webanwendung im Bereich Projekt-Controlling.
- Neue Berichte Personalstrukturwandel und Änderungen Maßnahmen für MIS.
- Aufbau Kennzahlensystem im MIS für Bereich Zentrales Controlling.
Kenntnisse:
ORACLE 9.2.0.4.0 auf Solaris, ORACLE 10GR2 unter Solaris, Windows XP Clients, PL/SQL-Developer, Sybase Powerdesigner 9.5, Subversion 1.1.3, Oracle Warehouse Builder 10.1.0.4, Oracle-Reports-Developer 9i, Webfocus 5.3 u. 7.1.4, Perl, DBI, DBD, SAP-RFC, Crystal Reports XI Release 2
weitere Projekte auf Anfrage