ca. 19 Monate: Optimierung von Stammdaten für Asset-Management
Im Rahmen der Maßnahme wurden KI Modelle und Analytics
Prozesse entwickelt, um Stammdatenqualität für Equipments in der
Prozessindustrie zu optimieren. Hierbei werden Daten aus diversen Quellen
konsolidiert und KI-Modelle eingesetzt um einen sinle-point-of-truth zu
erzeugen. Zum Einsatz kommen Apache NIFI, Python, Transformer, LLMs und Llama
ca. 6 Monate:
Klassifizierung von Qualitätsvorgängen in der
Industrie
Ziel des Projektes ist die Extraktion aus SAP Systemen, die anschließende Anwendungen von KI Modellen zur Datenerzeugung und Datenbewertung und die abschließende Integration in SAP-Systeme. Hierdurch können Arbeitsaufwände um ~70% reduziert werden. Zum Einsatz kommen SAP JCo, Python, Java, Apache NIFI, Transformer, LLMs und Llam.
ca. 5 Jahr: Konzeption und Entwicklung einer automatisierten KPI-Extraktion aus Dokumenten
Ziel des Projektes ist die automatisierte Extraktion von Kennzahlen aus unstrukturierten Dokumenten. Der Experte ermöglichte Dateneinblicke und er implementierte einen Datenfluss, der die Kennzahlen aus den Dokumenten extrahiert und eine Evaluierung ermöglicht. Zum Einsatz kamen Python, Apache NIFI, Tensorflow, BERT, Mlib, Java, später auch LLMs und Llama.
ca. 4 Monate: Automatisierte Data Quality Tracking durch Datenqualitätstests für ein Data Warehouse
Ziel des Projektes ist die automatisierte Prüfung der Datenqualität in einem Enterprise Data Warehouse. Hierzu wurden Daten in Echtzeit geprüft und potenzielle Fehler reportet. Der Experte verantwortete die Konzeption und Entwicklung der Test Cases. Zum Einsatz kamen Oracle Database und Python.
ca. 4 Monate: Gateway für eine Übertragung von 5TB Data Lake zu AWS
Ziel des Projektes ist die stetige Aktualisierung eines Data Lake in die Cloud, zur Bereitstellung der Daten in einer Cloud API mit Elastic Search und JAVA. Als leitender Entwickler wurden Vollversorgungen und Deltaversorgungen entwickelt und automatisiert. Zum Einsatz kamen Oracle Database, Python, Elastic Search und Amazon AWS.
Studium Business Information Systems
Bachelor of Science
Der Experte für Datenmodellierung, Datenanalyse und die Lösung von Aufgaben im Zusammenhang mit maschinellem Lernen, die auf der Big Data-Technologie basieren zeichnet sich durch eine schnelle Auffassungsgabe und Liebe zum Detail aus. Er ist ein exzellenter Teamplayer und zeigt eine solide Kommunikationsstärke in der täglichen Projektarbeit. Er hat Erfahrungen in verschiedenen IT-Disziplinen, wie Data Engineering, Prozessautomatisierung, Predictive Analytics, Data Science und maschinelles Lernen. Außerdem verfügt er über Kenntnisse im Bereich Reporting. Der Experte hat in mehreren erfolgreichen Projekten gearbeitet und Verantwortung für bestimmte Teilprojekte übernommen.
Seine Branchenerfahrungen umfassen die Immobilienbranche, die Chemie- und Pharmaindustrie, sowie Logistikdienstleister.
ca. 19 Monate: Optimierung von Stammdaten für Asset-Management
Im Rahmen der Maßnahme wurden KI Modelle und Analytics
Prozesse entwickelt, um Stammdatenqualität für Equipments in der
Prozessindustrie zu optimieren. Hierbei werden Daten aus diversen Quellen
konsolidiert und KI-Modelle eingesetzt um einen sinle-point-of-truth zu
erzeugen. Zum Einsatz kommen Apache NIFI, Python, Transformer, LLMs und Llama
ca. 6 Monate:
Klassifizierung von Qualitätsvorgängen in der
Industrie
Ziel des Projektes ist die Extraktion aus SAP Systemen, die anschließende Anwendungen von KI Modellen zur Datenerzeugung und Datenbewertung und die abschließende Integration in SAP-Systeme. Hierdurch können Arbeitsaufwände um ~70% reduziert werden. Zum Einsatz kommen SAP JCo, Python, Java, Apache NIFI, Transformer, LLMs und Llam.
ca. 5 Jahr: Konzeption und Entwicklung einer automatisierten KPI-Extraktion aus Dokumenten
Ziel des Projektes ist die automatisierte Extraktion von Kennzahlen aus unstrukturierten Dokumenten. Der Experte ermöglichte Dateneinblicke und er implementierte einen Datenfluss, der die Kennzahlen aus den Dokumenten extrahiert und eine Evaluierung ermöglicht. Zum Einsatz kamen Python, Apache NIFI, Tensorflow, BERT, Mlib, Java, später auch LLMs und Llama.
ca. 4 Monate: Automatisierte Data Quality Tracking durch Datenqualitätstests für ein Data Warehouse
Ziel des Projektes ist die automatisierte Prüfung der Datenqualität in einem Enterprise Data Warehouse. Hierzu wurden Daten in Echtzeit geprüft und potenzielle Fehler reportet. Der Experte verantwortete die Konzeption und Entwicklung der Test Cases. Zum Einsatz kamen Oracle Database und Python.
ca. 4 Monate: Gateway für eine Übertragung von 5TB Data Lake zu AWS
Ziel des Projektes ist die stetige Aktualisierung eines Data Lake in die Cloud, zur Bereitstellung der Daten in einer Cloud API mit Elastic Search und JAVA. Als leitender Entwickler wurden Vollversorgungen und Deltaversorgungen entwickelt und automatisiert. Zum Einsatz kamen Oracle Database, Python, Elastic Search und Amazon AWS.
Studium Business Information Systems
Bachelor of Science
Der Experte für Datenmodellierung, Datenanalyse und die Lösung von Aufgaben im Zusammenhang mit maschinellem Lernen, die auf der Big Data-Technologie basieren zeichnet sich durch eine schnelle Auffassungsgabe und Liebe zum Detail aus. Er ist ein exzellenter Teamplayer und zeigt eine solide Kommunikationsstärke in der täglichen Projektarbeit. Er hat Erfahrungen in verschiedenen IT-Disziplinen, wie Data Engineering, Prozessautomatisierung, Predictive Analytics, Data Science und maschinelles Lernen. Außerdem verfügt er über Kenntnisse im Bereich Reporting. Der Experte hat in mehreren erfolgreichen Projekten gearbeitet und Verantwortung für bestimmte Teilprojekte übernommen.
Seine Branchenerfahrungen umfassen die Immobilienbranche, die Chemie- und Pharmaindustrie, sowie Logistikdienstleister.