Experte für künstliche Intelligenz und Automatisierung, Data Engineering, Geschäftsprozessautomatisierung, Projektmanagement, Data Science
Aktualisiert am 02.10.2024
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 28.04.2024
Verfügbar zu: 100%
davon vor Ort: 100%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
Deutsch
Englisch

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

ca. 19 Monate: Optimierung von Stammdaten für Asset-Management

Im Rahmen der Maßnahme wurden KI Modelle und Analytics Prozesse entwickelt, um Stammdatenqualität für Equipments in der Prozessindustrie zu optimieren. Hierbei werden Daten aus diversen Quellen konsolidiert und KI-Modelle eingesetzt um einen sinle-point-of-truth zu erzeugen. Zum Einsatz kommen Apache NIFI, Python, Transformer, LLMs und Llama


ca. 6 Monate: Klassifizierung von Qualitätsvorgängen in der Industrie

Ziel des Projektes ist die Extraktion aus SAP Systemen, die anschließende Anwendungen von KI Modellen zur Datenerzeugung und Datenbewertung und die abschließende Integration in SAP-Systeme. Hierdurch können Arbeitsaufwände um ~70% reduziert werden. Zum Einsatz kommen SAP JCo, Python, Java, Apache NIFI, Transformer, LLMs und Llam.


ca. 8 Monate: Extraktion von Supply Chain Daten aus Lieferantendokumentation

Ziel des Projektes ist die automatisierte Extraktion von Identifikatoren für Delivery Notes, Invoices, Shippment Notes, Orders aus SAP aus unstrukturierten Dokumenten. Der Experte ermöglichte die Extraktion mit eine Accuracy von ~98% und ermöglichte so die Bereitstellung stark angereicherter Datensätze zur zügigen Abwicklung von Kundenbeschwerden. Zum Einsatz kamen Python, Transformer, LLMs und Llama.


ca. 5 Jahr: Konzeption und Entwicklung einer automatisierten KPI-Extraktion aus Dokumenten

Ziel des Projektes ist die automatisierte Extraktion von Kennzahlen aus unstrukturierten Dokumenten. Der Experte ermöglichte Dateneinblicke und er implementierte einen Datenfluss, der die Kennzahlen aus den Dokumenten extrahiert und eine Evaluierung ermöglicht. Zum Einsatz kamen Python, Apache NIFI, Tensorflow, BERT, Mlib, Java, später auch LLMs und Llama.


ca. 4 Monate: Automatisierte Data Quality Tracking durch Datenqualitätstests für ein Data Warehouse

Ziel des Projektes ist die automatisierte Prüfung der Datenqualität in einem Enterprise Data Warehouse. Hierzu wurden Daten in Echtzeit geprüft und potenzielle Fehler reportet. Der Experte verantwortete die Konzeption und Entwicklung der Test Cases. Zum Einsatz kamen Oracle Database und Python.


ca. 4 Monate: Gateway für eine Übertragung von 5TB Data Lake zu AWS

Ziel des Projektes ist die stetige Aktualisierung eines Data Lake in die Cloud, zur Bereitstellung der Daten in einer Cloud API mit Elastic Search und JAVA. Als leitender Entwickler wurden Vollversorgungen und Deltaversorgungen entwickelt und automatisiert. Zum Einsatz kamen Oracle Database, Python, Elastic Search und Amazon AWS.

Aus- und Weiterbildung

Aus- und Weiterbildung

Studium Business Information Systems

Bachelor of Science

Position

Position

Der Experte für Datenmodellierung, Datenanalyse und die Lösung von Aufgaben im Zusammenhang mit maschinellem Lernen, die auf der Big Data-Technologie basieren zeichnet sich durch eine schnelle Auffassungsgabe und Liebe zum Detail aus. Er ist ein exzellenter Teamplayer und zeigt eine solide Kommunikationsstärke in der täglichen Projektarbeit. Er hat Erfahrungen in verschiedenen IT-Disziplinen, wie Data Engineering, Prozessautomatisierung, Predictive Analytics, Data Science und maschinelles Lernen. Außerdem verfügt er über Kenntnisse im Bereich Reporting.  Der Experte hat in mehreren erfolgreichen Projekten gearbeitet und Verantwortung für bestimmte Teilprojekte übernommen.

Seine Branchenerfahrungen umfassen die Immobilienbranche, die Chemie- und Pharmaindustrie, sowie Logistikdienstleister.

Kompetenzen

Kompetenzen

Schwerpunkte

Data Analytics
Predictive Analytics
Process Automation

Produkte / Standards / Erfahrungen / Methoden

Amazon AWS
Apache NiFi
Atlassian JIRA/Confluence
Docker
Eclipse
Elasticsearch
Flask
Heroku
IntelliJ
ITIL
Jupyter
Kanban
Microsoft Azure
SCRUM
TensorFlow/ Keras

Betriebssysteme

MacOS
UNIX
Windows

Programmiersprachen

Java
PL/SQL
Python
Shell

Datenbanken

Oracle DB
PL/SQL
SQL

Branchen

Branchen

  • Real Estate
  • Chemie- und Pharma
  • Logistik

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

ca. 19 Monate: Optimierung von Stammdaten für Asset-Management

Im Rahmen der Maßnahme wurden KI Modelle und Analytics Prozesse entwickelt, um Stammdatenqualität für Equipments in der Prozessindustrie zu optimieren. Hierbei werden Daten aus diversen Quellen konsolidiert und KI-Modelle eingesetzt um einen sinle-point-of-truth zu erzeugen. Zum Einsatz kommen Apache NIFI, Python, Transformer, LLMs und Llama


ca. 6 Monate: Klassifizierung von Qualitätsvorgängen in der Industrie

Ziel des Projektes ist die Extraktion aus SAP Systemen, die anschließende Anwendungen von KI Modellen zur Datenerzeugung und Datenbewertung und die abschließende Integration in SAP-Systeme. Hierdurch können Arbeitsaufwände um ~70% reduziert werden. Zum Einsatz kommen SAP JCo, Python, Java, Apache NIFI, Transformer, LLMs und Llam.


ca. 8 Monate: Extraktion von Supply Chain Daten aus Lieferantendokumentation

Ziel des Projektes ist die automatisierte Extraktion von Identifikatoren für Delivery Notes, Invoices, Shippment Notes, Orders aus SAP aus unstrukturierten Dokumenten. Der Experte ermöglichte die Extraktion mit eine Accuracy von ~98% und ermöglichte so die Bereitstellung stark angereicherter Datensätze zur zügigen Abwicklung von Kundenbeschwerden. Zum Einsatz kamen Python, Transformer, LLMs und Llama.


ca. 5 Jahr: Konzeption und Entwicklung einer automatisierten KPI-Extraktion aus Dokumenten

Ziel des Projektes ist die automatisierte Extraktion von Kennzahlen aus unstrukturierten Dokumenten. Der Experte ermöglichte Dateneinblicke und er implementierte einen Datenfluss, der die Kennzahlen aus den Dokumenten extrahiert und eine Evaluierung ermöglicht. Zum Einsatz kamen Python, Apache NIFI, Tensorflow, BERT, Mlib, Java, später auch LLMs und Llama.


ca. 4 Monate: Automatisierte Data Quality Tracking durch Datenqualitätstests für ein Data Warehouse

Ziel des Projektes ist die automatisierte Prüfung der Datenqualität in einem Enterprise Data Warehouse. Hierzu wurden Daten in Echtzeit geprüft und potenzielle Fehler reportet. Der Experte verantwortete die Konzeption und Entwicklung der Test Cases. Zum Einsatz kamen Oracle Database und Python.


ca. 4 Monate: Gateway für eine Übertragung von 5TB Data Lake zu AWS

Ziel des Projektes ist die stetige Aktualisierung eines Data Lake in die Cloud, zur Bereitstellung der Daten in einer Cloud API mit Elastic Search und JAVA. Als leitender Entwickler wurden Vollversorgungen und Deltaversorgungen entwickelt und automatisiert. Zum Einsatz kamen Oracle Database, Python, Elastic Search und Amazon AWS.

Aus- und Weiterbildung

Aus- und Weiterbildung

Studium Business Information Systems

Bachelor of Science

Position

Position

Der Experte für Datenmodellierung, Datenanalyse und die Lösung von Aufgaben im Zusammenhang mit maschinellem Lernen, die auf der Big Data-Technologie basieren zeichnet sich durch eine schnelle Auffassungsgabe und Liebe zum Detail aus. Er ist ein exzellenter Teamplayer und zeigt eine solide Kommunikationsstärke in der täglichen Projektarbeit. Er hat Erfahrungen in verschiedenen IT-Disziplinen, wie Data Engineering, Prozessautomatisierung, Predictive Analytics, Data Science und maschinelles Lernen. Außerdem verfügt er über Kenntnisse im Bereich Reporting.  Der Experte hat in mehreren erfolgreichen Projekten gearbeitet und Verantwortung für bestimmte Teilprojekte übernommen.

Seine Branchenerfahrungen umfassen die Immobilienbranche, die Chemie- und Pharmaindustrie, sowie Logistikdienstleister.

Kompetenzen

Kompetenzen

Schwerpunkte

Data Analytics
Predictive Analytics
Process Automation

Produkte / Standards / Erfahrungen / Methoden

Amazon AWS
Apache NiFi
Atlassian JIRA/Confluence
Docker
Eclipse
Elasticsearch
Flask
Heroku
IntelliJ
ITIL
Jupyter
Kanban
Microsoft Azure
SCRUM
TensorFlow/ Keras

Betriebssysteme

MacOS
UNIX
Windows

Programmiersprachen

Java
PL/SQL
Python
Shell

Datenbanken

Oracle DB
PL/SQL
SQL

Branchen

Branchen

  • Real Estate
  • Chemie- und Pharma
  • Logistik

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.