· Entwicklung von Terraform-Code zur Migration eines K8s-Clusters von On-Premises zu AWS
· Erstellung von Terraform-Modulen für Amazon EKS
· Implementierung von Helm Charts für Observability mit ADOT, Chaos Mesh und Nginx Ingress Controller
· Behebung von Sicherheitsrisiken mit TFSEC
· Erstellung von einer CI/CD Strategie mit AWS CodeBuild
· Einführung einer neuen Testumgebung (Pre-Prod)
· Entwicklung eines Moduls für Oracle Kony Fabric und Verschlüsselung von RDS mit KMS
· Erstellung einer Monitoring-Lösung für EKS Fargate durch Installation des ADOT Collectors zur Aktivierung von Container Insights
· Erstellung maßgeschneiderter Dashboards für relevante CAdvisor-Metriken
· Hinzufügen der Kube State Metrics in ADOT zur Überwachung von Anwendungsproblemen
· Einrichtung von Alarmen und Zusammenführung aller Daten in einem CloudWatch-Dashboard zur Echtzeit-Überwachung der Performance und Probleme von K8s-Anwendungen
· Nutzung von Fluentbit zur tiefergehenden Analyse von Pods mit Problemen, Anzeige dieser Pods im Haupt-Dashboard
· Implementierung eines Skripts zur automatischen Erstellung von Metriken, Alarmen und Widgets für neue Anwendungen im Dashboard
· Implementierung des X-Ray Daemons als Sidecar-Container und Anleitung der Entwickler zur Instrumentierung ihrer Anwendungen mit dem JavaScript X-Ray SDK
· Erstellung der Dokumentation und Präsentation der Lösung in einer zweistündigen Vorführung beim Kunden
· Implementierung des Serverless Datalake Framework (SDLF) und Migration von 15 Datenpipelines
· Konvertierung von Tableau Prepflows zu AWS Glue Jobs unter Verwendung von PySpark
· Anforderungsanalyse zur Übersetzung der kundenspezifischen Datenflüsse in SDLF-Pipelines in Zusammenarbeit mit SDLF-Entwicklern von AWS ProServe
· Dokumentation, Testen und Erklärung jeder Datenpipeline für den Kunden
· Entwicklung einer CDK-App mit Python zur Erstellung von VPCs in neuen Umgebungen (verschiedene Regionen)
· Integration eines Transit Gateways zur Verbindung mit einer zentralen VPC in einer Quellumgebung
· Erstellung von Subnetzen und deren Zuordnung zu verschiedenen Availability Zones
· Anbindung des Transit Gateways an die VPC und Akzeptanz der Anbindung
· Einrichtung von Routen zwischen der Shared VPC und der neu erstellten VPC über das Transit Gateway
· Erstellung von Sicherheitsgruppen für DNS und VPC-Dienste
· Einrichtung von DNS-Inbound-Endpunkten und Zuordnung der VPC zu Shared-VPC-Regeln in Route 53
· Erstellung von VPC-Dienste-Endpunkten
· Hinzufügen einer SQLite-Datenbank und eines Python-Wrappers zur Verfolgung der Erstellung neuer VPCs und deren CIDR-Bereiche
· Erstellung einer Schritt-für-Schritt-Anleitung zur Nutzung der App
· Erstellung einer GitLab CI/CD-Pipeline für die Infrastruktur einer Machine Learning Anwendung mit CDK
· Automatisierung der Erstellung von Bestellungen im Kundensystem mittels SageMaker, basierend auf eingehenden Textdaten
· Implementierung der Pipeline unter Einhaltung der Sicherheitsrichtlinien des Kunden
· Nutzung von CDK Escape Hatches zur Umsetzung der Anforderungen der ML-Entwickler
· Implementierung von data.all, einem Data Marketplace und Einstiegspunkt für AWS-Services für interne Mitarbeiter
· Entwicklung von CDK-Code zur Integration neuer Funktionen, einschließlich VPC Peering, RedShift Serverless, SageMaker Studio und MLFlow
· Onboarding und Schulung neuer Ingenieure für das Projekt über ein Jahr
· Automatisierung der Erstellung von Entwicklungsumgebungen für neue Mitarbeiter
· Teamleitung in den letzten drei Monaten des Projekts
· Verwaltung des Rollouts neuer Versionen der Anwendung "Mobile Kasse," einem mobilen Backend für ein POS-System zur Lebensmittelverkäufe in Zügen
· Erstellung einer Automatisierung mit Ansible zum Backen der AMI für die EC2-Instanzen hinter einer Auto Scaling Gruppe
· Beginn der Migration von der CI/CD mit einem Ruby-Framework zu AWS CDK
· Behebung von Sicherheitsrisiken, die wöchentlich von Splunk identifiziert wurden
· Lösung von Leistungsproblemen in der RDS-Datenbank für eine optimale Systemleistung
· Monatliche Präsentation der Fortschritte beim Kunden
· 24/7 Unterstützung für die App zur Sicherstellung des optimalen Betriebs im Produktionsumfeld
· Entwicklung von Terraform-Code zur Migration eines K8s-Clusters von On-Premises zu AWS
· Erstellung von Terraform-Modulen für Amazon EKS
· Implementierung von Helm Charts für Observability mit ADOT, Chaos Mesh und Nginx Ingress Controller
· Behebung von Sicherheitsrisiken mit TFSEC
· Erstellung von einer CI/CD Strategie mit AWS CodeBuild
· Einführung einer neuen Testumgebung (Pre-Prod)
· Entwicklung eines Moduls für Oracle Kony Fabric und Verschlüsselung von RDS mit KMS
· Erstellung einer Monitoring-Lösung für EKS Fargate durch Installation des ADOT Collectors zur Aktivierung von Container Insights
· Erstellung maßgeschneiderter Dashboards für relevante CAdvisor-Metriken
· Hinzufügen der Kube State Metrics in ADOT zur Überwachung von Anwendungsproblemen
· Einrichtung von Alarmen und Zusammenführung aller Daten in einem CloudWatch-Dashboard zur Echtzeit-Überwachung der Performance und Probleme von K8s-Anwendungen
· Nutzung von Fluentbit zur tiefergehenden Analyse von Pods mit Problemen, Anzeige dieser Pods im Haupt-Dashboard
· Implementierung eines Skripts zur automatischen Erstellung von Metriken, Alarmen und Widgets für neue Anwendungen im Dashboard
· Implementierung des X-Ray Daemons als Sidecar-Container und Anleitung der Entwickler zur Instrumentierung ihrer Anwendungen mit dem JavaScript X-Ray SDK
· Erstellung der Dokumentation und Präsentation der Lösung in einer zweistündigen Vorführung beim Kunden
· Implementierung des Serverless Datalake Framework (SDLF) und Migration von 15 Datenpipelines
· Konvertierung von Tableau Prepflows zu AWS Glue Jobs unter Verwendung von PySpark
· Anforderungsanalyse zur Übersetzung der kundenspezifischen Datenflüsse in SDLF-Pipelines in Zusammenarbeit mit SDLF-Entwicklern von AWS ProServe
· Dokumentation, Testen und Erklärung jeder Datenpipeline für den Kunden
· Entwicklung einer CDK-App mit Python zur Erstellung von VPCs in neuen Umgebungen (verschiedene Regionen)
· Integration eines Transit Gateways zur Verbindung mit einer zentralen VPC in einer Quellumgebung
· Erstellung von Subnetzen und deren Zuordnung zu verschiedenen Availability Zones
· Anbindung des Transit Gateways an die VPC und Akzeptanz der Anbindung
· Einrichtung von Routen zwischen der Shared VPC und der neu erstellten VPC über das Transit Gateway
· Erstellung von Sicherheitsgruppen für DNS und VPC-Dienste
· Einrichtung von DNS-Inbound-Endpunkten und Zuordnung der VPC zu Shared-VPC-Regeln in Route 53
· Erstellung von VPC-Dienste-Endpunkten
· Hinzufügen einer SQLite-Datenbank und eines Python-Wrappers zur Verfolgung der Erstellung neuer VPCs und deren CIDR-Bereiche
· Erstellung einer Schritt-für-Schritt-Anleitung zur Nutzung der App
· Erstellung einer GitLab CI/CD-Pipeline für die Infrastruktur einer Machine Learning Anwendung mit CDK
· Automatisierung der Erstellung von Bestellungen im Kundensystem mittels SageMaker, basierend auf eingehenden Textdaten
· Implementierung der Pipeline unter Einhaltung der Sicherheitsrichtlinien des Kunden
· Nutzung von CDK Escape Hatches zur Umsetzung der Anforderungen der ML-Entwickler
· Implementierung von data.all, einem Data Marketplace und Einstiegspunkt für AWS-Services für interne Mitarbeiter
· Entwicklung von CDK-Code zur Integration neuer Funktionen, einschließlich VPC Peering, RedShift Serverless, SageMaker Studio und MLFlow
· Onboarding und Schulung neuer Ingenieure für das Projekt über ein Jahr
· Automatisierung der Erstellung von Entwicklungsumgebungen für neue Mitarbeiter
· Teamleitung in den letzten drei Monaten des Projekts
· Verwaltung des Rollouts neuer Versionen der Anwendung "Mobile Kasse," einem mobilen Backend für ein POS-System zur Lebensmittelverkäufe in Zügen
· Erstellung einer Automatisierung mit Ansible zum Backen der AMI für die EC2-Instanzen hinter einer Auto Scaling Gruppe
· Beginn der Migration von der CI/CD mit einem Ruby-Framework zu AWS CDK
· Behebung von Sicherheitsrisiken, die wöchentlich von Splunk identifiziert wurden
· Lösung von Leistungsproblemen in der RDS-Datenbank für eine optimale Systemleistung
· Monatliche Präsentation der Fortschritte beim Kunden
· 24/7 Unterstützung für die App zur Sicherstellung des optimalen Betriebs im Produktionsumfeld