Als Teil eines DevOps-Teams verantwortest du die Entwicklung und Pflege einer AWS-basierten Dateninfrastruktur und Pipelines.
Du entwirfst, implementierst und optimierst Spark ETL, um eine effiziente Datenverarbeitung sicherzustellen und unterstützt langfristig die schrittweise Operationalisierung von Machine Learning-Modellen.
Du arbeitest eng mit Daten Owner:innen und Daten Analyst:innen zusammen, um robuste und zuverlässige Datenpipelines zu entwickeln und zu pflegen.
Du analysierst Anforderungen, gestaltest Datenprodukte und setzt diese in unserem Big Data Stack um.
Durch Automatisierungen von Prozessen sorgst du für einen reibungslosen Betrieb und verbesserst kontinuierlich unser Entwicklungs-Stack.
In enger Zusammenarbeit mit Business-Stakeholder:innen und dem Architekturteam richtest du technische Lösungen gezielt an die Geschäftsbedürfnisse aus.
Minimum Requirements:
1. Hochschulabschluss in Informatik oder gleichwertige Berufserfahrung.
2. Ausgeprägtes Fachwissen in der Datenverarbeitung mit Apache Spark, SQL und Python.
3. Erfahrung mit Software-Entwicklung (Scala, Java) und AWS Analytics Services (Glue, SageMaker, Athena, Lambda, Batch) ist ideal.
4. Interesse an CI/CD, Infrastructure-as-Code (Terraform) und DevOps Best Practices.
5. Agiles Arbeiten und ein Growth Mindset.
6. Gute mündliche und schriftliche Kommunikation in Deutsch und gute Englischkenntnisse.
#J-18808-Ljbffr