Jobbeschreibung
Als Teil eines DevOps-Teams bist du für die Entwicklung und Pflege einer AWS-basierten Dateninfrastruktur und Pipelines verantwortlich.
Aufgaben
* Du entwickelst, implementierst und optimierst Spark ETL, um eine effiziente Datenverarbeitung sicherzustellen und unterstützt langfristig die schrittweise Operationalisierung von Machine Learning-Modellen.
* Du arbeitest eng mit Daten Owner:innen und Daten Analyst:innen zusammen, um robuste und zuverlässige Datenpipelines zu entwickeln und zu pflegen.
* Du analysierst Anforderungen, gestaltest Datenprodukte und setzt diese in unserem Big Data Stack um.
* Durch Automatisierungen von Prozessen sorgst du für einen reibungslosen Betrieb und verbesserst kontinuierlich unser Entwicklungs-Stack.
* In enger Zusammenarbeit mit Business-Stakeholder:innen und dem Architekturteam richtest du technische Lösungen gezielt an die Geschäftsbedürfnisse aus.
Anforderungen
* Für diese Rolle verfügst du über einen Hochschulabschluss in Informatik oder eine gleichwertige Berufserfahrung sowie über ein ausgeprägtes Fachwissen in der Datenverarbeitung mit Apache Spark, SQL und Python.
* Ideal wäre Erfahrung mit Software-Entwicklung (Scala, Java) und AWS Analytics Services (Glue, SageMaker, Athena, Lambda, Batch).
* Du interessierst dich für CI/CD, Infrastructure-as-Code (Terraform) und DevOps Best Practices.
* Agiles Arbeiten liegt dir, und du bringst ein Growth Mindset mit.
* Du kommunizierst mündlich und schriftlich gut in Deutsch und verfügst über gute Englischkenntnisse.
Vorteile
* 6 Wochen Ferien
* Elternzeit
* Personalgutscheine
* Workation (IT)