Beschreibung
Als Teil eines DevOps-Teams verantwortest du die Entwicklung und Pflege einer AWS-basierten Dateninfrastruktur und Pipelines.
Du entwirfst, implementierst und optimierst Spark ETL, um eine effiziente Datenverarbeitung sicherzustellen und unterstützt langfristig die schrittweise Operationalisierung von Machine Learning-Modellen.
Du arbeitest eng mit Daten Owner:innen und Daten Analyst:innen zusammen, um robuste und zuverlässige Datenpipelines zu entwickeln und zu pflegen.
Du analysierst Anforderungen, gestaltest Datenprodukte und setzt diese in unserem Big Data Stack um.
Durch Automatisierungen von Prozessen sorgst du für einen reibungslosen Betrieb und verbesserst kontinuierlich unser Entwicklungs-Stack.
In enger Zusammenarbeit mit Business-Stakeholder:innen und dem Architekturteam richtest du technische Lösungen gezielt an die Geschäftsbedürfnisse aus.
Anforderungen
* Für diese Rolle verfügst du über einen Hochschulabschluss in Informatik oder eine gleichwertige Berufserfahrung sowie über ein ausgeprägtes Fachwissen in der Datenverarbeitung mit Apache Spark, SQL und Python.
* Idealerweise bringst du Erfahrung mit Software-Entwicklung (Scala, Java) und AWS Analytics Services (Glue, SageMaker, Athena, Lambda, Batch) mit.
* Du interessierst dich für CI/CD, Infrastructure-as-Code (Terraform) und DevOps Best Practices.
* Agiles Arbeiten liegt dir, und du bringst ein Growth Mindset mit.
* Du kommunizierst mündlich und schriftlich gut in Deutsch und verfügst über gute Englischkenntnisse.
Vorteile
* 6 Wochen Ferien
* Elternzeit
* Personalgutscheine
* Workation (IT)