* Als Teil eines DevOps-Teamsverantwortest du die Entwicklung und Pflege einer AWS-basiertenDateninfrastruktur und Pipelines.
* Duentwirfst, implementierst und optimierst Spark ETL, um eineeffiziente Datenverarbeitung sicherzustellen und unterstütztlangfristig die schrittweise Operationalisierung von MachineLearning-Modellen.
* Du arbeitest eng mitDaten Owner:innen und Daten Analyst:innen zusammen, um robuste undzuverlässige Datenpipelines zu entwickeln und zupflegen.
* Du analysierstAnforderungen, gestaltest Datenprodukte und setzt diese in unseremBig Data Stack um.
* DurchAutomatisierungen von Prozessen sorgst du für einen reibungslosenBetrieb und verbesserst kontinuierlich unserEntwicklungs-Stack.
* In engerZusammenarbeit mit Business-Stakeholder:innen und demArchitekturteam richtest du technische Lösungen gezielt an dieGeschäftsbedürfnisse aus.
* Für diese Rolle verfügst du übereinen Hochschulabschluss in Informatik oder eine gleichwertigeBerufserfahrung sowie über ein ausgeprägtes Fachwissen in derDatenverarbeitung mit Apache Spark, SQL undPython.
* Idealerweise bringst du Erfahrungmit Software-Entwicklung (Scala, Java) und AWS Analytics Services(Glue, SageMaker, Athena, Lambda, Batch)mit.
* Du interessierst dich für CI/CD,Infrastructure-as-Code (Terraform) und DevOps BestPractices.
* Agiles Arbeiten liegt dir, unddu bringst ein Growth Mindset mit.
* Dukommunizierst mündlich und schriftlich gut in Deutsch und verfügstüber guteEnglischkenntnisse.
* 6 WochenFerien
* Elternzeit
* Personalgutscheine
* Workation(IT)