DevOps-Entwickler/in
Bist du eine Person, die sich für Data Engineering und Machine Learning begeistert? Dann wollen wir dich!
Überblick:
* Zu unseren Aufgaben gehören die Entwicklung und Pflege einer AWS-basierten Dateninfrastruktur und Pipelines.
* Wir implementieren Spark ETL, um eine effiziente Datenverarbeitung sicherzustellen und unterstützen langfristig die schrittweise Operationalisierung von Machine Learning-Modellen.
* Durch enge Zusammenarbeit mit Daten Owner:innen und Daten Analyst:innen entwickeln und pflegen wir robuste und zuverlässige Datenpipelines.
* Wir analysieren Anforderungen, gestalten Datenprodukte und setzen diese in unserem Big Data Stack um.
* Durch Automatisierungen von Prozessen sorgen wir für einen reibungslosen Betrieb und verbessern kontinuierlich unser Entwicklungs-Stack.
Herausforderungen:
* Ideen und Visionen für unsere Datenpipelines und -analysen entwickeln.
* Kommunikation und Koordination mit Teammitgliedern, Geschäftspartnern und Stakeholdern.
* Aktive Einbindung in agile Methodologien und die Integration neuer Technologien.
Anforderungen:
* Ein Hochschulabschluss in Informatik oder eine gleichwertige Berufserfahrung.
* Eine ausgeprägte Fachkenntnis in der Datenverarbeitung mit Apache Spark, SQL und Python.
* Ideealerweise Erfahrung mit Software-Entwicklung (Scala, Java) und AWS Analytics Services (Glue, SageMaker, Athena, Lambda, Batch).
* Kennenzuschauer an CI/CD, Infrastructure-as-Code (Terraform) und DevOps Best Practices.
* Agiles Arbeiten liegt dir am Herzen und du bringst ein Growth Mindset mit.
Vorteile:
* 6 Wochen Ferien
* Elternzeit
* Persönliche Gutscheine
* Workation (IT)
Wer sind wir?
Wir sind ein dynamisches Unternehmen, das auf die Zukunft vorbereitet ist. Wir suchen Menschen, die Flexibilität, Selbstständigkeit und den Wunsch nach Veränderung besitzen.
Schreib uns deine Bewerbung! Wir freuen uns darauf, dich kennenzulernen!