Die Mediapulse AG erhebt als unabhängige Forschungsorganisation Daten zur Nutzung von Radio-, TV- und Onlineangeboten in der Schweiz. Diese Nutzungsdaten dienen einerseits den Medienanbietern zur quantitativen und qualitativen Beurteilung und Weiterentwicklung ihrer Produkte und Inhalte. Andererseits werden sie von der Werbewirtschaft verwendet zur Planung von Werbekampagnen und zur Quantifizierung der Leistung von Werbeumfeldern in den elektronischen Medien.
Mediapulse steht für Neutralität, Unabhängigkeit, Transparenz und Wissenschaftlichkeit. Als praxisnahes Unternehmen wollen wir mit innovativen Forschungsdienstleistungen und Datenprodukten den elektronischen Medien- und Werbemarkt Schweiz vorwärtsbringen.
Der Data-Bereich ist innerhalb der Mediapulse verantwortlich für Aufbau, Betrieb, Pflege und Weiterentwicklung von hausinternen Datenverarbeitungsketten im Forschungszusammenhang. Zur Verstärkung des DevOps-Teams suchen wir per sofort oder nach Vereinbarung eine/n Jr. Data Engineer, 60-80%.
Der/die Data Engineer hat die operative Verantwortung für verschiedene Daten-Wertschöpfungsketten innerhalb der Mediapulse. Dies umfasst den Datenbezug bei externen Dienstleistern, die Speicherung, die Aufbereitung für Kundenapplikationen, das Berechnen statistischer Modelle, um die bestehenden Daten anzureichern, sowie die Auslieferung der Daten an die Kunden. Er/sie optimiert bestehende Systeme, entwickelt in Zusammenarbeit mit dem Forschungsbereich im DevOps-Team neue Lösungen und optimiert resp. erweitert bestehende Verarbeitungsketten. Ferner entwickelt der/die Data Engineer Visualisierungen, um Validität & Konsistenz bezogener und ausgelieferter Daten und Lieferprozesse im Blick zu behalten.
Aufgabenfelder
Datenlieferungen
* Management der Daten-Lieferketten (Datenbezug, Speicherung, Aufbereitung und Auslieferung)
* Weiterentwicklung der Programmcodes in Python (mit dem Forschungsbereich und DevOps-Team)
* Konzeptionierung, Entwicklung & Integration von automatisierten Datenpipelines bei Projekten
* Automatisierungsüberwachung mittels Airflow (inkl. Fehlerbehebungen & Daten-Nachproduktionen)
* Refactoring und Optimierung von bestehenden Daten-Pipelines
* Verwaltung der eingesetzten Infrastruktur (Azure, Kubernetes) und DevOps-Tool-Chain
Datenvisualisierung
* Bereitstellen bzw. Entwickeln von Reportings für Kundendaten mittels Tableau
* Bereitstellen/Entwickeln von ETL-Prozessen & Visualisierungen interner Daten zu Monitoring-Zwecken
* Aktive Mitarbeit in Projekten und Unterstützung bei Fragestellungen rund um Datenbezug, Aufbereitung und Auslieferung
* Entwicklung von Code-Scripts für Adhoc-Analysen, Modellierung und Problembehandlung.
Unser Wunsch-Profil
* Höhere Ausbildung im Informatik-Bereich (FH/HF, eidg. Diplom o.ä.)
* Profunde Kenntnisse in Technologien und Programmiersprachen wie Docker, Git, Apache Airflow, Python, SQL, etc.
* Kenntnisse im Bereich Statistik und Data Science von Vorteil
* Selbständiges Arbeiten und unternehmerisches Denken
* Begeisterndes und offenes Auftreten, echter Teamplayer
* Sehr gute Sprachkenntnisse in Deutsch und mindestens einer der Sprachen Französisch oder Englisch
Wir bieten
* Eine spannende Herausforderung mit grossen Gestaltungsmöglichkeiten in einem überschaubaren Schweizer Medienunternehmen, welches am Markt bestens vernetzt ist
* Gelegenheit, bei der (Weiter-)Entwicklung von Produkten & Komponenten an vorderster Front mitzutun
* Kontinuierliche fachliche Weiterbildung
* Moderne und flexible Anstellungsbedingungen
Arbeitsort ist Bern (bevorzugt) oder Zürich.
Markus Gubler, Head of Data, erteilt Ihnen gerne weitere Auskünfte unter +41 58 356 47 15 oder via Mail (siehe Website).
Ihr vollständiges Bewerbungsdossier senden Sie uns bitte elektronisch an Manuel Gasser (Head of Services).
#J-18808-Ljbffr