Aufgaben: Architektur-Design: Pflege der Dateninfrastruktur (Lakehouse/ Data Warehouse One Source), um strukturierte und unstrukturierte Daten optimal zu speichern, zugänglich zu machen und für Analysen vorzubereiten. Datenmodellierung: Entwicklung von Datenmodellen, die sicherstellen, dass Daten effizient strukturiert, integriert und für Berichte, Analysen und Machine Learning bereitgestellt werden. Datenintegration: Implementierung von ETL/ELT-Prozessen (Extract, Transform, Load), um Daten aus verschiedenen Quellen zu sammeln und in das zentrale System zu integrieren. Performance-Optimierung: Sicherstellen, dass die Datenplattform für Abfragen und Datenverarbeitungsprozesse performant bleibt, indem Indizes, Partitionierung, und geeignete Speicherformate genutzt werden. Datenqualität & Governance: Implementierung von Richtlinien zur Datenqualität, Sicherheit und Compliance, sowie Sicherstellen der Einhaltung von Standards und Best Practices. Zusammenarbeit mit Stakeholdern: Enge Zusammenarbeit mit Datenanalysten, Data Engineers und Business-Teams, um deren Anforderungen zu verstehen und entsprechende Datenlösungen zu entwickeln. Minimum Anforderungen: Erfolgreich abgeschlossenes Hochschulstudium im Bereich (Wirtschafts-)Informatik oder Statistik wünschenswert. Mindestens erste Berufserfahrung in einer vergleichbaren Position. Gute Englischkenntnisse. Wir bieten: Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen. Hohes Maß an Eigenverantwortung.
#J-18808-Ljbffr