Aufgaben:Architektur-Design: Pflege der Dateninfrastruktur (Lakehouse/ Data Warehouse OneSource), um strukturierte und unstrukturierte Daten optimal zu speichern, zugänglich zu machen und für Analysen vorzubereiten.Datenmodellierung: Entwicklung von Datenmodellen, die sicherstellen, dass Daten effizient strukturiert, integriert und für Berichte, Analysen und Machine Learning bereitgestellt werden.Datenintegration: Implementierung von ETL/ELT-Prozessen (Extract, Transform, Load), um Daten aus verschiedenen Quellen zu sammeln und in das zentrale System zu integrieren.Performance-Optimierung: Sicherstellen, dass die Datenplattform für Abfragen und Datenverarbeitungsprozesse performant bleibt, indem Indizes, Partitionierung, und geeignete Speicherformate genutzt werden.Datenqualität & Governance: Implementierung von Richtlinien zur Datenqualität, Sicherheit und Compliance, sowie Sicherstellen der Einhaltung von Standards und Best Practices.Zusammenarbeit mit Stakeholdern: Enge Zusammenarbeit mit Datenanalysten, Data Engineers und Business-Teams, um deren Anforderungen zu verstehen und entsprechende Datenlösungen zu entwickeln.Minimum Anforderungen:Erfolgreich abgeschlossenes Hochschulstudium im Bereich (Wirtschafts-)Informatik oder Statistik wünschenswert.Mindestens erste Berufserfahrung in einer vergleichbaren Position.Gute Englischkenntnisse.Wir bieten:Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen.Hohes Maß an Eigenverantwortung. #J-18808-Ljbffr