Übersicht
Expleo bietet ein einzigartiges Angebot an integrierten Dienstleistungen in den Bereichen Engineering, Qualität und strategische Beratung für die digitale Transformation. Vor dem Hintergrund einer beispiellosen technologischen Beschleunigung sind wir der vertrauenswürdige Partner für innovative Unternehmen. Wir helfen ihnen, einen Wettbewerbsvorteil zu entwickeln und das tägliche Leben von Millionen von Menschen zu verbessern.
Zu Expleo Switzerland gehören 19.000 Mitarbeiter in 30 LändernmiteinemUmsatz von 1,5 Mrd. € im Jahr 2023, aberauch :
1. Eine technische und menschlicheBegleitungbeijedem Projekt und eineleistungsfähigeBetreuungIhrerKarrierezuhaben.
2. TeilnahmeanSchulungen, um IhreberuflichenFähigkeitenweiterzuentwickeln
3. An speziellenVeranstaltungenteilnehmen
4. Integration in eindynamisches Team
Als Teil eines interdisziplinären, agilen Teams, das die Erneuerungen im technischen Bereich vorantreibt, suchen wir in der Region Bern einen/e Senior Entwickler/Data Engineer (Tech Lead) 80%-100%.
Aufgaben
5. Entwicklung und Wartung von hochskalierbaren, robusten Datenpipelines, die große Datenmengen effizient verarbeiten.
6. Entwurf und Implementierung von ETL-Prozessen (Extract, Transform,Load) zur Datenintegration aus verschiedenen Quellen.
7. Optimierung und Pflege der bestehendenDateninfrastruktur (.Datenbanken, Datenpipelines, Cloud-Dienste) für Performance und Skalierbarkeit.
8. Implementierung von Datenqualitätschecks und Monitoring-Mechanismen zur Sicherstellung der Datenintegrität.
9. Evaluierung und EinführungneuerTechnologien, um die Dateninfrastrukturzuverbessern.
10. Steuerung und Priorisierung von Entwicklungsaufgaben in Abstimmungmitinterdisziplinären Teams (Produktmanagement, Data Science, Softwareentwicklung).
11. Dokumentation von Datenarchitektur, Prozessen und technischenEntscheidungen.
12. Coaching und Mentoring von Junior Entwicklern und Data Engineers im Team.
Qualifikationen
13. MehrjährigeErfahrung in der Softwareentwicklung, bevorzugtimBereich Data Engineering
14. Praxis in der Entwicklung von DatenpipelinesmitTechnologienwieApache Kafka, Apache Spark, Airflowoderähnlichen Tools.
15. Erfahrung in Snowflake und Python (oderverwandteTechnologien).
16. Erfahrung mit Cloud-Technologien (AWS, GCP oder Azure), insbesondere in Bezug auf Datenverarbeitung von Vorteil.
17. Fliessend Deutsch in Wort und Schrift.
Wesentliche Kompetenzen
***Dossiers von Personalagenturen werden NICHT berücksichtigt!