Übersicht
Expleo bietet ein einzigartiges Angebot an integrierten Dienstleistungen in den Bereichen Engineering, Qualität und strategische Beratung für die digitale Transformation. Vor dem Hintergrund einer beispiellosen technologischen Beschleunigung sind wir der vertrauenswürdige Partner für innovative Unternehmen. Wir helfen ihnen, einen Wettbewerbsvorteil zu entwickeln und das tägliche Leben von Millionen von Menschen zu verbessern.
Zu Expleo Switzerland gehören 19.000 Mitarbeiter in 30 Ländern mit einem Umsatz von 1,5 Mrd. € im Jahr 2023, aber auch:
Eine technische und menschliche Begleitung bei jedem Projekt und eine leistungsfähige Betreuung Ihrer Karriere zu haben.
Teilnahme an Schulungen, um Ihre beruflichen Fähigkeiten weiterzuentwickeln.
An speziellen Veranstaltungen teilnehmen.
Integration in ein dynamisches Team.
Als Teil eines interdisziplinären, agilen Teams, das die Erneuerungen im technischen Bereich vorantreibt, suchen wir in der Region Bern einen/e Senior Entwickler/Data Engineer (Tech Lead) 80%-100% .
Aufgaben
Entwicklung und Wartung von hochskalierbaren, robusten Datenpipelines, die große Datenmengen effizient verarbeiten.
Entwurf und Implementierung von ETL-Prozessen (Extract, Transform, Load) zur Datenintegration aus verschiedenen Quellen.
Optimierung und Pflege der bestehenden Dateninfrastruktur (Datenbanken, Datenpipelines, Cloud-Dienste) für Performance und Skalierbarkeit.
Implementierung von Datenqualitätschecks und Monitoring-Mechanismen zur Sicherstellung der Datenintegrität.
Evaluierung und Einführung neuer Technologien, um die Dateninfrastruktur zu verbessern.
Steuerung und Priorisierung von Entwicklungsaufgaben in Abstimmung mit interdisziplinären Teams (Produktmanagement, Data Science, Softwareentwicklung).
Dokumentation von Datenarchitektur, Prozessen und technischen Entscheidungen.
Coaching und Mentoring von Junior Entwicklern und Data Engineers im Team.
Minimum Anforderungen
Mehrjährige Erfahrung in der Softwareentwicklung, bevorzugt im Bereich Data Engineering.
Praxis in der Entwicklung von Datenpipelines mit Technologien wie Apache Kafka, Apache Spark, Airflow oder ähnlichen Tools.
Erfahrung in Snowflake und Python (oder verwandte Technologien).
Erfahrung mit Cloud-Technologien (AWS, GCP oder Azure), insbesondere in Bezug auf Datenverarbeitung von Vorteil.
Fließend Deutsch in Wort und Schrift.
Wesentliche Kompetenzen
***Dossiers von Personalagenturen werden NICHT berücksichtigt!
#J-18808-Ljbffr