Groupe de conseil international spécialisé dans l'animation d'écosystèmes de consultants passionnés et engagés. Nous mène des projets de transformation organisationnelle, opérationnelle et technologique dans les domaines IT/Digital, Industrie/R&D et sustainability.
Le rôle est axé sur la conception et l'optimisation de pipelines de données robustes pour soutenir des initiatives d'analyse avancée et d'intelligence artificielle.
Responsabilités
* Conception et gestion des pipelines ETL
* Traitement des données massives avec Spark, Hadoop, Kafka
* Collaboration avec les data scientists pour la préparation des données
* Mise en place d'architectures data lake et data warehouse
Ce que nous recherchons :
* Expertise en Python, Scala ou Java pour le traitement des données
* Expérience avec Spark, Hadoop, Airflow, Kafka
* Maîtrise de bases de données SQL/NoSQL (MongoDB, Cassandra)
* Connaissances des environnements cloud (AWS Glue, GCP BigQuery)
* Vous avez 3 à 7 ans d'expérience en ingénierie de données
* Approche orientée qualité, performance et sécurité des données
Que vous offre Ekkiden
* La possibilité de travailler de façon autonome
* La possibilité de grandir ensemble
* Un parcours de carrière adapté à votre personnalité
* Une formation exigeante en continu
Processus de recrutement
Nous nous engageons à offrir une expérience positive à chaque candidat.
* Premier contact : Notre équipe de recrutement vous contactera pour discuter de vos motivations et attentes.
* Entretiens : Vous passerez un ou deux entretiens avec nos business managers, en fonction du poste pour lequel vous postulez.
* Rencontre avec le client : Enfin, vous aurez l’opportunité de rencontrer le client.