Rôle
En tant que membre d'une équipe DevOps, vous êtes responsable du développement et de la gestion d'une infrastructure de données et de pipelines basés sur AWS.
* Vos responsabilités incluent la conception, l'implémentation et l'optimisation de Spark ETL pour garantir un traitement efficace des données;
* Vous soutenez le déploiement opérationnel progressif des modèles d'apprentissage automatique à long terme;
* Vous travaillez en étroite collaboration avec les propriétaires de données et les analystes de données afin de développer et de gérer des pipelines de données robustes et fiables;
* Vous analysez les exigences, conçez des produits de données et les mettez en œuvre dans notre pile Big Data;
* Afin d'automatiser les processus, vous veillez à un fonctionnement sans faille et améliorez constamment notre pile de développement;
* En étroite collaboration avec les parties prenantes du business et l'équipe d'architecture, vous orientez les solutions techniques vers les besoins commerciaux de manière ciblée.
Compétences requises
* Pour ce rôle, vous devez avoir un diplôme d'études supérieures en informatique ou une expérience professionnelle équivalente, ainsi qu'une solide expertise dans le traitement des données avec Apache Spark, SQL et Python;
* Idéalement, vous avez de l'expérience dans le développement de logiciels (Scala, Java) et dans les services AWS Analytics (Glue, SageMaker, Athena, Lambda, Batch);
* Vous vous intéressez au CI/CD, à l'infrastructure-as-code (Terraform) et aux bonnes pratiques DevOps;
* Le travail agile vous tient à cœur et vous avez un mindset de croissance;
* Vous avez de bonnes connaissances en français, à l'oral comme à l'écrit, et de bonnes connaissances en anglais;
Fonctionnalités et avantages
* 6 semaines de vacances;
* Congé parental;
* Travail mobile et flexible;
* Conditions d'engagement;
* Abonnement demi-tarif ou participation à l'AG;
* Encouragement aux formations et perfectionnements;
* Bons pour le personnel.