* En tant que membre d'une équipeDevOps, tu es responsable du développement et de la gestiond'une infrastructure de données et de pipelines basés surAWS.
* Tu conçois, implémentes et optimises SparkETL pour garantir un traitement efficace des données et tu soutiensle déploiement opérationnel progressif des modèlesd'apprentissage automatique sur le longterme.
* Tu travailles en étroite collaborationavec les data owners et les data analysts afin de développer et degérer des pipelines de données robustes etfiables.
* Tu analyses les exigences, tu conçoisdes produits de données et tu les mets en œuvre dans notre Big DataStack.
* Grâce à l'automatisation desprocessus, tu veilles à un fonctionnement sans faille et tuaméliores sans cesse notre pile dedéveloppement.
* En étroite collaboration avecles parties prenantes du Business et l'équiped'architecture, tu orientes les solutions techniques demanière ciblée vers les besoinscommerciaux.
* Pour ce rôle, tu es au bénéficed'un diplôme d'études supérieures en informatiqueou d'une expérience professionnelle équivalente. Tudisposes par ailleurs d'une solide expertise dans letraitement des données avec Apache Shark, SQL etPython.
* Idéalement, tu as del'expérience dans le développement de logiciels (Scala,Java) et dans les services AWS Analytics (Glue, SageMaker, Athena,Lambda, Batch).
* Tu t'intéresses auCI/CD, à l'infrastructure-as-code (Terraform) et aux bonnespratiques DevOps.
* Le travail agile te tient àcœur et tu as un growth mindset.
* Tu as debonnes connaissances en français, à l'oral comme àl'écrit, et de bonnes connaissances enanglais.
* 6 semaines devacances
* Congéparental
* Travail mobile etflexible
* Conditionsd'engagement
* Abonnement demi-tarif ouparticipation à l'AG
* Encouragement auxformations et perfectionnements
* Bons pour lepersonnel