Contexte:

Notre client entend réussir sa transformation digitale pour répondre aux attentes des consommateurs et rester la référence mondiale dans son secteur. La Direction des Systèmes d’Information est en constante évolution pour être un acteur majeur de cette transformation.

Le Data Services Center a ainsi été créé dans cette optique : spécialisé dans la conception et la mise en œuvre de solutions technologiques variées (architectures Big Data, Cloud…), il accompagne les métiers du marketing, de la recherche et de l’industrie sur de nombreux projets Data.

Dans le cadre d’un projet de mise en place d’un datalake pour le E-commerce, nous recherchons un Data Engineer Confirmé.

Il ou elle aura pour mission la collecte de données via API depuis les bases de nos clients (exemple connexion au portail de données AMAZON) et leur transformation avec Spark sur S3 (Cloud AWS).

Activités du Data Engineer:

– Conception de solutions permettant le traitement de volumes importants de données pour la mise en d’un datalake ;
– Proposer des architectures et solutions technologiques permettant de répondre aux besoins métiers ;
– Mettre en œuvre la collecte des données produites par des sources multiples (produits connectés, applications mobiles, sites web, CRM, DMP, machines de production…) et le traitement (structurées et semi-structurées) dans un Data Lake ;
– Concevoir les modèles de données les plus pertinents ;
– Industrialiser les solutions grâce aux outils Devops ;
– Mise à jour permanente sur les technologies et langages utilisés dans le but de partager vos connaissances et aider à l’avancement du projet ;
– Assurer la veille technologique dans votre domaine d’expertise et être force de proposition ;
– Interagir avec nos experts Data Science, DataViz, nos Chefs de Projet et partenaires métiers.

 

Critères requis:

De formation supérieure en informatique type école d’ingénieur, doctorat, ou équivalent, vous justifiez d’une expérience similaire de plus de 2 ans dans ce type d’environnement.

 

Compétences souhaitées :
• Maitrise de Spark (Scala), SQL, Java
• Outils DevOps et déploiement automatisé : Jenkins, Ansible, Cloudformation, GitHub…
• Outils Data AWS seraient un + : Glue, Fargate, Stepfunctions…
• Maitrise de l’anglais obligatoire