Mise en contexte :

Dans le cadre des missions de l’équipe Log Analytics, nous souhaitons une prestation d’expertise technique de RUN sur les produits de la stack Elastic (Data Architecture + OPS + Data Engineering + notions Data Analyst) ainsi que sur Kafka.

 

Missions principales :

  • Intégration dans une équipe d’experts techniques pour maintenir en conditions opérationnelles des plateformes de données très ambitieuses
  • Participation aux évolutions des plateformes, des services rendus, améliorer la fiabilité et les performances des clusters mis en place
  • Accompagnement nos clients dans leurs usages, les guider dans les meilleurs usages des produits
  • Force de proposition pour automatiser, industrialiser et rendre plus efficientes nos implémentations et nos interactions clients.

 

Profil recherché et compétences requises :

  • Connaissance approfondie du fonctionnement interne des cluster Elasticsearch et Kafka impérative
  • Connaissance très avancée des usages d’Elasticsearch requise: mappings, sharding, data lifecycle, requêtage type search et agrégations
  • Connaissance des utilisations possibles et des bonnes pratiques (préparation des données, possibilités dans Kibana) est indispensable
  • Connaissance des autres outils de la Stack : Beats, Logstash, notamment de leur configuration, des paramétrages de transformation (pipelines) est également attendue, pour aider nos clients dans leur usages et pour réaliser notre propre monitoring.
  • Enfin, des connaissances connexes sont souhaitables :
    • Outils de déploiement automatisés type Ansible (avec ou sans Tower), voire implémentations sous Kubernetes
    • Connaissances en développement Python 3 (a minima scripting usuel, voir connaissances plus évoluées de structuration de projet de dev)
    • Habitude d’environnements DevOps Agile est utile (utilisation de Jira, Confluence, recours à Git et Artifactory).

 

TTV : 50%

 

Postulez ici !