Mise en contexte :
Dans le cadre des missions de l’équipe Log Analytics, nous souhaitons une prestation d’expertise technique de RUN sur les produits de la stack Elastic (Data Architecture + OPS + Data Engineering + notions Data Analyst) ainsi que sur Kafka.
Missions principales :
- Intégration dans une équipe d’experts techniques pour maintenir en conditions opérationnelles des plateformes de données très ambitieuses
- Participation aux évolutions des plateformes, des services rendus, améliorer la fiabilité et les performances des clusters mis en place
- Accompagnement nos clients dans leurs usages, les guider dans les meilleurs usages des produits
- Force de proposition pour automatiser, industrialiser et rendre plus efficientes nos implémentations et nos interactions clients.
Profil recherché et compétences requises :
- Connaissance approfondie du fonctionnement interne des cluster Elasticsearch et Kafka impérative
- Connaissance très avancée des usages d’Elasticsearch requise: mappings, sharding, data lifecycle, requêtage type search et agrégations
- Connaissance des utilisations possibles et des bonnes pratiques (préparation des données, possibilités dans Kibana) est indispensable
- Connaissance des autres outils de la Stack : Beats, Logstash, notamment de leur configuration, des paramétrages de transformation (pipelines) est également attendue, pour aider nos clients dans leur usages et pour réaliser notre propre monitoring.
- Enfin, des connaissances connexes sont souhaitables :
- Outils de déploiement automatisés type Ansible (avec ou sans Tower), voire implémentations sous Kubernetes
- Connaissances en développement Python 3 (a minima scripting usuel, voir connaissances plus évoluées de structuration de projet de dev)
- Habitude d’environnements DevOps Agile est utile (utilisation de Jira, Confluence, recours à Git et Artifactory).
TTV : 50%