✔ Secteur d’activité du client : Grande distribution
✔ Poste occupé : Ingénieur Big Data
Un acteur majeur de la grande distribution souhaitait moderniser la gestion de ses données en optimisant les flux d’ingestion, de production et d’exposition. L’objectif était d’assurer une exploitation efficace et sécurisée des données, tout en garantissant une maintenance évolutive et corrective des flux en production.
Nos consultants ont accompagné l’entreprise dans le développement, la fiabilisation et l’optimisation des pipelines de données, en mettant en place des solutions robustes adaptées aux besoins métiers.
Déploiement et Maintenance des Flux de Données
✔ Développement et optimisation des flux d’ingestion, de production et d’exposition des données.
✔ Maintenance évolutive et corrective des pipelines en production pour garantir la fiabilité et la performance.
Qualité des Données & Documentation
✔ Rédaction et exécution des tests via Squash pour assurer l’intégrité des traitements.
✔ Création de documents d’installation (DI) et de contrats d’interface, garantissant la standardisation des flux et facilitant leur exploitation.
✔ Développement et industrialisation des jobs Talend Big Data, améliorant la fiabilité et l’automatisation des processus.
✔ Cadrage et chiffrage précis des évolutions et nouveaux projets, optimisant la gestion des priorités et des ressources.
✔ GCP (BigQuery, Google Cloud Storage)
✔ Cloudera, Oracle
✔ Talend Big Data, Jenkins, Artifactory, Git, Automator
✔ Squash (exécution des tests), rédaction des DI et contrats d’interface