Entité de rattachement
"Fnac Darty, un leader européen de la distribution omnicanal.
Acteur omnicanal et européen, spécialisé dans la distribution de produits techniques et d'électroménager, de biens culturels et de loisirs, et leader du service après-vente présent dans 13 pays, avec 1010 magasins dans le monde, 11 millions d'abonnés/adhérents et 27 millions de visiteurs uniques cumulés par mois sur nos sites marchands.
Nos 25 000 collaborateurs sont notre meilleur atout. Ils font vivre la raison d'être du Groupe au quotidien, qui consiste à « s'engager pour un choix éclairé et une consommation durable », auprès de nos clients.
Fnac Darty recrute partout en France des talents aux profils, formations et expériences très diverses, que ce soit pour ses magasins, mais aussi dans les domaines de la logistique, de la réparation et service après-vente, de la livraison, de la relation client ou encore pour ses fonctions support. Votre prochain emploi vous attend chez Fnac Darty !"
Contexte :
Au sein de la Data Factory, nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Le candidat retenu intègrera la squad dédiée au périmètre E-Commerce.
Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée.
Description de la Mission :
Analyse et Conception
Participer à l’analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux.
Utiliser l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets.
Être force de proposition sur l’amélioration de notre stack Data.
Développement et Intégration
Concevoir, développer et maintenir les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données.
Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale.
Identifier et résoudre les goulots d’étranglement et les problèmes de performances dans les flux de données.
Qualité, Maintenance et Supervision
Mettre en place des processus et des contrôles pour garantir la qualité des données.
Concevoir et mettre en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces.
Assurer la maintenance corrective ou évolutive.
S’assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe.
Documentation, Support, Pilotage
Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation).
Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO.
Faire le reporting d’avancement des travaux.
Supporter le déploiement.
Environnement Technique :
Langages/Framework : SQL, BigQuery, Python, Shell.
Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Compétences Recherchées :
De formation Informatique/Ingénieur, avec une appétence pour le développement et la manipulation de données ainsi qu’une bonne maîtrise de Python et de SQL.
Avoir une expérience au sein de l’environnement GCP avec l’utilisation des principaux services (BigQuery, Cloud Storage, DataFlow, DataForm, Pub/Sub, Composer…) est un prérequis.
Une certification serait un plus.
Une expérience avec Talend et des outils de visualisation est un plus.
Esprit Analytique : Capacité à résoudre des problèmes complexe et à optimiser les processus de traitement de données