Assainir, fiabiliser et croiser des données issues de différentes sources (site WordPress, ERP, outils d’analyse de trafic) afin de détecter les anomalies de gestion et améliorer le pilotage de l’activité e-commerce.
Le projet a démarré par une phase de diagnostic des différentes sources de données : extractions CSV depuis WordPress (commandes, produits, utilisateurs), données ERP complémentaires et données d’audience. Un premier travail d’exploration a permis d’identifier des doublons, incohérences et valeurs manquantes.
Les jeux de données ont été nettoyés et enrichis afin d’uniformiser les informations produit et client. Un travail spécifique a été mené sur les statuts de commande pour isoler les ventes effectives. Des jointures ont ensuite été réalisées pour croiser les informations et construire une base d’analyse unique.
Une analyse statistique et visuelle a permis de mettre en évidence des points de friction dans le tunnel de conversion, d’identifier les produits générant le plus de retours et d’observer des différences significatives selon les canaux de commande.
Des recommandations ont été formulées pour améliorer les processus de gestion commerciale et la qualité des données.
Nettoyage et préparation de données
Requêtes, jointures et restructuration des datasets
Analyse des ventes et des statuts de commande
Analyse exploratoire et détection d’anomalies
Visualisation des données (matplotlib, seaborn)