Skip links

Comment nous avons mis en place un Modern Data Stack chez Mes Demoiselles Paris

Une Modern Data Stack est un ensemble de solutions qui peut aider une organisation à économiser du temps, des efforts et de l'argent. Elle est plus rapide, plus évolutive et plus accessible qu’un stack data traditionnel. Le MDS aide également une organisation à se transformer en une organisation moderne et axée sur les données, ce qui est essentiel pour créer de la croissance.

Une Modern Data Stack est un ensemble de solutions qui peut aider une organisation à économiser du temps, des efforts et de l’argent. Elle est plus rapide, plus évolutive et plus accessible qu’un stack data traditionnel. Le MDS aide également une organisation à se transformer en une organisation moderne et axée sur les données, ce qui est essentiel pour créer de la croissance.

Créée en 2006 la marque Mes Demoiselles Paris nous invite à suivre un chemin singulier, son itinéraire, sa vision unique d’une simplicité chic. En somme, un véritable luxe. En moins de quinze ans, la marque a ouvert 19 boutiques et est désormais présente dans le monde entier et dans les plus beaux grands magasins comme les Galeries Lafayette Haussmann et les Champs Élysées.

 Suite à une progression de plus en plus prononcée du business sur le site de la maison, les équipes ont entrepris de refondre le site et d’amorcer une accélération sans précédent sur le digital. Pour le coup, le besoin de pouvoir piloter l’activité digitale s’est très vite fait ressentir. Il était fondamental d’avoir une approche Data Driven pour piloter ces investissements sur le digital. C’est ainsi que nous avons été missionné pour accompagner la transformation digitale de maison avec une stratégie dont le cœur est la data. L’objectif ; créer un stack de données moderne , efficace , flexible permettant de répondre aux questions des équipes en un temps record. Ci dessous l’architecture du projet mis en place :

Les équipes étant différentes et pilotant des KPi’s propres à leurs activités , lors du cadrage du projet, il a été décidé collecter les besoins de pilotage des performances du site par équipes :  

Finance & Opérations
  • Des ventes en ligne et sur l’ensemble des boutiques , part des ventes et du CA sur le site vs les boutiques physiques ;
  • Analyser les ventes produits par tranche de prix , par collection, par type, par taille et par stock
  • Analyser les performances produits par Magasin
  • Détecter les produits à fort potentiel pour la gestion du stock
Merchandising
  • Performance produits sur le site : Affichages produit, consulation fiche produit, Tx de mise au panier
  • Performance produits par tranche de prix et par catégorie
  • Performances des bannières sur site ( Affichages , Clicks , CTR , Transactions, CA )
ECRM & Connaissance clients
  • Performance des campagnes CRM
  • Segmentation de la base client
  • Analyse des performances par type de campagnes ( Emailing Classique , Marketing Automation , Email Retargeting )
  • Customers Analytics :
    • Segmentation RFM
    • Segmentation Base client
    • Customers view 360
    • Analyse rétention client
    • Prédiction du churn
Marketing digital
  • Analyse performance du site global ( Sessions , CVR , transactions, Revenue, Nombres de clients , Visites engagées ,
  • Analyse de performance de la stratégie digitale ( Analyse des performances par leviers : visites , cvr , transactions , revenue, panier moyen )
  • Analyse du comportement utilisateur en ligne :
    • Nombre de fiches produits consultés avant achat
    • Délai d’achats ( entre la date de la première session et la date d’achat )
    • Taux de clics sur les fonctionnalités développées par les équipes UX
  • Analyse du Coût d’acquisition client au global et par Levier

Data Ingestion

Pour mettre en place toutes ces analyses et fournir tous les kpis nécessaire à un suivi régulier de la performance de l’activité de la maison, il a fallu imaginer les sources de données nécessaires pour calculer les différents KPis et les mécanismes à mettre en place pour pouvoir automatiser au maximum le calcul de ces KPIs quotidiennement : 

  • Google Analytics & Google Analytics 4 : Pour la mesure d’audience et la collecte de données comportementales sur le site
  • Fastmag : Logiciel de caisse dans lequel toutes les données de vente de tout le réseau (site web + Magasins ). Les données clients ( id, nom, prénom , etc) et les infos de stock produits dans tout le réseau.
  • Google Ads et Facebook pour l’analyse des performances des campagnes et le ROI
  • Prestashop : Pour les données du site web uniquement ( produits, commandes, clients, retours , etc)

Le challenge est de faire descendre toutes les données des différentes listes précédemment au sein d’un même environnement ; le Data Warehouse, en l’occurrence BigQuery. C’est la première phase de l’implémentation d’un Socle de donnée Moderne chez Mes Demoiselles Paris. Plusieurs outils d’ingestion de données existent sur le marché ; Airbyte , Rivery sont les outils utilisés chez MesDemoiselles Paris pour ingérer les données App pour stockage dans le Data Warehouse BigQuery. Concernant les données FastMag il a fallu créer un script en python pour extraire les données de vente et les stocks produits. 

Data Transformation

Maintenant que les données sont disponibles dans BigQuery, la prochaine étape est d’imaginer tout un processus qui permettra de consolider les données de ces différentes sources pour construire des tables de données dédiées à l’analyse et au reporting. Il faut dans un premier temps avoir une idée des colonnes ou variables que nous pouvons consolider dans ces tables. Ci-dessous pour chaque rapport de suivi les variables nécessaires pour calculer les KPis de pilotage de l’activité : 

La table “Global Performance” va permettre de calculer :

  • Le ROI global Eshop
  • Le CAC global Eshop
  • Le CAC nouveaux clients
  • Le Cost of Sales (COS)
  • Le Cost Per Session (CPS)
  • Le Cost Per Transaction

La table “Product Performance” va permettre :

  • d’identifier les produits Top et Flop
  • de segmenter les produits
  • d’anticiper les réassorts sur une ligne de produit
  • d’analyser l’écoulement des produits

La table “Marketing Performance” va permettre de calculer pour chaque levier activé :

  • Le ROI
  • Le CAC global par levier
  • Le CAC nouveaux clients par levier
  • Le CPS par levier
  • Le COS par levier

Le challenge va être de créer une flux qui va alimenter ces tables et mettre à jour les données quotidiennement afin de permettre aux équipes d’avoir tous les jours les données à J-1 : c’est là qu’intervient DBT (Data Build Tool).

DBT va permettre de créer des flux de transformation et de consolidation des données disponibles dans BigQuery . L’outil propose une fonctionnalité de scheduling afin de programmer l’exécution des flux et la mise à jour des tables quotidiennement. DBT de par ses fonctionnalités va être un élément central de ce Data Stack. 

Data Visualisation

Les tables en sortie de la phase de transformation sont soit directement branchées à Google Data Studio ou mises à disposition des Data Consumers (Data Analyst, Business Analyst , Data Scientist). Ceux-ci pourront lancer les analyses demandées aux équipes . Par ailleurs , la plupart des outils de visualisation du marché (Google Data Studio, Tableau Software, etc) ont un connecteur natif BigQuery.

Data Analyse / Data Science

Avec les données en sortie de DBT, les équipes Data peuvent lancer plusieurs analyses / modèles. Chez Mes Demoiselles Paris, il a été mis en place des modèles de machine learning basique suivants :

  • Un modèle de prédiction / projection du chiffre d’affaire et des visites sur le site
  • Un modèle de segmentation de la base client pour du marketing prédictif
  • Un modèle de segmentation de la base produit pour détecter les produits à fort potentiel
  • Un modèle prédictif de gestion des stocks notamment des tailles des articles

Data Activation

Mes Demoiselles Paris a opté pour un outil de reverse ETL pour activer sa donnée First Party. En effet, sur la base d’une table Customer 360 consolidée via DBT , il est possible d’activer la donnée client First Party directement dans Adwords, Facebook ou encore Criteo. Pour faire simple, en quelques minutes, il est possible de créer et d’alimenter une audience dans Adwords, Facebook ou Criteo. Par exemple, retoucher les clients n’ayant pas fait de commandes depuis 180 jours ou encore cibler tous les clients ayant acheté une robe pour faire de l’upsell sur un produit complémentaire. 

Ce processus permet de mettre en place des processus de Marketing automation basés sur la donnée First Party dont la mise en place est facilitée par les briques du Modern Data Stack déployé précédemment. Les campagnes Anti-Churn, fidélisation client , la personnalisation des annonces sur Facebook et Google permettent de faire revenir la clientèle et de générer plus de revenus pour la Maison.

La mise en place de ce Modern Data Stack a permis :

  • De consolider et d’exploiter le plein potentiel de l’ensemble des données de la maison Mes Demoiselles Paris
  • D’activer les données First Party en quelques jours sur Facebook , Adwords et Criteo
  • De mettre en place les bases du Marketing Prédictif au sein de l’entreprise
  • Une meilleure gestion des stocks et du Merchandising
  • De réduire la rétention client 
  • De générer du Chiffre d’Affaire additionnel

Leave a comment

Explore
Drag