Le machine learning et l’intelligence artificielle au service de la performance des réseaux de vente
L’IA on en parle, mais en général, c’est assez théorique ! Dans cet article, nous passons à la pratique en vous donnant des exemples concrets. Vous verrez que le machine learning a des applications très concrètes dans le Retail.
1. Le machine learning, c’est quoi ?
Le ML est une branche statistique de l’intelligence artificielle. En français, on dit « apprentissage automatique ». Sous couvert de nouveauté, les principes utilisés sont très anciens puisqu’il date des années 30 avec les travaux de Turing. Mais l’arrivée du big data a conduit à généraliser leur utilisation dans la dernière décennie. Concrètement, la mise à disposition de données en nombre (données de gestion, d’abonnement, carte de fidélités, …) structurées et utilisables en tant que cadre d’apprentissage permet de créer des modèles de simulation robustes et fiables.
2. Pourquoi cet engouement pour l’intelligence artificielle ?
Le commerce physique est devenu une activité à risque. Il est donc logique de vouloir mesurer et anticiper ces risques. Aujourd’hui, l’instinct de l’expert du commerce ou la vision de l’architecte gourou ne suffit pas à convaincre le top management des enseignes ni leurs partenaires. Il fait des preuves et des chiffres.
En la matière l’IA et le machine learning sont très forts ! Parce qu’ils savent identifier, dimensionner et hiérarchiser les indicateurs corrélés à la performance commerciale. Et c’est ce que recherchent nos clients. Ils ont besoin de mesures statistiquement fiables qui permettent d’objectiver leurs intuitions et de convaincre leur partenaires comme leurs collaborateurs.
3. Comment ça marche ?
Il y a 2 phases dans le machine learning : l’apprentissage, qui conduit à la constitution d’algorithmes de classification ou de prédiction, puis la production ou l’on met en œuvre les algorithme sur de nouveaux jeux de données. A l’agence, nos data-scientists utilisent ou créent des algorithmes dans les cas suivants :
La classification, utilisée notamment pour :
- Créer des groupes de magasins homogènes / hétérogènes et mettre en place des dispositifs clientèles quali/quanti statistiquement robustes et cohérents avec les concepts et territoires
- Identifier les indicateurs et les seuils de valeurs qui segmentent la fréquentation, la performance commerciale ou la fidélité (taille de ville, type de localisation, taille de centre commercial, type de concurrence, …)
La modélisation prédictive utilisée notamment pour :
- Évaluer les niveaux de pénétration/fréquence/panier d’une cible sur les quartiers d’une zone de chalandise
- Évaluer le CA total ou par rayons d’un nouveau magasin en fonction du concept implanté, de sa localisation, du niveau et du type de concurrence locale, du profil de la zone de chalandise
Notre production se fait essentiellement sous SAS avec des algorithmes comme le KNN, le clustering, les arbres de décisions, l’analyse discriminante et différents types de régression (linéaires, log-linéaires, logistiques, …). L’arsenal est assez important et il dépend essentiellement des données à disposition. La plupart du temps, nous combinons celles que nous produisons à celles de nos clients organisées en datamarts analytiques.
Nos cas clients en lien avec cet article
Depuis 5 ans, nous avons développer plusieurs lignes de traitement et de process analytiques. Ces algorithmes sont utilisés dans plus de 50% de nos projets clients. Vous pouvez consultez en ligne des cas clients ou ces techniques ont été mises en œuvre.
4. Les contre-indications
Si nous utilisons les techniques d’IA, c’est parce qu’elles nous permettent de gagner du temps dans l’analyse des données. Pour autant, il faut considérer quelques limites et prendre des précautions avec ces méthodes.
En premier lieu, il convient de garder à l’esprit que l’analyse de données donne des informations sur … les données. Aussi, il ne faut jamais prendre le résultat d’une modélisation ou d’une classification pour autre chose que ce qu’elle est : la vision statistique d’un phénomène auquel on a rattaché des informations. Quand on oublie cela, on risque de commettre des erreurs grossières voir dangereuses. On peut par exemple être enclin à croire que l’indicateur qui segmente le plus le phénomène observé est le plus important … Alors qu’en fait, il est le plus important parmi les données analysées, et pas dans l’absolu.
Secondairement, il est important de comprendre que le machine learning apprend à partir de ce qu’il connait. Il n’y a pas de créativité dans le machine learning. Aussi, ces méthodes sont très intéressantes pour comprendre un comportement client d’aujourd’hui mais pas pour anticiper celui de demain. Dit plus grossièrement : on peut prédire des situations qui existent déjà. L’exemple du moment est celui d’un recruteur qui utilisait l’IA pour sélectionner des candidats. L’algorithme conduisait à recommander quasi systématiquement des hommes aux postes à responsabilités puisque les données d’apprentissage montraient que les postes à responsabilités sont occupés aujourd’hui par des hommes …
Donc si ces techniques permettent de gagner du temps dans l’analyse du big-data, elles éclairent le présent plus qu’elles ne prédisent l’avenir. Ce qui est déjà très utile. Pour parler d’avenir, il faut être capable d’associer à l’analyse du comportement présent une identification des signaux faibles. C’est pour cela d’ailleurs que nous associons souvent des méthodes de « small-datas ». Cela permet de mettre en évidence ce qui ne sont que des tendances mais qui ont un fort potentiel de développement. Les nouveaux concepts qui réussissent sont ceux dont les créateurs ont su analyser les forces et faiblesses d’aujourd’hui et anticiper les comportements de demain.