Dimanche 22 Octobre 2017
Les 5 derniers articles
Les 5 derniers articles
Commentaires
Les 5 derniers commentaires
La transformation numérique dans la supply chain : enjeux de performance et de croissance »,
Par Frédéric Valluet, expert des solutions MarkLogic dans la supply chain
Les enjeux de la digitalisation de la supply chain dans le retail sont nombreux : réduire les coûts, optimiser les processus, gérer les stocks, servir l’omni-canalité et finalement améliorer les marges et augmenter les parts de marché. En fait, cette digitalisation doit permettre d’orchestrer la supply chain en temps réel, ou tout du moins de tendre vers cette unité de mesure du temps d’approvisionnement.

Pour atteindre cet objectif, il faut considérer non seulement la supply chain mais aussi toutes les autres composantes de l’organisation des retailers (systèmes de caisses, de gestion de la fidélité, de paiement, de publicité, de couponing, etc). Ne faire du Big Data que sur la supply chain est une erreur car le champ d’actions est trop restrictif. Le Big Data ne peut prendre tout son sens que si toutes les sources de données sont associées à la réflexion, et non limitée à la supply chain, qui est un périmètre trop réducteur par rapport aux réels enjeux de la digitalisation des retailers traditionnels.

La difficulté que les retailers rencontrent est la même que dans d’autres secteurs comme la banque ou l’assurance. Il est évidemment que c’est plus facile pour un pure player du web d’être digital et temps réel que pour un retailer traditionnel, qui subit la multiplicité des systèmes de gestion complexes et souvent âgés, mais aussi les processus, méthodes et organisations d’hier. Et il est bien plus difficile de gérer une multitude de points de stockage et de distribution physiques – pôles régionaux, magasins, drives, points de collecte, répartis sur un ou plusieurs pays – qu’une distribution colisée à partir d’entrepôts géants et de plus en plus robotisés. De même, la plupart des e-commerçants n’ont qu’un seul canal à gérer, quand un retailer doit être multi-canal pour résister à cette nouvelle concurrence.

Le véritable enjeu est donc de dépasser ces limitations pour se transformer en vrai distributeur phygital, afin de répondre aux besoins du client à la fois en termes de disponibilité, de prix et de service et ce quel que soit le canal de délivrance, voire de l’orienter ou de l’influencer en fonction de ses propres contraintes. Et pour ce faire, il faut que l’organisation devienne data-centric.

En effet, la donnée est au cœur de cette problématique. La capacité à la mettre à la disposition de tous les acteurs, y compris le client, est le vecteur principal de réussite de la digitalisation, pour partager le même niveau d’informations en même temps. Pouvoir croiser les données venant des tickets de caisse, de l’utilisation des coupons de réduction, des sites web et applications mobiles, des entrepôts de stockage, des systèmes de production ou de commande, des cartes de fidélité…, le tout en (quasi) temps réel, c’est acquérir cette agilité à tous les niveaux d’exécution pour se rapprocher du fonctionnement d’un pure player du web et renforcer sa compétitivité tout en affirmant ses différences comme autant d’avantages, comme la capacité à mettre à disposition des produits en moins de quelques dizaines de minutes dans un point de collecte physique sur le chemin d’un client mobile.

On voit bien que l’enjeu de modernisation ou de digitalisation, et par là-même le champ d’application du Big Data, est bien plus large que le « simple » sujet de la supply chain pour les retailers traditionnels. Cela touche toutes les composantes de la chaîne de production et de distribution, et requiert l’exploitation de toutes les données disponibles, historiques comme instantanées, pour comprendre aussi bien ce qu’il s’est passé que ce qu’il est en train de se passer, et que ce qu’il va se passer.
48% des organisations internationales déclarent toujours utiliser des technologies traditionnelles dans leur gestion des flux, ce qui représente un décalage énorme sur un marché dont les performances dépendent des données. Ce décalage vient de la complexité des systèmes existants et de la difficulté de mettre en place des solutions permettant de centraliser les données facilement et rapidement, sans les modifier et en faisant évoluer régulièrement les cas d’usage associés.

Il vient aussi du fait que les solutions Big Data sont souvent soit déconnectées des processus opérationnels, comme c’est le cas de la plupart des Data Lake sur Hadoop, soit orientées pour répondre à un besoin en particulier, comme par exemple les data warehouses et datamarts, ce qui conduit à prendre des raccourcis, abandonnant ainsi des données sur le bord du chemin, qui manqueront dans un prochain cas d’usage, et des biais, en transformant et agrégeant les données pour répondre aux besoins actuels, hypothéquant encore la capacité de celles-ci à être réutilisables.

C’est la différence entre être application-centric et data-centric. Les organisations sont depuis longtemps application-centric, créant de ce fait autant de silos qu’il y a de cas d’usage et de besoins, aboutissant ainsi à des paysages IT avec des dizaines, voire des centaines de systèmes d’information, avec autant de bases de données et de modèles de données différents. Les Data Lakes viennent tenter de fédérer ces données disséminées dans ces silos, pour essayer de construire une vision consolidée de celles-ci, mais leur usage est purement analytique, et ils ne supportent donc pas la digitalisation des activités ni la capacité à réagir à des situations en temps réel, alors que c’est la clef de la digitalisation. Ce ne sont donc pas des solutions réellement data-centric. Elles ont pour objet de permettre par exemple le machine learning ou les analyses comportementales, mais elles ne savent pas appliquer les résultats dans des processus transactionnels pour en tirer les bénéfices en termes d’efficience opérationnelle.

La bonne stratégie consiste à mettre en place une brique opérationnelle et transactionnelle fédérant toutes les données de tous les silos pour disposer non seulement d’une vue consolidée mais aussi d’une capacité d’action pour servir les applications existantes et celles à venir. Par exemple, être capable de faire des recommandations en reliant des produits entre eux, d’apprendre des achats d’un client et d’en déduire des informations sur son foyer ou son habitat pour affiner ces recommandations, de savoir qui fait les courses et quand pour adapter les promotions à la personne qui est présente, et non simplement à celle déclarée sur une carte de fidélité, savoir proposer des produits de remplacement, déterminer quels produits sont achetés à la concurrence pour cibler les offres… Les cas d’usage sont nombreux et requiert deux capacités, le temps réel et la capacité de réagir à un ou plusieurs signaux, fussent-ils faibles. C’est ce que nous appelons le Big Data opérationnel, qui applique une modélisation statistique plus ou moins empirique à la réalité des comportements au moment opportun pour renforcer l’expérience client tout en servant les objectifs de l’entreprise. C’est la capacité à orienter le comportement du client en fonction des contraintes intrinsèques du retailer tout en s’assurant qu’il apprécie l’expérience et la personnalisation.

La généralisation des modèles analytiques opérationnels bouscule la chaîne organisationnelle des directions logistiques

Ce qu’on voit aujourd’hui dans les expérimentations qui sont menées, et pas seulement dans le retail mais aussi dans la banque, l’assurance, les transports, l’industrie…, c’est que la diversité des outils, leur manque souvent de maturité, mais surtout leurs comportements parfois antagonistes complexifient encore une situation déjà peu propice à l’agilité. Lorsqu’on fait tourner en production des plates-formes embarquant dix, quinze voire vingt solutions différentes, on se rend compte que ce qui coûte cher et est compliqué, ce n’est pas de construire la plate-forme.

Notre conseil, c’est d’abord de bien choisir ses cas d’usage et de démarrer avec des expérimentations ayant un périmètre raisonnable et une valeur ajoutée forte. Nous voyons trop d’organisations se dire « On va construire un Data Lake sur Hadoop et ensuite on verra ce qu’on en fera ». Le résultat, c’est 1 à 2 ans de travail, parfois plus, et au final peu de cas d’usage pour une valeur faible au regard des investissements. Mais surtout une difficulté à remettre en cause les choix, du fait de ces investissements. Viennent alors les erreurs qui vont compromettre encore l’agilité, quand on va vouloir faire passer la plate-forme dans le monde transactionnel et tenter de lui donner des capacités en temps réel, alors qu’elle n’est pas faite pour cela. On revient à la nécessaire différenciation entre Big Data analytique et Big Data opérationnel.

L’omnicanalité logistique doit se faire en deux étapes. La première consiste à analyser le passé pour comprendre le présent et tenter de prévoir le futur, et en déduire des modèles comportementaux induisant des actions et des réactions. La seconde va appliquer ces modèles en temps réel en tenant compte de l’influence constatée des facteurs, et en prodiguant des éléments pour éventuellement revoir ou corriger ces modèles.

Dans le retail, on peut mettre en place un système pour piloter à chaud les activités en se basant sur la modélisation, et avoir des capacités de réaction ou de réorientation rapide. L’omnicanalité optimale, ce serait de proposer un produit à un client en pick-up s’il commande dans les 2 heures, parce qu’on sait qu’il est dans le camion sur la route vers le lieu de collecte, avec un modèle qui détermine l’opportunité d’une telle proposition, et un système qui l’applique à la situation particulière du client. C’est ce que fait Amazon grâce au fait qu’un modèle a décrit le temps qu’il faut pour coliser et expédier tel produit, en fonction de là où il se trouve et du client, et que ce modèle a été porté sur la plate-forme de gestion des canaux de vente.

Nouvelles équipes pour gérer la supply chain nouvelle génération

Les équipes traditionnelles vont effectivement rapidement se convertir en équipes de spécialistes de l’analyse de la donnée et de la modélisation statistique. Tesco se veut le champion de la supply chain, avec l’application de nombreux concepts venant entre autres de l’organisation de l’industrie automobile (lean management, passage en flux tendus, intégration des fournisseurs dans la chaine de distribution vers les points de vente, chasse au gaspillage et aux surstocks…).

La première étape a été d’améliorer et de simplifier sa chaîne d’approvisionnement, en utilisant par exemple des codes-barres RFID pour compter, identifier et localiser les marchandises, en réduisant les étapes intermédiaires, en raccourcissant les circuits mais aussi en modernisant les procédures pour réduire drastiquement les temps de réapprovisionnement et augmenter la disponibilité des produits.

La seconde étape consiste maintenant à introduire de l’intelligence dans les processus pour mieux prévoir les productions avec les fournisseurs en fonction de la demande attendue, analyser les informations venant des magasins pour optimiser le stockage dans les entrepôts ainsi que les transferts de marchandises.

Leur Big Data n’est toujours pas opérationnel et se focalise sur l’approvisionnement, sans intégrer des dimensions omnicanales. Or, la fermeture aux Etats-Unis d’un nombre de magasins sans précédent chez Sears, Macy’s ou même Walmart, n’a pas pour cause principale la chaine logistique. Le problème, c’est que le service rendu aux clients n’est pas à la hauteur du e-commerce, Amazon en tête, malgré l’apparente proximité et les habitudes de consommation pourtant bien ancrée chez les consommateurs. La promesse du bon prix associée à une capacité de service, de recommandation, de proposition de produits liés en complément comme en remplacement, ou la livraison rapide, voire ultra-rapide, a achevé de convaincre et de convertir les clients à une vitesse totalement inattendue.

C’est pourquoi le Big Data ne doit pas se concentrer uniquement sur la supply chain, et doit être opérationnel, et pas seulement analytique. Le graal de l’omnicanalité, c’est l’expérience client. C’est la capacité à proposer le bon produit, au bon prix, au bon moment, à la bonne personne, avec des modalités de récupération optimales, y compris en mobilité.

L’enjeu du Big Data analytique, c’est d’être certain que le produit est disponible et stocké de façon pertinente, l’enjeu du Big Data opérationnel, c’est de s’assurer que le produit soit vendu le mieux possible en fonction de ses contraintes propres d’acquisition et de stockage, donc de son prix de revient intrinsèque, qui sera modéré par un modèle analytique globalisant nivelant les effets de bord.

Intelligence artificielle et Supply Chain, le duo gagnant

C’est principalement là que les retailers ont une chance de reprendre des parts de marché. L’intelligence artificielle va permettre de mieux servir le client en comprenant ses besoins, en dressant une cartographie de son milieu familial et social, de ses habitudes, de son environnement… pour être plus intuitif et pertinent dans les offres qui lui seront faites.

Mais il faut faire attention à deux facteurs. Le premier, c’est qu’il faut des données opérationnelles fraîches et en grande quantité pour être intelligent, et c’est là où Big Data analytique et opérationnel se rejoignent pour fournir des données à la fois historiques et instantanées. Le second, c’est qu’il faut être avec le consommateur, dans son smartphone en mobilité, et chez lui. Si les retailers ne pénètrent pas très rapidement le foyer de leurs clients, s’ils ne deviennent pas un compagnon et un facilitateur des courses ou du shopping, ils perdront le contact et les e-commerçants auront gagné une bataille décisive pour la conquête mais aussi la conservation des clients.

L’intelligence artificielle, le Big Data analytique, le Big Data opérationnel, l’optimisation des processus, la réalité augmentée, les applications mobiles, les paniers intelligents… doivent permettre de faire en sorte que l’expérience du client soit la meilleure possible. C’est une question de prix, mais aussi de service, de disponibilité du produit, de promotions, de rapidité, d’adaptation au parcours du client, dans le magasin mais aussi à l’extérieur et dans sa vie.

La supply chain doit devenir augmentée, pour préparer le sac que le client va attraper en passant devant le magasin dans 15 minutes, sans vraiment s’arrêter que le temps de scanner son téléphone, sa CB ou sa carte de fidélité. C’est du pur phygital, et c’est la sans doute une excellente réponse au e-commerce. Avec une bonne intelligence artificielle qui proposera en plus les produits pertinents à mettre dans le sac, avec un peu d’upsale pour augmenter le panier moyen, et les bonnes promotions pour stimuler la fidélité, c’est la bonne combinaison pour faire de l’expérience client un moment simple qu’il voudra réitérer.
 
Publié le mardi 16 mai 2017
SQ 250-300
Les 10 derniers articles