Accueil / Actualités / Éditeurs / Big Data et Machine Learning pour une gestion optimisée de la supply chain

Éditeurs

Big Data et Machine Learning pour une gestion optimisée de la supply chain

29.09.2020 • 09h58
|
A_1

Laurène de Vialar, Marwane Bouznif, Emmanuel Condroyer, Arnaud de Moissac

Big Data et de Machine Learning étaient interrogées le 23 septembre dernier sur Salon Solutions lors d'une conférence disséquant les apports et les enjeux de cette exploitation intelligente des données.

Big Data, Machine Learning… des « buzz words » régulièrement adossés à des thématiques supply chain. Il y est évidemment question de gestion de données, mais de quelle manière et quelle en sont les grands principes ? C’était l’objet de la conférence « Big Data et Machine Learning : quelles datas pour optimiser la supply chain ?», qui s’est tenue le 23 septembre dernier sur Salons Solutions. Un évènement animé par Laurène de Vialar, directrice associée de Vox361, en présence de Marwane Bouznif, ingénieur data scientist chez Savoye ; Arnaud de Moissac, CEO de DCBrain et Emmanuel Condroyer, senior customer executive for manufacturing & retail chez Blue Yonder.

 

Enjeux et définitions

« Le but du Machine Learning, c’est d’apprendre en fonction des données historisées de nouvelles choses que l’on va pouvoir appliquer », entame Marwane Bouznif, réalisant un parallèle avec le WMS qui va lancer presque toutes ses opérations en réaction au dépassement d’un seuil fixé par le métier, l’utilisateur ou l’intégrateur du WMS (vague de préparation, de réapprovisionnement, préparation d’urgence…). « Bien que ces seuils soient fixés intelligemment, ces vagues de réappro sont subies. Le but du Machine Learning est de prévoir à l’avance les dépassements de seuil. On va transformer un WMS qui fonctionne essentiellement avec des prises de décision en réaction par un WMS qui agit de manière anticipée. Ensuite, à travers d’autres branches de l’IA, on va pouvoir lisser l’activité sur la longueur », détaille-t-il. Une définition complétée par Emmanuel Condroyer : « L’un des enjeux du Machine Learning, c’est l’ingestion de datas de manière agnostique. C’est la base dans chacun de nos projets et c’est la première difficulté que l’on rencontre, pour aller récupérer dans une supply chain étendue des données hétérogènes qui n’ont pas toutes la même signification, et proviennent d’outils très différents : TMS, WMS, outil de demand…» Quant au Big Data ? « C’est quand ça ne rentre plus dans Excel », ajoute malicieusement Arnaud de Moissac pour décrire ce deuxième grand terme, désignant un ensemble extrêmement volumineux de données qu’un outil classique de gestion informatique ne peut traiter.


Un secteur pas encore mature

Si les deux notions sont fortement évoquées aujourd’hui, les logisticiens, grands pourvoyeurs de données, ont-ils pris la mesure de l’importance de la gestion de cette data ? « C’est un paradoxe énorme, répond Marwane Bouznif. La logistique manipule énormément de data au quotidien mais est très loin d’être mature sur la conservation de la donnée à sa disposition. Or la data constitue le cœur du Machine Learning. Pour avoir un forecast à échéance quotidienne, il faut détenir un historique d’au moins deux ans. Si l’on n’a pas conservé ses données, il va alors se passer de nouveau deux ans avant de pouvoir commencer à faire du Machine Learning ». Aujourd’hui, un gros travail de vérification de l’intégrité des données à disposition et d’historicisation de ces dernières doit être réalisé. « Une des difficultés que l’on a sur la gestion de datas porte sur l’hétérogénéité et la provenance des outils », poursuit Emmanuel Condroyer. Il s’agit donc pour atteindre un socle de datas dotées du même langage de « définir au préalable un data lake [méthode de stockage des données utilisée par le Big Data] sur lequel il va ensuite être possible de travailler sur du Machine Learning ».

 

Si le secteur de la supply chain se montre encore relativement novice sur le sujet, cela a également à voir avec le fait que la donnée y est encore souvent vue comme un problème et non une solution, estime Arnaud de Moissac : « Tant qu’on aura cette conception, on ne va jamais passer du temps pour justifier de dépenser de l’argent dessus ». Cette data, en tant que « matière vivante » doit être utilisée, poursuit le CEO de DCBrain : « Si vous ne l’utilisez pas, soyez sûr qu’elle est mauvaise, même si vous faites un magnifique data lake ». Il s’agit de s’en servir continuellement, le tout en procédant par étapes : « Quand on démarre un projet comme le déploiement d’un logiciel qui fait de l’IA ou du Machine Learning, il faut accepter de commencer par de petits pas, pour parvenir à faire vivre cette donnée. Cela ne fonctionne jamais en entamant des projets pharaoniques… »

 

Répondre aux défis de la supply chain

Au début d'une démarche de Machine Learning, l'étape initiale verra le data scientist réaliser un EDA, exploratory data analysis : « Il va poser les données à plat et regarder à quoi elles ressemblent, explique Marwane Bouznif. Et la première chose qui saute aux yeux à cette étape, ce sont toutes les anomalies ». Mais le data scientist seul ne peut comprendre la totalité des éléments qu’il a à disposition. Dans un second temps, il va alorsse rapprocher des parties concernées «afin de disposer d’une explicabilité de la part des gens du métier qui vont détailler ce qu’ils cherchent à valoriser, optimiser et aussi répondre aux interrogations qui se posent face à certaines données ». Le client logisticien n’étant pas informaticien, « l’outil qu’on lui  apporte n’est pas celui d'un data scientist », rappelle à ce sujet Arnaud de Moissac qui insiste sur l’importance de proposer une interface métier « très simple d’utilisation » : « Le seul sujet qui intéresse le client, c’est de savoir s’il a la main dessus, s’il peut modifier les contraintes, savoir ce qu’il s’est passé et ce qui est en train de se produire, projeter des solutions… L’important c’est que cela fonctionne et que cela soit fiable ».

 

Pour les grands prestataires logistiques qui manipulent des données structurantes pour leurs clients, il s'agit d'être en mesure de leur retranscrire ces dernières, explique Emmanuel Condroyer. « Le deuxième point consiste à chercher avec les clients où se trouve la valeur ». Un sujet qui amènera à travailler sur deux axes : la prédictivité et l’efficience opérationnelle. Autre enjeu soulevé : la capacité à corréler les données entre elles : « Si l’on réalise une livraison à un point, on fait potentiellement un éclatement dans un entrepôt, la question est de savoir comment on arrive à suivre et corréler l’ensemble de ces informations pour avoir une vision étendue d’un flux de produits par exemple », indique  Emmanuel Condroyer. Il n'est donc pas uniquement question d'utiliser la donnée mais bien de savoir l’associer. Une corrélation qui va également permettre de détecter des anomalies : camions insuffisamment remplis... « Plus vous arrivez à mettre en corrélation vos données, plus vous êtes capable de les nettoyer, les rendre propres et les enrichir », juge Arnaud de Moissac.


Chez Blue Yonder après avoir récupéré ces données à partir de systèmes IT hétérogènes, le travail va également consister en l’ingestion de data non structurées : « Nous travaillons beaucoup pour récupérer ce qui tourne autour de la météo, des réseaux sociaux, pour ingérer ces datas dans les modèles de forcasting », illustre Emmanuel Coudroyer. Autre bénéfice observé pendant la crise du Covid, qui aura totalement déstabilisé la prévision de la demande avec des pics exceptionnels venus impacter toute la supply chain : « Cela a créé des effets de bord terribles, déstabilisant les enseignes, les points de vente et les réseaux d’approvisionnement. Or, nous avons pu constater des ajustements beaucoup plus fins chez certains de nos clients ayant mis en place de l’IA, parce que l’algorithme avait été capable de comprendre beaucoup plus rapidement le comportement », poursuit-il. Si l'épidémie ne pouvait pas être anticipé par ces nouvelles technologies, elles auront néanmoins montré leur utilité : « Un algorithme de Machine Learning bien fait va être capable, au bout de quelques jours ou semaines, de se recaler pour tenir compte de cette nouvelle donnée. C’est pour cela qu’il est intéressant d’hybrider des approches classiques et des approches de Machine Learning pour être capable d’aller chercher des liens là où vous n’étiez pas encore allés », termine Arnaud de Moissac.

BUZZ LOG
“Avant de se poser la question de la technologie à mettre en oeuvre sur une plateforme logistique, il importe de comprendre le besoin du client et de se poser la question de l’objectif à atteindre.”
— Virgile Bourdelin, directeur des ventes de Zebra Technologies
SUIVEZ-NOUS
NEWSLETTER
Pour rester informé chaque semaine