Le CXP a convié quatre éditeurs majeurs du domaine Supply Chain Planning pour débattre lors d’une table ronde sur l’« IA & Supply Chain, 1ers retours d’expérience et quels enseignements pour le système d’information » :
- Quelles sont les attentes et le niveau de maturité des entreprises vis-à-vis de l’IA pour la Supply Chain ?
- Quel est l’état de l’art, que proposent aujourd’hui les éditeurs en la matière, et qu’envisagent-ils pour demain ?
- Quels sont les principales difficultés/freins rencontrés vis-à-vis d’un projet IA pour la Supply Chain et quelles seraient les recommandations avant d’entreprendre une telle démarche ?
Nous avons le plaisir pour cette table ronde d’accueillir les représentants de quatre éditeurs de référence en France dans le domaine du Supply Chain Planning :
- Dominique Bourgoin, fondatrice de la société AZAP
- Fabrice Chausserais, COO de la société SEDAPTA France
- Nazim Nachi, CEO de la société PLANISENSE
- Cédric Hutt, CTO de la société COLIBRI
qui vont chacun se présenter à tour de rôle.
Dominique Bourgoin, fondatrice de la société AZAP :
Je suis Dominique Bourgoin, fondatrice de la société AZAP qui commercialise le produit AZAP.
J'ai 2 passions professionnelles : les méthodes mathématiques en général incluant recherche opérationnelle, statistique, intelligence artificielle, et…la Supply Chain.
Pour les méthodes mathématiques, j'ai fait un doctorat il y a déjà quelques temps et on était loin de la Supply Chain. Le sujet de ma thèse, était la démonstration automatique de théorèmes. Donc déjà de l’IA. Plus tard, j'ai découvert la Supply Chain…Et j'ai vu que les Mathématiques y étaient très utiles, que là on était dans le concret, que l’on résolvait des problèmes réels avec des hommes, avec des vrais enjeux. Et bon, j'ai fondé AZAP dans cette ligne-là.
Fabrice Chausserais, COO de la société SEDAPTA France :
Je suis Fabrice Chausserais, cofondateur de SEDAPTA en France. Nous sommes un groupe européen, et nous avons créé l'entreprise il y a maintenant 10 ans. Nos bureaux sont répartis entre l'Italie, l'Allemagne et l'Angleterre. Donc nous avons une particularité, c’est de vivre l'Europe au quotidien, y compris dans notre R&D.
Dans toutes nos activités, notre cœur de cible, c'est l'industrie. En ce qui me concerne ma passion, c'est l'industrie associée à la Supply Chain. En fait notre offre est une offre globale qui permet de gérer la Supply Chain, de la demande jusqu'à l'exécution en passant par le transport ; cela veut dire que nous sommes capables de travailler sur les prévisions, sur la planification, sur l'ordonnancement, sur le MES et sur l'optimisation du transport. Nous adressons plutôt les ETI. Aujourd'hui, nous réalisons 50 Millions d'euros de Chiffre d’Affaires, avec un effectif d’à peu près 550 salariés. Nous intégrons l'IA depuis un an et demi maintenant. Et en standard depuis le début de cette année.
Nazim Nachi, CEO de la société PLANISENSE :
Je suis Nazim Nachi, je suis le cofondateur et CEO de PLANISENSE. Nous sommes un éditeur de solutions de planification de la Supply Chain de ‘bout en bout’ donc : Demand Planning, Supply Planning et jusqu'à l’ordonnancement détaillé des opérations. Nous travaillons beaucoup pour des entreprises industrielles, plutôt ETI et grands groupes. Nous entamons notre neuvième année, et investissons énormément sur notre solution, soit 30% de notre chiffre d’affaires. Nous avons donc une solution qui évolue vite et intègre aussi depuis un certain temps l'Intelligence Artificielle pour automatiser la prise de décision.
Cédric Hutt, CTO de la société COLIBRI :
Je suis Cédric Hutt, directeur produit de la société COLIBRI, qui propose une solution de planification ‘Cloud Native’ depuis une dizaine d’années. La solution adresse le S&OP, plus généralement les prévisions et la planification. Ce qui nous distingue peut-être, c’est un accent porté sur la rapidité, la facilité de mise en œuvre pour pouvoir installer très rapidement une solution qui fonctionne et la faire évoluer après progressivement. Nous souhaitons emmener nos clients vers une progression pas à pas. Nous rendons la solution accessible aux petites sociétés ; de fait dans notre cible nous descendons jusqu’aux PMEs.
De gauche à droite :
Dominique Bourgoin,
Fabrice Chausserais,
Nazim Nachi,
Cédric Hutt
CXP :
Lorsque vous avez l'occasion effectivement de discuter avec vos clients, qu’attendent-ils aujourd'hui de l’IA pour la Supply Chain ? Et quelles sont les réponses qu’aujourd'hui vous apportez en tant que en tant qu'éditeur ?
Dominique Bourgoin, AZAP :
Je pense qu'il y a un décalage actuellement, en tout cas dans nos environnements, entre le désir d'IA et le fait qu’on ne sache pas exactement quoi en attendre. La plupart de nos clients attendent des résultats. Si les résultats sont là quelles que soient les méthodes qui ont permis de les obtenir, que ce soit l'IA ou bien une autre méthode. Cela ne leur pose pas de problème.
Par contre avec l'arrivée de l'IA générative et en particulier de ChatGPT que tout le monde a commencé à pratiquer– et ça c'est quand même assez fabuleux en termes d'expérimentation - les idées viennent et avec elles les interrogations. On en parle énormément mais dans la pratique les gens sont - enfin de mon expérience - plus à se demander ce qu’ils peuvent attendre de l'Intelligence Artificielle que d’exprimer des exigences particulières ; ils sont plutôt dans le questionnement. La présentation très intéressante de la Keynote du CXP Forum posait d’ailleurs exactement cette préoccupation.
Pour ce que AZAP apporte en la matière, et cela fait donc très longtemps que nous embarquons des idées d'intelligence artificielle dans notre logiciel, je dirais qu’en matière de prévisions de vente, clairement, nous mettons en œuvre le Machine Learning et tout ce qui va avec pour l'estimation des événements, pour les profils de démarrage des produits nouveaux, pour l'analyse au démarrage, et pour la réactualisation de la prévision de ces produits nouveaux, c'est à dire profiter vraiment du contexte que le produit présente pour ajuster la prévision.
L’IA s’applique donc beaucoup sur les aspects qui ne peuvent pas être traités - ou alors difficilement - par les statistiques plus classiques. Nous travaillons également sur la sensibilité de la demande au prix ou à d’autres facteurs qui ont un impact sur la demande, les bonus aux commerciaux par exemple, la qualité de la présentation des produits aux consommateurs…
Pour la partie approvisionnement et planification de production, nous sommes plus actuellement dans l’exploitation de l'information qui nous est donnée par l'utilisateur. Cela peut être par exemple pour exploiter une correction de proposition de commande à des fournisseurs ; l’IA accumule l’information, analyse et se sert des observations pour suggérer des commandes plus appropriées la fois d'après ; nous sommes donc dans cette démarche-là. Nous sommes également dans des démarches algorithmiques qui analysent le contexte. Par exemple, les produits extra frais, AZAP propose de commander une palette au début de semaine et commander une couche palette pour la fin de la semaine parce que sinon le produit sera périmé à la fin du weekend. Nous gérons ce genre de proposition judicieuse en fonction du lot produit. De fait nous exploitons les idées d'intelligence artificielle dans toute notre chaîne logiciel.
Fabrice Chausserais, SEDAPTA :
Pour compléter, et pour rejoindre les arguments avancés : je pense qu’aujourd'hui les clients cherchent avant tout la simplicité de l'IA. Ils ne savent pas trop ce qu'ils veulent en faire dans un premier temps mais cherchent une certaine simplicité. Chez SEDAPTA, d'après nos premiers exemples, que nous avons pu avoir il y a 2 ans en fait, c'était très orienté autour du Manufacturing, autour de la maintenance prédictive et l'ordonnancement. Et ce sur quoi nous avons travaillé depuis 2 ans, c'est de pouvoir intégrer l’IA générative dans notre offre avec de l'IA analytique, le but étant d’accompagner l’utilisateur de nos solutions par des propositions suggérées par l’IA. Nous outils de prévisions, de planification et d’ordonnancement intègrent depuis de nombreuses années des heuristiques, l’IA vient en complément
Ce que nous intégrons désormais dans notre offre, c'est l’IA générative pour pouvoir interagir entre l'utilisateur et l'outil. Cela peut être autour de des approvisionnements, autour de l'ordonnancement ou tout simplement de la production. La difficulté pour un éditeur, c'est de standardiser des choses pour rendre simple l'utilisation, et c'est à mon avis, que ce soit nous ou d'autres éditeurs, ce que nous allons voir sur les 2 prochaines années. Il s’agira notamment d'intégrer ChatGPT ou d’autres solutions, parce qu'en fait ChatGPT a vraiment démocratisé l’IA. En effet, avant lorsque l’on faisait de l'IA, c'était une affaire de spécialiste, alors que c’est devenu presque le quotidien des gens, qui, lorsqu’ils consultent, recherchent cette simplicité.
Nazim Nachi, PLANISENSE :
Je suis assez d'accord avec ce qui vient d’être dit, c'est effectivement le bon point. Ce qui est très attendu aujourd'hui, c'est sur l'automatisation de la prise de décision.
Toutefois je rajouterai 2 points qui nous semblent importants chez PLANISENSE et qui renvoient à deux catégories de cas d’usage de l’IA. Le premier c'est « l'assistant analytique ». Aujourd'hui nous sommes capables de produire du reporting avec du langage naturel, aller chercher, ‘taper’ dans les données, récupérer, présenter les données d'une certaine manière.
Le deuxième point c’est « l’aide à la décision », c'est à dire que l'Intelligence Artificielle va pouvoir lancer plusieurs scénarios avec divers objectifs, diverses contraintes et pouvoir proposer ces résultats ; ainsi ces résultats aideront l’utilisateur à choisir quelle est la meilleure marche à suivre.
La délégation que l’on associe à l'intelligence artificielle est importante ; en fonction de ce qu'on veut faire, le degré de délégation est peut-être un peu différent : de la simple assistance à l’automatisation, en passant par l’aide à la décision.
Cédric Hutt, COLIBRI :
Ce qu'attendent les personnes que l’on rencontre, en termes d'IA, je pense , c’est la peur de passer à côté de quelque chose d’important qui est dans l’air du temps ; il y a comme une angoisse de se dire « mon Dieu, il faut absolument que ce que j’achète ne soit pas obsolète dans 2 ans !» . Si vous Regardez l'évolution du nombre de requêtes Google qui parle de l'IA, ce nombre explose littéralement, et à propos de ChatGPT tout particulièrement. De fait tout le monde est en train de se dire « il ne faut pas que je passe à côté de l’IA » en ne voyant pas que d’une certaine façon nous y sommes tous depuis longtemps, c'est vraiment dramatique. Nous en faisons tous depuis longtemps à différents niveaux. Cela étant je crois que nous avons tous dit autour de cette table que les clients ne savent pas ce qu’ils cherchent, et ne savent pas où ils ont mal. En réalité ils ont des problèmes concrets à résoudre, en passant trop de temps par exemple à optimiser les commandes d'appro et à remplir des conteneurs. Ce type de tâche est inintéressant au possible et chronophage, l’automatisation est un des premiers souhaits. Comme Dominique l'a très bien dit, les clients ont des problèmes concrets à résoudre et nous savons les résoudre. De fait, si vous avez automatisé 95% des propositions de commande, et que vous n’avez plus besoin de passer en revue toutes vos commandes parce qu'elles seront bonnes, dans 95% des cas, on appelle cela de l’IA et tout le monde est content.
Donc l’automatisation, c'est ça que les gens cherchent, et les éditeurs sont tous en train de répondre à cette demande.
Si je prends l'exemple des prévisions assez concrètement, il y a 10 ou 15 ans, on trouvait normal d'avoir des prévisionnistes qui travaillaient sur des prévisions qui corrigeaient des historiques. Plus personne ne veut ça aujourd'hui, la demande du planner serait plutôt : « faut-il vraiment que je m'embête à regarder ça, ne pourriez-vous pas me faire une prévision qui est bonne du premier coup ? ». Les éditeurs y travaillent pour essayer de faire une prévision qui est bonne du premier coup pour au moins 95% des cas, sur la base d’algorithmes qui sont rendus disponibles par les progrès technologiques rapides.
CXP :
Le point commun de vos interventions, c'est qu'effectivement ce que vous dites c'est que finalement les clients ne savent pas trop encore quoi faire avec de l'IA du coup, par rapport à cette table ronde, la question que je voulais d'abord poser par rapport aux clients, finalement, je vais peut-être vous la poser à vous, puisque vous êtes un peu en avance de phase, peut-être par rapport à vos clients.
La question est donc : à propos de votre retour d'expérience sur les difficultés je dirais d'appréhender l’'IA dans vos outils, comment vous les avez surmontées ?
Et puis bien entendu n’hésitez-pas à nous faire part des retours d’expérience client si vous commencez à en avoir notamment en termes de résultats.
Fabrice Chausserais, SEDAPTA :
En ce qui nous concerne depuis 2 ans nous avons fait différents POCs (Proof_Of_Concept) aussi bien dans l'industrie de process que discrète.
Il s’agissait très souvent de cas très spécifiques à une activité. Pour nous, en tant qu'éditeur, la complexité, c'était de simplifier L'utilisation de l’IA. Donc avec l’arrivée de l’IA Générative et l'automatisation, c'est devenu beaucoup plus facile. Nous nous sommes attelés à mettre de l’IA générative dans notre outil de de gestion des flux ; dans cet outil il est possible d’automatiser les tâches humaines, et questionner notre système de workflow pour faire des actions.
Ce qui importe c’est de toujours garder l’esprit de simplicité, parce que l'utilisateur lui, si on lui apporte de la complexité, ne va pas ‘s’approprier’ la solution, ne va pas en prendre possession. Donc pour nous SEDAPTA, notre première étape, c'est d'automatiser, et de simplifier l'utilisation de l'IA dans tout notre chaine de guidance de la Supply Chain ou la génération d’indicateurs clés.
Nazim Nachi, PLANISENSE :
Pour ma part je pense que le challenge, l’un des plus gros challenges c'est l'explicabilité des résultats. En fait ce qui est paradoxal c'est que les algorithmes les plus performants sont les moins explicables. Donc il y a une confiance à construire autour des résultats ; dans un contexte où des personnes travaillent d'une certaine manière pendant plusieurs années, c'est vrai que c'est très difficile d'arriver avec une solution qui est très différente, qui propose des résultats différents même si ces derniers sont probablement un peu plus performants que ce qui ce qui était fait avant. La difficulté pour avoir cette confiance dans les algorithmes c’est d’éviter l’effet boite noire. Dans certains cas on n'arrive pas à expliquer, enfin en tout cas pas simplement les résultats.
Il y a également un deuxième challenge qui est la donnée. En fait ces algorithmes se basent sur la data et ce qui se passe souvent c'est que les données sur lesquelles sont lancées ces algorithmes ne sont pas forcément correctes, ou en tout cas pas suffisamment fiables ; ce qui fait que les résultats peuvent diverger de ce qui était attendu. Donc ce deuxième challenge en résumé, c'est de pouvoir avoir des données qui soient fiables dans les différents systèmes d'information d'entreprise.
Question venant du public :
Cela doit sous-entendre également la sécurité de ces données ?
Nazim Nachi, PLANISENSE :
Oui, tout à fait. Sachez que désormais, l'avantage c'est qu'avec les systèmes et tout ce qui s'est fait autour, du point de vue sécurité, on a tendance à converger vers plus de fiabilité.
Fabrice Chausserais, SEDAPTA :
Si on parle d’IA générative, c'est bien la data qui fait travailler l'IA. S'il n’y a pas de data, l’IA générative ne se nourrit de rien.
Question venant du public :
La data, ça peut être une base de connaissances, ça peut être ‘tout’ ?
Fabrice Chausserais, SEDAPTA :
Effectivement. La data est multiple, elle peut être externe, elle peut être aussi interne à la solution. Si vous avez une solution en place depuis un certain temps, l’IA peut s’appuyer sur les données de cette solution. Mais quelquefois les clients nous demandent, par exemple, de faire un forecast à partir de la météo ; dans ce cas c'est de la data externe.
Nous devons donc chercher cette data à l'extérieur.
Mais après, la sécurisation reste l 'enjeu de l'IT, ce n’est pas la responsabilité de l’éditeur. En tant qu’éditeur nous allons avoir nos règles, nous allons déterminer un moment évaluer les risques, mais la sécurité dans le choix de la data, c'est quand même du ressort du client ; c’est le client qui, à un moment donné, nous dit « moi, je veux tel type de data », tandis que nous en tant qu’éditeur aurions tendance à nous autocentrer sur ce que nous faisons et sur la data dont on fait l'acquisition parce que c'est ce dont nous sommes sûr après. Nous aurons ensuite des demandes externes.
Cédric Hutt, COLIBRI :
Mais la sécurité des données externes 'est tout de même rarement une préoccupation qu'on rencontre dans nos projets aujourd’hui, nos clients souhaitent que leurs données de planification soient sécurisées et bien entendu elles le sont.
En revanche notre travail c’est aussi d'aller chercher les données qui ne sont pas en possession de nos clients. Concernant l’exemple de la météo, nos clients n’ont pas ces données.
Donc c’est tout de même à nous en tant qu’éditeur qu’il revient d'aller chercher les bons indicateurs météo, d'appeler les bons API pour aller chercher l'information et s'assurer qu'elle est bonne. En revanche, je pense que, sauf à faire partie d’un grand groupe mondial, ou d’un organisme d’Etat, qui peuvent faire l'objet d'une attaque, il n’y a pas nécessairement lieu de ‘blinder’ les sources de données.
Ainsi si vous êtes par exemple une société qui fait de la plasturgie dans l'Ain, le risque qu’une entité malveillante vous envoie des données erronées pour que vous fassiez de mauvaises prévisions pas le même.
Le sujet le plus important pour moi reste les données, enfin si on parle des données liées au Machine Learning. Nous avons un énorme manque de données en Supply Chain lorsqu'on essaie d'appliquer des algorithmes d'apprentissage, notamment quand on fait de la prévision de vente sur un ensemble de données qui est beaucoup trop petit. Si on regarde vraiment les indicateurs, on se rend compte que l’on manque de données quand on fait des prévisions de lancement. Si on veut beaucoup de lancements, il faut remonter sur 10 ans de données, mais est-ce que les lancements d'il y a 10 ans, ont encore du sens pour essayer de prévoir les lancements d'aujourd'hui ? Donc on a un problème de manque de données et de qualité de données.
Nous prenons tous comme acquis que nous pouvons utiliser la data science parce que nous avons des historiques de ventes, mais on ne les a jamais. La vraie demande, on ne l'a jamais. Nous n’avons pas la vraie demande, ce que nous aurions pu vendre, nous n’en savons rien. Pour le B to B en particulier : vous ne savez pas si votre client avait du stock, s'il avait anticipé une commande, s'il aurait pu supporter un retard, vous ne le savez pas. Si vous faites du B to C, s’il y avait eu plus de marchandises en rayon, combien vous auriez pu en vendre ? Finalement très peu de données et pas de bonne qualité.
Autre exemple pour les promotions : nous pouvons faire de très bonnes prévisions de promo, mais il faut que les données qu'on injecte au machine learning soient précises, et cela demande beaucoup de données. C'est selon nous le frein numéro 1.
En ce qui concerne l'explicabilité évoquée par mon confrère, je ne suis pas tout à fait d'accord sur le fait que les meilleurs modèles seraient les moins explicables.
‘Réseaux de neurones’ versus ‘Gradient Boosting’, il y a des méthodes qui fonctionnent très bien, et qui sont explicables (Gradient Boosting). Et effectivement c'est hyper important de pouvoir expliquer. Par exemple : on a prévu de vendre telle quantité, parce que le premier critère qu'on a retenu pour prendre cette décision c'est la semaine de vente, etc.
Il y a effectivement des méthodes qui sont basées sur des arbres de décision qui rendent la chose un peu compréhensible.
Si on évoque l'optimisation, là aussi, l'explicabilité est un vrai sujet. L'explicabilité tient au modèle qu'on utilise, c’est-à-dire : qu’est-ce que l’on va chercher à optimiser. Prenons par exemple l’objectif de proposer la meilleure commande possible. Mais si vous demandez à un client ce qu’est pour lui la ‘meilleure commande’, il risque d’avoir du mal à vous l’expliquer : ce n’est pas forcément la commande la moins chère ; et une solution d’optimisation par les coûts aura tendance à proposer des solutions aux client à l’écran qui sont difficiles à comprendre et non satisfaisantes, et de fait on ajoute de la complexité sans vraiment résoudre son problème.
Donc le deuxième frein, c’est vraiment de pouvoir trouver un bon compromis pour présenter rapidement un plan à l’écran qui soit une simulation facile à comprendre et modifier sans être une optimisation ‘incroyable’. Ainsi, le client comprend tout de suite les enjeux, il peut simuler, comparer plusieurs scenarios, c'est une bonne solution. Tandis que si on fait des grosses optimisations, on optimise nos critères dont on n'est pas certain que ce soit les critères du client lui-même.
Il y a également une piste intéressante qui est en train de se développer, qui est complexe, qui est à mon sens pas vraiment encore mûre. On va parler d’approche probabiliste ; en l’occurrence ce que l’on cherche à faire, c'est prendre les décisions qui seront probablement optimales en tenant compte des incertitudes. On en parle beaucoup et un certain nombre de gens sont très actifs sur le sujet. Cette approche ‘probabiliste’, on l’appelait auparavant ‘stochastique’ et c'était tout aussi bien. C'est exactement la même chose, ça fait très longtemps que l’on travaille dessus, c'est très consommateur en ressources, ça pose pas mal de questions et même là c'est encore moins explicable. Le résultat qu'on va proposer est encore moins facile à expliquer. Donc il va falloir qu'on soit bon pour qu'un jour les gens comprennent les résultats qu'on leur propose, ou simplement les accepter. Par analogie c’est un peu comme Google Maps, dont vous prenez la proposition pour vous rendre à destination en vous disant : « c’est sûrement la meilleure solution je ne vais pas la remettre en cause et regarder s’il n’y a pas mieux ». Ç’est un point sur lequel il faut qu’on s’améliore.
Question venant du public :
Et comment ? Quel est le principe de cette démarche ?
Cédric Hutt, COLIBRI :
Le principe de cette démarche c’est de travailler sur les données dont on dispose vraiment et effectivement d'exploiter, avec toutes les évolutions technologiques qui sont à notre disposition, les données externes et essayer de comprendre ce qui nous manque. On n’a pas le temps de rentrer dans les détails. Mais quand on parle par exemple d’optimisation probabiliste, pour utiliser le terme qui est utilisé en ce moment, la vraie question est : « que risque-t-il d'arriver ? ». Donc on essaie de savoir quelle est l'incertitude sur les données d'entrée de notre problème en général. Il s’agit souvent de l'incertitude sur les ventes qui est le gros sujet d'étude. Mais on a la même sur l'incertitude sur les délais d'approvisionnement.
Toutefois modéliser cette incertitude pose là encore beaucoup de questions où on continue à manquer de données pour être vraiment sûr de l'analyse que l’on fait.
Je prends un exemple très simple : vous calculez des prévisions automatiquement (IA ou non). Et puis vous demandez à vos commerciaux ; sont-ils d’accord ? Arrive votre commercial qui dit « mais là non, je sais que je vais en vendre 1 000 de plus ». Quelle est l’incertitude sur la prévision corrigée ? Et bien l'incertitude sur ces 1 000, aujourd’hui ce n’est pas un sujet que j'entends être traité vraiment couramment.
Nous avons donc un vrai sujet, travailler sur les données et essayer de comprendre comment mieux intégrer les saisies utilisateurs. Je crois que c'est Dominique qui évoquait cela justement, d’analyser les saisies utilisateurs et de comprendre. Si je devais le reformuler, je dirais qu’il s’agit en fait de comprendre quelle est la fiabilité des saisies utilisateurs, déterminer jusqu’à quel point on peut leur faire confiance.
Dominique Bourgoin, AZAP :
Vous pouvez les mesurer.
Cédric Hutt, COLIBRI :
On peut les mesurer dès lors qu’ils veulent bien faire l'effort de faire ces saisies dans nos outils. Et qu’ils ne prennent pas les résultats qu'on leur donne pour les retraiter ailleurs. Si le système fait des propositions et si les gens font autre chose que ce qu'on propose, on perd le fil, on perd l’information. On revient sur, de mon point de vue, le premier frein qui est la donnée. Cela reste un peu toujours centré autour du fait d’aller chercher de la donnée fiable. Il faut que les clients travaillent vraiment sur la fiabilité des données qu’ils nous mettent à disposition.
Dominique Bourgoin, AZAP :
Oui en fait les données ainsi que l'explicabilité sont les 2 sujets importants. Je veux juste rebondir là-dessus. Concernant les données il faut être modeste. C'est à dire que on apprend beaucoup de ses échecs. C'est hyper important. Je reprends l'exemple qu'on a pris presque tous : un événement. On estime le volume, ok. Là, on peut faire une classification de la qualité de cette prévision et se dire : je suis super bon dans la prévision de tel type d'événement ou de tel type de produit et par contre dans tel autre cas je ne suis pas bon ; c'est à dire qu’il ne faut pas se contenter d'avoir une estimation du volume mais il faut être capable de qualifier.
Et alors là, à ce moment-là, 2 choses tombent : les gens n'ont pas besoin d'explicabilité, ils ont confiance. Ça tombe bien, c'est exactement ce qu'on avait prévu, donc bon, plus personne ne se pose de questions et nous en même temps. Il faut être modeste, il faut garder son esprit critique et creuser le ‘pourquoi du comment’, de la mauvaise qualité de certaines de nos prévisions. Souvent le problème n'est pas un problème de données, c'est un problème de manque de données. On n'a pas identifié la bonne donnée qui permet d'expliquer et d'améliorer. Donc c'est cela pour nous le problème de données.
En ce qui concerne l’explicabilité, comme je viens de l’évoquer, si, ce que AZAP propose, finalement les gens en sont contents, l'explicabilité, cela devient moins important. Certaines méthodes d’IA mettent en avant les critères qui sont prioritaires dans le résultat. C'est important d'avoir ces informations en parallèle des résultats quantifiés.
Je voudrais maintenant revenir sur une autre manière d'avoir des données, en prenant un exemple concret. Imaginons que je suis un approvisionneur et j'ai évidemment le logiciel AZAP, qui est interfacé avec l'ERP ; c’est donc le data manager qui a la responsabilité de paramétrer les données et en particulier la palettisation des produits. AZAP connait cette information, normal, soit disons 800 pièces par palettes.
En tant qu’approvisionneur, je me souviens soudain que la dernière fois que j'ai passé commande, le fournisseur m'avait dit que la palettisation avait changé. Donc je renseigne dans AZAP la valeur 700 parce que je sais que la palettisation a changé (ce que AZAP ne sait pas encore). AZAP mémorise cette modification de l’utilisateur et stocke cet écart. Et là, l'intelligence artificielle peut prendre le relais avec une base de connaissances, d'un écart de palettisation. Elle peut poser des questions à l’approvisionneur - nous n’en sommes pas là actuellement, nous ne faisons pas du tout de génératif pour le moment - du type : « Ton produit ? N’aurait-il pas changé de palettisation ? Est-ce que tu peux me confirmer ? » .
L’IA peut même aller jusqu'à envoyer un mail au data manager pour dire : « attention ce produit a changé de palettisation, tu dois mettre à jour ta base de données » .
AZAP fait le suivi d'exécution de la commande et peut ainsi prendre le problème encore plus haut avec un raisonnement du type : la dernière fois qu'on a passé commande du produit, le fournisseur via l’accusé de réception a dit qu’il livrerait 700 (au lieu du 800 commandé). Et AZAP ayant capté ces écarts entre ce qu'on a demandé et ce qu'on voit revenir, construit petit à petit la base de connaissances.
Ainsi il est possible de mettre des probabilités associées aux actions qui ont été générées avec cette modification d'information qui peut être la rupture du fournisseur, le changement de palettisation, ou tout autre facteur. Il faut donc avec cette base de connaissances, être proactif sur l'amélioration de la qualité des données. Il s’agit d’un exemple, simpliste certes, mais qui illustre le pouvoir de l'intelligence artificielle de l'apprentissage par le biais des actions externes du fournisseur, de l’approvisionneur, etc.
De ce fait AZAP dispose de beaucoup de données : Il faut savoir les exploiter avec discernement, les construire, capitaliser dessus et agir avec.
CXP :
A travers cet échange nous venons de voir les freins et les enjeux ; il apparaît notamment une forme de consensus sur les notions d’explicabilité, et surtout de problématique des données ce qui n’est pas surprenant en définitive.
Pour essayer de se projeter un peu, si vous deviez faire une seule, voire quelques recommandations à une entreprise qui voudrait se lancer dans un projet IA et Supply chain, quelles seraient-elles ?
En 2ème question en guise de conclusion quelles seront selon vous les prochaines évolutions de l’IA pour la Supply Chain ?
Nazim Nachi, PLANISENSE :
Pour ce qui est de la recommandation, je reviendrais sur le côté confiance ; c'est important lorsqu’on va mettre en place un projet où on va automatiser la prise de décision, typiquement ce que nous faisons avec PLANISENSE sur le très court terme dans l'industrie, notamment automobile. Nous allons proposer des plannings qui vont se mettre à jour toutes les cinq minutes en fonction de ce qui s'est passé réellement. Par rapport à ce qui était auparavant réalisé sur Excel, sur SAP ou sur un autre système, la confiance vis-à-vis d’une solution qui propose quelque chose d'automatique est primordiale, à l’image de l'exemple qui a été évoqué avec Google Maps qui vous indique le chemin et que vous suivez.
Par rapport à la deuxième question sur les perspectives, je vois principalement 2 points :
Le premier point sur lequel nous travaillons beaucoup chez PLANISENSE, c’est « l’assistance analytique » en langage naturel. L’idée serait de pouvoir construire son propre rapport, sortir tel type d’indicateur, pour aider au quotidien dans le Planning en exprimant sa requête en langage naturel sans avoir à être expert dans un outil type PowerBI.
Le deuxième point, qui n’est pas visible pour les utilisateurs et tout aussi important : comment arriver à avoir des temps de résolution très rapides ? Dans la ‘partie Immergée de l'iceberg’, l'intelligence artificielle peut en effet élaborer des pré-plannings ou des premières étapes pour enlever, tester les plus grosses contraintes, les plus grosses règles et ensuite la partie optimisation peut prendre le relais. Du coup on passe d'un temps qui était très long de résolution à quelque chose de beaucoup plus rapide. C'est un peu ce qui se passe avec tout ce qui est autour de la ‘graph data base’, qui permet à des algorithmes de pouvoir naviguer au travers des données beaucoup plus rapidement. Et pour pouvoir du coup avoir des temps d'optimisation beaucoup plus rapides afin d’automatiser la prise de décision.
Cédric Hutt, COLIBRI :
Je voudrais revenir sur une chose par rapport au sujet de IA d’une manière générale. En définitive ce n’est pas récent. J’aurais tendance à dire que l’IA a à peu près le même âge que l'informatique. En effet, dès l’arrivée des premières machines, la question de savoir si celles-ci pouvaient remplacer ou imiter l’homme se posait déjà. Je vous invite à cet égard à consulter les ouvrages d’auteurs des années 50 ou 60 comme Noam Chomsky, Marvin Minsky ou encore John McCarty ; donc selon moi ce n’est pas nouveau, ce qui est nouveau c’est que désormais tout le monde en parle.
Nazim Nachi, PLANISENSE :
Si je peux me permettre, en fait, ce qui a changé, ce sont les capacités du cloud qui permettent maintenant de faire des calculs beaucoup plus rapides d'ailleurs, avec beaucoup plus de de données, ce qui a rendu les algorithmes plus pertinents.
Cédric Hutt, COLIBRI :
Certainement, pour autant on ne peut pas parler de révolution.
Pour prendre l’exemple des algorithmes d’optimisation de tournée, cela fait longtemps que les éditeurs y travaillent, et pour autant ils n’ont pas changé radicalement récemment. Même si un certain nombre de personnes ont considéré qu’il s’agit IA, dans les faits selon moi c’est plus une évolution progressive, via des améliorations continues apportées par le travail des éditeurs.
Dominique Bourgoin, AZAP :
Je suis d’accord pour dire qu’en Supply Chain, et depuis très longtemps, on utilise effectivement déjà des méthodes mathématiques, de l'optimisation, de la recherche opérationnelle, des statistiques, etc. et que par conséquent l'intelligence artificielle s’inscrit dans la continuité de tout cela. Et d'ailleurs la Supply Chain est encore plus ancienne, elle a été au départ créé pour gérer les armées et notamment les campagnes napoléoniennes. Et pour remonter encore plus loin, Hannibal et ses éléphants pour traverser les Alpes faisait aussi de la Supply Chain, avec toute l’optimisation nécessaire pour approvisionner les troupes, etc. Donc c’est ancien !
En comparaison avec d’autres domaines de l’entreprise je dirais que la Supply Chain avait donc sans doute une longueur d'avance en termes d'utilisation des mathématiques ; de plus la Supply Chain ne sera sans doute pas concernée de la même manière par l’apport de l’IA que d’autres domaines, comme le juridique par exemple dans lequel l’analyse des mots, des phrases ou tournures de phrase prennent une tout autre importance.
Cédric Hutt, COLIBRI :
Voilà qui effectivement alimente le débat. Du coup, quand quelqu'un qui veut se lancer dans un projet « Intelligence Artificielle », il faut avant tout qu'il se pose la question de savoir pourquoi il a utilisé précisément ces termes-là. Nous retrouvons effectivement de plus en plus l’acronyme ‘IA’ dans les appels d’offre, or il faut d’abord partir d’un besoin, et identifier quel en est l’enjeu.
« L’entreprise a trop de stock » par exemple peut être l’enjeu ; c’est une vraie question, pour laquelle nous allons typiquement regarder, comprendre pourquoi il y a du stock, ce que l’on peut faire pour l’améliorer, etc.
En d’autres termes, il ne s’agit pas de faire un projet IA parce qu’on pense qu'il faudrait faire un projet IA et/ou parce qu’on aurait lu un article sur ce sujet dans un magazine économique, ce n’est bien évidemment pas la bonne démarche. Il faut un enjeu, et il faut aussi comme cela a été évoqué précédemment des données disponibles et de qualité. Si par exemple j’ai comme projet de mieux prévoir mes promotions mais je ne dispose pas d’un historique de mes promotions, cela ne peut fonctionner. Il est donc essentiel de commencer par accumuler des données, et les stocker dans des entrepôts de données type ‘data lake’ ou équivalent.
Point important également, c’est de ne pas se lancer dans un projet IA tous azimuts, mais se concentrer, se focaliser sur un enjeu qui peut être stratégique, par exemple « je veux réduire mes délais, afin de prendre des parts de marché ». En tout état de cause il ne faut se lancer dans un projet qu’avec un enjeu mesurable où l’on sait ce que l’on peut gagner, et si on peut disposer des données. Si on ne dispose pas des données, il faut au préalable commencer par les acquérir.
Fabrice Chausserais, SEDAPTA :
Le but de l’IA c’est de gagner du temps, c'est de générer de la facilité et ainsi d'accélérer les prises de décisions.
Cédric Hutt, COLIBRI :
Enfin y a tout de même un point important, si on parle des prévisions de vente qui est quand même un des domaines de prédilection des avancées récentes en lA : c’est le fait que l’on n'arrivera jamais à faire des prévisions parfaites parce que par définition, contrairement à un modèle génératif de langage, ou même à la reconnaissance de l'image, il va toujours vous manquer des informations. Quand vous êtes une société qui vend des biens, vous avez des concurrents qui n’arrêtent pas de faire des promos, d'essayer de vous prendre des parts de marchés. Et cette information-là, c'est une des informations qui vous manque. Vous allez regarder vos historiques de ventes et vous direz sans doute « quelle IA va être capable de comprendre quelque chose là-dedans ». Il y a trop d’aléas importants, et trop d’informations manquantes par rapport par exemple à la concurrence ou un un évènement. Aujourd'hui cette donnée n’est souvent pas disponible.
Question venant du public :
Vous confirmez que l'IA c'est un grand assistant qui va nous permettre de nous faire plusieurs propositions et que le facteur humain est toujours important pour la prise de décision ?
Cédric Hutt, COLIBRI :
La question que vous posez soulève un sujet connexe que sont les aspects juridiques ; typiquement, dès lors que l’on automatise les décisions, qui est responsable : l'IA ou la personne qui a installé l'IA ?
La notion de responsabilité d’un point de vue contractuel peut apparaitre dans nos métiers, lorsqu’on installe nos solutions chez un client. Par exemple si l’on commande trop ou si l’on fait perdre de l’argent à la société, qui est responsable ? Dès lors qu’on automatise, la question se pose forcément, et il n’y a qu’une réponse possible : la responsabilité finale revient toujours à l’entreprise.
Pour revenir plus précisément à votre question à propos de l’IA en tant qu’assistant faisant des propositions pour faciliter la prise de décision, disons que je ne suis pas forcément hyper fan de la génération en langage naturel. Ce qui me semble important, pour reprendre l’exemple au demeurant très bon évoqué précédemment par Dominique à propos d’une IA détectant un changement de palettisation et suggérant à l’approvisionneur de mettre à jour le bon paramètre dans les masters data, c’est bien d’attirer l’attention sur là où il faut retravailler ; à l’inverse l’outil peut ainsi permettre de valider directement et sans risques toutes les commandes qui apparaissent stables en fréquence et en quantité.
Question venant du public :
Donc tous en tant qu'éditeur, vous proposez aujourd’hui plusieurs propositions. Vous ne faites pas qu'une seule proposition ?
Cédric Hutt, COLIBRI :
Cela va dépendre du niveau/de l’horizon de planification auquel on se situe. Si on parle, du processus S&OP disons comme dans les livres, avec une problématique d’adéquation charge/capacité au niveau famille, il est effectivement nécessaire de faire plusieurs scénarios. Ces scénarios visent à répondre à des questions de type ‘faut-il faire du stock, faut-il faire du délestage, faut-il passer en 3x8, etc. Il s’agit ensuite de pouvoir présenter plusieurs solutions à la direction générale, pour que celle-ci in fine décide. Dans ce cas l’IA peut sans doute aider à faire des simulations et des propositions.
En revanche, pour revenir aux aspects opérationnels, et en considérant par exemple un approvisionneur qui traite des dizaines de commandes par jour... On ne fait qu’une proposition car l’utilisateur n’a pas le temps de comparer différents scénarios.
Dominique Bourgoin, AZAP :
Parmi nos clients AZAP, nous avons justement des approvisionneurs qui traitent jusqu’à 3 000 commandes par jour
Cédric Hutt, COLIBRI :
Effectivement un approvisionneur peut avoir à gérer un grand nombre de produits. En négoce typiquement, un approvisionneur peut s’occuper de 10 000 produits. Est-il vraiment réaliste de vouloir faire des simulations en ce cas ?
Un approvisionneur n’a pas le temps de faire des simulations, le but n’est pas de démultiplier les approvisionneurs ; encore une fois, posons-nous la question de l’enjeu, et ce compte-tenu de l’incertitude quant à la qualité des données sur lesquelles nous travaillons. Pour résumer selon moi sur la partie approvisionnement, la simulation est quasiment ‘hors-sujet’. Par contre la simulation est très importante pour la partie planification industrielle…
Dominique Bourgoin, AZAP :
Pas pour le planning industriel au quotidien en tous cas, pour lequel c'est le même problème que pour les appros, contrairement bien sûr aux arbitrages et décisions à prendre au niveau S&OP.
Question venant du public :
Ce que vous dites c'est qu'en fait cela reste à la fin des outils d’aide à la décision, tandis que le discours marketing évoque plutôt un outil d’automatisation des décisions ?
Cédric Hutt, COLIBRI :
Ce que nous voulons dire c'est qu'il y a les deux. Pour la planification opérationnelle, c’est-à-dire quotidienne, le sujet c’est l’automatisation, car les personnes en charge de cette planification opérationnelle n’ont pas le temps. Tandis que pour la planification stratégique ou tactique, nous sommes vraiment dans l’aide à la décision, les simulations multiples, les scénarios, etc. Pour reprendre un autre exemple qui est l’ordonnancement : s’il est nécessaire d’actualiser l’ordonnancement toutes les cinq minutes, il est clair que dans ce cas nous ne faisons pas de simulation.
Question venant du public :
Et tout cela, c'est votre métier de base depuis toujours. L'objectif de la Supply Chain c'est de s'appuyer sur des données qui sont fiables et donc vous avez ce ‘noyau’ qui existe depuis toujours. Mais qu’en est-il de l'apport de l'IA par rapport à justement des choses qu'on peut faire en plus. Doit-on considérer que cela reste quand même de l’aide à la décision qui n'est pas de l’automatisation de décision, et qui concerne en fait des algorithmes que vous éprouvez avec des données qui sont fiables ?
Dominique Bourgoin, AZAP :
Mais vous savez, la notion de ‘données fiables’ mérite aussi d’être challengée. Nous en avons parlé au début de cet échange. Il ne suffit pas de se dire j'ai des données fiables, il faut mesurer cette fiabilité, mesurer les aléas et dans notre démarche lui permettre de faire des simulations de type jumeaux numériques pour valider que, avec les lois sur la distribution des incertitudes dont nous disposons, la proposition que nous soumettons est robuste ; à ce moment-là, cette proposition vaut ‘décision’, si elle est robuste, et si nous pouvons apporter la preuve de sa robustesse, nous pouvons les yeux fermés l'accepter comme une décision, donc c'est tout ce chemin là qu'il faut mener.
Cédric Hutt, COLIBRI :
Sans vouloir jouer sur les mots, si vous validez la proposition, on peut dire que c'est de l'automatisation. Finalement, tous nos systèmes vous font des propositions en vous mettant plus ou moins des petits ‘clignotants’ comme le disait Dominique en disant « Attention, cette commande-ci est inhabituelle » ou au contraire « celle commande-là est normale ». Et ensuite, si vous validez en masse les propositions que nos logiciels vous font, on peut dire que c'est de l'automatisation. Si au contraire vous voulez passer en revue, c'est de l'aide à la décision. Dans le fond, c'est le temps que vous décidez de consacrer et la confiance que vous faites au système qui font la différence entre de l'aide à la décision et de l’automatisation.
CXP :
Merci à tous pour vos interventions. Nous arrivons à la fin cet échange, je voudrais demander à chacun et d’entre vous quelques mots de conclusion peut-être sous formes de recommandation et/ou prospective par à l’IA ?
Fabrice Chausserais, SEDAPTA :
L’IA il faut le penser simplement comme un outil d'aide et une simplification dans son quotidien.
Dominique Bourgoin, AZAP :
J'accepte cette phrase comme conclusion.
Nazim Nachi, PLANISENSE :
Oui, je crois que nous sommes tous d’accord
Cédric Hutt, COLIBRI :
Et je pense qu'on avait fait en quelque sorte une pré-conclusions avant à savoir : pragmatisme et simplicité.
Dominique Bourgoin, AZAP :
Et je rajouterai bien capter l'échange avec l’humain, je pense que c'est une piste vraiment très importante. Notamment intégrer dans le capital du logiciel ce que l’humain a précédemment décidé de faire.
Souvent cela a beaucoup de bon sens. Il faut bien sûr apporter de la critique aux décisions humaines, et il faut que les logiciels soient critiques, mais tout de même il ne faut pas négliger la solution qu’avait trouvé l’humain. C’est un vrai apport pour l’intelligence artificielle, qui sait bien gérer cela, donc il faut en profiter !
CXP :
Ce sera le mot de la fin. Merci à tous pour avoir apporté chacun votre retour d’expérience ainsi que votre vision.
Propos recueillis par Gilles Alais, CXP à l’occasion du CXP Forum qui s’est tenu à Paris le 1er février 2024.
Auteur/autrice
-
Gilles a acquis une riche expertise au cours de sa carrière dans le secteur de la Supply Chain. Il a travaillé avec de nombreuses entreprises de différents secteurs d'activité, de la grande distribution à l'industrie manufacturière, en passant par la logistique et la distribution. Sa connaissance approfondie des défis et des enjeux de la gestion de la chaîne d'approvisionnement lui permet de proposer des solutions pratiques et adaptées aux besoins spécifiques de chaque entreprise.
View all posts