- La prédiction appliquée aux forces de vente
- La prédiction appliquée au marketing
- La prédiction appliquée à la gestion des promotions
- Une organisation multidisciplinaire
- Une gestion de la donnée de bout en bout
- Les leçons de l’expérience
- Prochain défi : accélérer la viticulture régénérative
- Le soutien de la direction générale
- La correction des données
- L’intelligence artificielle générative
- L’intelligence artificielle détruit-elle des emplois ?
- L’évolution des goûts
Exposé de Pierre-Yves Calloc’h
Tout le monde connaît la boisson créée à Marseille en 1932 par Paul Ricard. Aujourd’hui, le groupe Pernod Ricard comprend 240 marques, possède des filiales en propre dans 74 pays et compte 19 000 collaborateurs dans le monde. Le marché français ne représente plus que 6 % de son chiffre d’affaires, qui s’élevait, en 2022, à 12 milliards d’euros.
Après avoir été consultant, puis avoir travaillé dans le groupe de mode Gerard Darel, j’ai été embauché par la société Pernod Ricard, à Marseille, en tant que directeur informatique. Le Groupe m’a ensuite confié la direction de l’entité Winemakers à Sydney, en Australie, puis j’ai été chargé des technologies de l’information pour la zone Europe. J’ai alors opéré un virage dans ma carrière en devenant, pendant six ans, le patron de Pernod Ricard Colombie et Venezuela, avant d’être nommé directeur du marketing digital et du e-commerce au sein du Groupe. Enfin, il y a un peu plus de quatre ans, on m’a confié l’accélération du développement de l’intelligence artificielle (IA).
La prédiction appliquée aux forces de vente
Le groupe Pernod Ricard emploie plus de 5 000 commerciaux qui, chaque jour, visitent jusqu’à 10 points de vente (hypermarchés, supermarchés, magasins de proximité, bars-restaurants, hôtels, discothèques…), sur un total d’environ 200 qui sont placés sous la responsabilité de chacun d’entre eux. Leur portefeuille comprend en général une trentaine de marques et leur travail consiste à effectuer les bonnes recommandations à chacun des points de vente.
Par le passé, la fréquence des visites dans un établissement dépendait essentiellement de la taille de ce dernier. Pour un supermarché de plus de 600 mètres carrés, le commercial prévoyait une visite toutes les semaines ou tous les quinze jours, et seulement tous les mois pour un commerce de proximité. Les outils informatiques lui rappelaient simplement, chaque semaine, quels étaient les établissements à visiter.
Une planification hebdomadaire optimisée
La planification hebdomadaire est désormais optimisée, grâce à un outil interne appelé D-Star. Non seulement ce dernier indique au commercial quels points de vente il devra visiter au cours de la semaine, mais il formule des recommandations – par exemple : « Pour le champagne Mumm, le facing (c’est-à-dire le nombre d’exemplaires de la même référence placés sur la gondole) doit être de cinq ou six bouteilles. » – et aussi une liste d’actions précises à effectuer, comme référencer un nouveau produit dans un bar, ou vérifier, dans un supermarché, si le stock d’un produit faisant l’objet d’une campagne de publicité ou de promotion est suffisant – « Pour telle référence, dans tel magasin, le stock minimum doit être de 27 bouteilles ».
Cette liste d’activités n’est pas contraignante. Le commercial peut ajouter à son programme un point de vente supplémentaire ou en supprimer un, s’il dispose d’informations particulières à leur sujet. Nous observons toutefois un taux d’acceptation de 85 % des propositions de l’outil, y compris de la part de commerciaux travaillant depuis quinze ans dans la même zone et la connaissant parfaitement.
La “clusterisation” des points de vente
Pour parvenir à ce résultat, nous commençons par définir l’ADN de chaque point de vente, parfois à partir de 50 flux de données différents : enseigne du magasin, superficie, données démographiques de la population environnante, données géographiques (proximité d’une plage, par exemple), activités promotionnelles réalisées dans le magasin et, bien sûr, les ventes quotidiennes et mensuelles de nos produits, éventuellement complétées par celles de la concurrence, si elles sont disponibles.
À partir de ces éléments, nous créons des clusters regroupant les points de vente relevant du même profil sur l’ensemble du pays considéré. En France, 80 clusters ont été créés, dont les points de vente sont censés se comporter de la même façon, ce qui nous permet de détecter des anomalies. Par exemple, tous les magasins d’un cluster donné vendent très bien le rhum Havana Club 3 ans, sauf quatre d’entre eux : ceci signale au commercial l’opportunité d’améliorer les ventes dans ces magasins en identifiant la cause de cette anomalie, par exemple un stock insuffisant ou une mauvaise localisation du produit sur étagère. Un point de vente présentant des résultats plus faibles que la moyenne de son cluster pour 10 références sera considéré comme prioritaire à visiter en comparaison d’un point de vente dans lequel seulement 5 références sont concernées.
À ces éléments peuvent s’ajouter des priorités concernant une marque pour laquelle une campagne de promotion est en cours, ou encore des orientations stratégiques plus générales. Par exemple, dans tel pays, les ventes étant très supérieures aux objectifs de l’année en cours, ce sont les actions de long terme qui seront privilégiées, comme le référencement de nouveaux produits, qui prend du temps, alors que dans un autre pays, où les ventes sont inférieures aux objectifs, les actions de court terme seront prioritaires, comme celles concernant la rotation des stocks.
Les résultats
Le Groupe ne communique pas officiellement sur les résultats globaux de son informatique prédictive, mais voici deux exemples de résultats locaux. En Inde, dans l’État du Maharashtra, nous avons détecté l’opportunité d’introduire, dans un peu plus de 1 500 points de vente, un nouveau format de bouteille de whisky Chivas Regal 12 ans. Dans 46 % des commerces où cette action a été effectuée, elle s’est traduite par de nouvelles ventes (contre 15 à 20 % en l’absence d’intelligence artificielle) et les commandes sont devenues récurrentes dans 40 % de ces commerces, un excellent taux pour une marque internationale bien plus chère que les marques de whisky locales. Ceci signifie que l’introduction de la nouvelle référence correspondait véritablement à un besoin consommateur.
Aux États-Unis, où nous implantons progressivement notre solution D-Star, nous avons comparé les résultats obtenus, au bout de deux ans, dans les États où elle est mise en œuvre – et où le taux d’acceptation de nos recommandations est compris entre 77 % et 85 % –, et dans les autres États. La croissance nette des ventes est 1,4 fois supérieure dans les États équipés de D-Star.
La prédiction appliquée au marketing
Chaque année, le Groupe dépense 1,6 milliard d’euros en marketing. Pour le directeur du marketing d’un pays comme l’Allemagne, c’est une grosse responsabilité que de choisir de quelle façon il va employer la centaine de millions d’euros dont il dispose pour assurer le marketing d’une quinzaine de marques, avec toute une variété de canaux possibles : affichage, télévision, cinéma, presse, réseaux sociaux, ou encore activations en magasin, c’est-à-dire implantation de présentoirs à l’entrée du magasin ou en tête de gondoles. Si l’on multiplie le nombre de marques par le nombre d’activations marketing possibles et par le nombre de pays, cela donne un nombre d’options vertigineux.
Dans les années 1990, le marketing mix modeling, ou répartition des supports de marketing, était confié à des agences spécialisées, avec trois inconvénients : la répartition proposée n’était pas très détaillée, les agences ne fournissaient pas d’explications sur la façon dont elle avait été élaborée et elle n’était pas internationale, si bien que le budget marketing global n’était pas dépensé avec des règles définies ni de façon homogène dans les différents pays.
L’outil Matrix
Notre outil interne, que nous avons appelé Matrix (pour Marketing and Trade Excellency), vise à prédire l’impact des différents types de canaux sur les ventes. Il s’appuie, pour cela, sur l’analyse de trois ans d’historique d’opérations marketing, semaine par semaine, en incluant aussi bien l’affichage que le passage d’une publicité à la télé ou son visionnage sur le téléphone portable d’un consommateur. Une fois l’ensemble de ces données réuni, ainsi que celles des ventes consommateurs, la magie de l’intelligence artificielle nous permet de déterminer quel a été l’impact de chaque type de canal sur les ventes, y compris quand plusieurs activations ont eu lieu en même temps.
Désormais, ces données sont enregistrées au fur et à mesure, mais, pour les années précédentes, leur recueil passe par un véritable travail d’archéologue. Nous devons, par exemple, explorer d’anciens échanges par mails, d’anciens diaporamas, voire, parfois, négocier avec une agence avec laquelle nous ne travaillons plus afin d’obtenir les informations sur les actions marketing passées. Au Japon, nous avons rémunéré trois personnes pendant quatre mois pour saisir l’intégralité de petits carnets dans lesquels les commerciaux avaient consigné les activations réalisées dans des bars.
À partir de ces données et de la prise en compte de priorités stratégiques (« Favoriser la génération de marge à court terme », « Favoriser le gain de parts de marché à long terme », « Favoriser le whisky plutôt que le gin », etc.), Matrix établit des recommandations précises sur l’allocation des ressources marketing par marque et par canal. Ces recommandations prennent la forme de courbes indiquant l’impact sur les ventes des différents investissements, avec des effets de seuil. Par exemple, si, dans une ville moyenne, il n’est prévu que quelques affiches en abribus, l’impact sera pratiquement inexistant. Il ne commencera à être significatif qu’à partir d’une dizaine d’affiches par ville. À l’inverse, si l’affiche apparaît dans tous les abribus, cela risque de provoquer un sentiment de saturation et d’être contre-productif, sans compter que le retour sur investissement sera moindre, en raison du coût élevé de l’affichage.
Les résultats
Aux États-Unis, par exemple, les équipes marketing ont adopté 75 % des recommandations de Matrix en ce qui concerne la marque Jameson. Ceci les a conduites à supprimer certaines activités qui s’avéraient être moins rentables, comme l’organisation d’événements, et à augmenter la part de la publicité télévisuelle. Grâce à l’évolution du mix d’investissement, les ventes additionnelles de Jameson générées par le marketing ont été multipliées par 2,1 entre 2019 et 2021.
En France, nous avons découvert, grâce à Matrix, que l’affichage était extrêmement efficace. Nous avons donc doublé nos investissements dans ce domaine. Ceci nous a permis de multiplier par quatre le retour sur investissement, en particulier parce que, dans certaines villes, nous avons dépassé le threshold (seuil au-dessous duquel l’affichage n’a pas d’impact).
Non seulement les résultats ont été améliorés par le recours à l’intelligence artificielle, mais ils provoquent de nouvelles discussions intéressantes au sein des équipes de direction. Auparavant, il était difficile de mesurer l’impact du marketing sur les ventes. Faute d’informations, le directeur marketing ne pouvait pas tenir compte de cet impact et, par conséquent, focaliser ses critères de décision sur la construction des marques sur le long terme. Désormais, cet impact est mesurable, ce qui peut conduire le directeur financier à réfléchir à deux fois avant de supprimer l’investissement marketing – souvent considéré uniquement comme un centre de coût – ou le directeur commercial à hésiter avant de demander exclusivement le renforcement des activations en magasin – investissement préféré des équipes en charge des ventes, car c’est un argument utilisé dans les négociations avec les chaînes de distribution. Les équipes de direction disposent désormais d’éléments communs leur permettant d’identifier l’approche marketing la plus efficace.
Une consigne : ne pas adopter toutes les recommandations
Nous recommandons aux équipes marketing de ne pas suivre les recommandations de Matrix à plus de 80 %, car cet outil ne sait que reproduire le passé. Or, il faut continuer à investir sur d’autres options pour innover, générer de nouveaux types de données historiques et conserver une large marge de choix. Cela peut passer par le fait d’aller plus loin que ce que l’outil recommande pour telle ou telle activation, d’engager des modes d’action différents de ceux qu’il suggère ou de tester de nouveaux médias.
La prédiction appliquée à la gestion des promotions
Notre troisième outil d’intelligence artificielle, Vista Rev-up, permet de sélectionner les opérations de promotion les plus pertinentes pour chaque retailer, en s’appuyant également sur l’analyse d’un historique de trois ans. L’an dernier, par exemple, l’un des retailers proposait une réduction de 3 euros sur un lot de 2 bouteilles d’1 litre de Ricard. L’outil a suggéré de planifier l’opération une semaine plus tôt que prévu et de la remplacer par une réduction de 1 euro sur les bouteilles de Ricard de 75 centilitres.
L’optimisation des promotions sera bientôt complétée par celle du pricing.
Une organisation multidisciplinaire
Nous avons mis en place une organisation multidisciplinaire. L’équipe digitale assure l’expertise globale des données, de l’intelligence artificielle et de l’adoption des outils, et coordonne les projets. L’équipe business est chargée de gérer les spécificités des différents marchés et de faire le lien avec les métiers. Cette équipe business est composée de personnes issues du marketing et des ventes (par exemple, l’ancien directeur commercial des États-Unis), ce qui les rend beaucoup plus crédibles, auprès de leurs collègues, qu’un expert en données comme moi. Enfin, les équipes d’experts se chargent de choisir les bons outils, qu’il s’agisse d’algorithmes ou de clouds, et aussi de traiter les données, ce qui requiert toute une gamme de spécialistes : data engineers, data scientists, data analysts, machine learning engineers...
Le fait d’avoir lancé trois programmes en même temps nous a permis de disposer de la masse critique pour recruter des spécialistes, alors que, si nous avions commencé par un petit programme, nous aurions dû recourir à une même personne aussi bien pour mettre au point l’algorithme que pour exploiter les tableaux Excel.
Une gestion de la donnée de bout en bout
Quand un algorithme ne donne pas de bons résultats, cela vient généralement de la mauvaise qualité des données. Le soin apporté à leur recueil est donc crucial.
L’acquisition des données
Pour l’essentiel, les données que nous utilisons sont détenues par les clients ou, parfois même, les clients de nos clients. Nous avons essentiellement affaire à des retailers qui, après avoir été livrés dans leur centre de distribution, acheminent les produits vers les points de vente, et à des grossistes qui les revendent à des bars, des restaurants, ou encore à de petites échoppes, dans les pays en développement. Toute la difficulté est d’obtenir les données de l’ensemble des revendeurs en contact avec le consommateur final. Ce point est tellement important que la capacité à obtenir ces données dans tel ou tel pays détermine la possibilité d’y déployer l’outil.
Ceci exige, à chaque étape, de mettre en regard le coût d’acquisition des données et le retour sur investissement attendu. Dans certains cas, le jeu n’en vaut pas la chandelle. Beaucoup d’exemples d’utilisation de l’intelligence artificielle cités dans les médias ne prennent pas en compte la contrainte de la rentabilité. On trouve, par exemple, des projets déployés à grand frais pour permettre de prédire le nombre de salariés qui vont quitter une société, avec un retour sur investissement compliqué à établir…
Un portail de données unique pour l’ensemble du Groupe
Une fois la donnée obtenue, il faut l’intégrer, ce qui suppose, notamment, d’harmoniser les termes. Par exemple, pour une marque de vodka, tel revendeur utilise l’appellation Absolut 1 litre et tel autre Absolut Blue Standard. Autre exemple, certains revendeurs ne distinguent pas le rhum Havana Club 3 ans de la version 7 ans ni de la version Selección de Maestros. Nous disposons, dans chaque pays, d’équipes chargées de cette harmonisation, car nous ne serions pas capables, à Paris, de décortiquer des informations venant de tickets de caisse en japonais…
Nous avons mis en place un portail de données qui est le canal unique pour centraliser les données et les rendre disponibles, en libre-service, pour l’ensemble du Groupe, avec toutes les précisions sur leur origine, la période qu’elles couvrent, la personne qui les a validées, etc.
Une technologie propriétaire pour l’exploitation des données
Pour l’exploitation des données, nous avons développé, en partenariat avec JCDecaux et bientôt un nouveau partenaire, une technologie propriétaire qui représente une économie de 50 à 60 % par rapport à l’achat d’un logiciel sur étagère.
L’internalisation des capacités de gestion et d’analyse de la donnée présente trois gros avantages en plus d’une optimisation des coûts.
Le premier est l’explicabilité des résultats. Le fait que nos équipes maîtrisent à la fois le choix des algorithmes et la qualité des données nous permet de répondre à toutes les questions des commerciaux, du type : « Pourquoi vos recommandations sont-elles complètement différentes pour deux hôtels Ritz-Carlton situés en Floride ? » En l’occurrence, l’explication peut être que l’un des deux hôtels se trouve à proximité d’une communauté latino-américaine, et l’autre, à côté d’un aéroport. Quand on passe par une société extérieure, on se heurte généralement à un refus d’explications détaillées : « C’est notre savoir-faire, que nous ne pouvons pas révéler. »
Le deuxième avantage d’internaliser le traitement de la donnée est la possibilité d’adapter l’outil à chaque contexte : environ 20 % du code est spécifique à chaque pays.
Le troisième tient aux effets de synergie. Parmi les logiciels sur étagère, certains sont dédiés au marketing, d’autres aux ventes, etc. Gérer tous nos outils nous-mêmes nous permet de les combiner pour obtenir des résultats encore meilleurs.
Le recrutement
En quatre ans, mon équipe est passée de 2 à 200 personnes. Certaines sont basées aux États-Unis, en Inde et en Chine, mais la plupart travaillent en France. D’après le test standard que nous faisons passer aux candidats pour les postes de data scientists, ils sont considérés comme performants à partir de 75 points sur 100, et nous les recrutons à partir de 80 points. En France, le résultat moyen est de 79 points, contre 80 en Chine, 82 en Inde, et seulement 35 aux États-Unis. Or, les salaires sont plus élevés de 70 % aux États-Unis par rapport à la France ; ils sont comparables en Chine et 30 % plus faibles en Inde. Enfin, en France, nous trouvons des candidats bénéficiant déjà d’une solide expérience, par exemple des personnes ayant travaillé auparavant chez Air France, Météo France, ou encore pour la Française des jeux, qui font partie des premières sociétés à avoir commencé à travailler sur des sujets de data science.
Les leçons de l’expérience
Se concentrer sur quelques sujets clés
La première leçon que je tire de cette expérience est la nécessité de se concentrer sur quelques sujets seulement. Avant de lancer les trois programmes que je viens de vous présenter, nous avons réalisé des dizaines de proofs of concept, mais si l’on ne consacre pas à un projet des moyens suffisants, on ne parvient à rien. En l’occurrence, chacun de ces trois programmes se chiffre en plusieurs dizaines de millions d’euros en incluant tous les coûts, y compris les coûts de déploiement. Il est cependant utile de conduire quelques petits projets pour se faire la main et construire l’infrastructure de base.
Par ailleurs, les sujets choisis doivent concerner le cœur du business, car c’est là que le retour sur investissement sera le plus élevé. En contrepartie, c’est également dans ces métiers “cœur de business” qu’il sera le plus difficile de faire évoluer les comportements : cela nécessitera un investissement d’autant plus important en matière de gestion du changement.
Piloter par la valeur
La deuxième grande leçon est le pilotage par la valeur, c’est-à-dire par le retour sur investissement, que nous mesurons en permanence, afin d’être certains que le projet continue à apporter de la valeur. Cette préoccupation nous conduit à n’intervenir que dans des filiales où le projet d’implémentation est la priorité numéro un non seulement du directeur général de la filiale, mais également des directeurs du marketing, des ventes, de la finance, des ressources humaines et, bien sûr, de l’informatique, sans quoi cela prendrait trop de temps de mobiliser tout le monde et alourdirait d’autant le budget. Chacun de nos trois programmes n’est ainsi mis en œuvre, en version complète, que dans une quinzaine de pays, où nous avons des raisons de penser qu’ils pourront être rentables.
Savoir convaincre
Dans notre démarche, le principal défi n’est pas technologique. Les algorithmes que nous utilisons sont en open source et, même si nous devons développer une couche logicielle supplémentaire, la technologie ne représente que 10 % du coût total. La partie développement d’interfaces graphiques en représente 2 à 3 % et le cloud computing 20 %.
En réalité, l’essentiel de notre effort consiste à convaincre les personnes de se servir de l’outil. Expliquer à un marketer que l’algorithme va lui permettre d’atteindre de meilleurs résultats que ceux qu’il a obtenus au cours des cinq dernières années n’a rien d’évident. A contrario, ceux qui se servent de l’outil au quotidien, c’est-à-dire les commerciaux de la force de vente, prennent conscience assez rapidement que celui-ci améliore leurs résultats. Par ailleurs, nous leur proposons des interfaces graphiques très ergonomiques et personnalisées qui en facilitent l’adoption. Leurs managers sont souvent plus réticents et les managers des managers encore davantage…
En deux mois, mes équipes sont capables de mettre au point d’excellents algorithmes et d’obtenir de meilleures prédictions que celles de n’importe quelle équipe locale, même quand celle-ci y travaille depuis cinq ans avec des consultants. En revanche, si nous cherchons à imposer notre solution toute faite sans faire participer l’équipe locale, nous allons vers un échec assuré. Dans un des pays de la première vague de déploiement, par exemple, nous avions oublié de solliciter le directeur responsable d’un État où nous intervenions, et il a refusé purement et simplement de mettre le programme en œuvre. Nous avons dû tout reprendre à zéro, en le consultant à chaque étape du projet et en tenant compte de ses suggestions.
Plus largement, nous devons rassurer les personnes sur le fait que l’outil ne va pas prendre leur place, bien au contraire. Dans certains secteurs géographiques, nous sommes même en train de recruter de nouveaux commerciaux, car les ventes ont fortement progressé. Nous devons aussi démystifier l’intelligence artificielle, expliquer aux gens qu’elle n’a rien de magique et qu’elle se compose tout simplement de lignes de code. Enfin, nous devons veiller à mobiliser ceux qui se battaient en vain depuis des années pour faire adopter ce genre d’outil et qui risquent, paradoxalement, de s’opposer à nos programmes…
Prochain défi : accélérer la viticulture régénérative
Pour finir, voici un exemple des nouveaux projets sur lesquels nous travaillons actuellement.
Le groupe Pernod Ricard possède des vignes, principalement en Champagne et dans le Cognac, mais aussi en Australie, en Nouvelle-Zélande et en Argentine. Maintenant que nous avons prouvé que l’intelligence artificielle peut générer du retour sur investissement, nous souhaitons la mettre au service du développement de la viticulture régénérative. L’objectif est de contribuer à la réduction des émissions de gaz à effet de serre et d’adapter les vignobles aux effets du changement climatique afin de préserver leur rendement et la qualité des produits, tout en veillant à préserver la viabilité économique des exploitations.
Si nous nous contentions des connaissances actuelles pour mener cette transition, non seulement la réduction des apports d’engrais et de pesticides risquerait de compromettre les rendements au-delà de l’acceptable, mais la viabilité économique ne serait pas assurée. L’agriculture régénérative accroît en effet le recours au travail manuel, notamment pour le désherbage. Or, les acheteurs ne peuvent pas payer le raisin 10 fois plus cher, car les consommateurs ne sont pas prêts à une telle augmentation des prix. Par ailleurs, seule une petite partie du raisin utilisé dans l’élaboration de nos projets provient de vignes qui nous appartiennent en propre, la majeure partie étant issue de parcelles détenues par des vignerons et des coopératives. Il est donc fondamental de mobiliser ces partenaires externes en même temps que nos équipes internes, car l’IA demande des investissements conséquents et des expertises spécifiques, et les early adopters risquent de subir un désavantage concurrentiel s’ils avancent seuls.
Depuis plusieurs années, nous avons segmenté des parcelles afin d’y appliquer différentes pratiques agricoles. Nous accumulons ainsi des données sur la façon dont le rendement évolue en fonction de ces pratiques et observons quelles combinaisons s’avèrent les plus fécondes. Nous prévoyons d’avancer avec un consortium visant à proposer aux agriculteurs, et notamment aux viticulteurs, des recommandations établies grâce à des outils prédictifs permettant d’identifier le meilleur système d’agriculture régénératrice à mettre en œuvre sur leurs parcelles, en fonction des caractéristiques de ces dernières et du mode de culture pratiqué jusqu’alors. Le consortium leur donnera également accès à un soutien agronomique et financier, ainsi qu’à des robots et cobots préentraînés aux différentes pratiques, ce qui permettra d’en accélérer l’adoption.
Débat
Le soutien de la direction générale
Un intervenant : Dans une séance précédente de l’École de Paris1, Alexandre Ricard a évoqué sa colère en découvrant qu’une publicité pour Absolut était diffusée sur une chaîne de télévision américaine à neuf heures du matin. C’est à la suite de cet épisode qu’il a décidé de lancer un grand programme d’informatique prédictive. Son soutien vous a certainement été très précieux ?
Pierre-Yves Calloc’h : Le lancement de ce type de projet nécessite un double mouvement de mobilisation, à la fois du haut vers le bas et du bas vers le haut. Alexandre Ricard a été le moteur pour “embarquer” l’ensemble du comité de direction, ce qui était d’autant plus indispensable que Pernod Ricard fait partie des précurseurs, c’est-à-dire des 15 ou 20 sociétés de grande consommation les plus avancées dans ce domaine au plan mondial.
À ceci s’est ajouté le fait que le démarrage a eu lieu au début de la pandémie de Covid-19. Le réflexe de beaucoup de dirigeants aurait été de dire : « On arrête tout et on verra plus tard. » Alexandre Ricard a considéré, au contraire, que s’il y avait une chose à maintenir pendant la crise sanitaire, c’était bien ce programme. De fait, nous l’avons même accéléré et nous avons mis en place les premiers pilotes en pleine pandémie de Covid-19, ce qui nous a, d’ailleurs, permis de faire appel aux meilleurs consultants, un peu désœuvrés pendant cette période.
La correction des données
Int. : Vous travaillez sur des historiques de trois ans, ce qui signifie que vous avez commencé à les recueillir pendant la pandémie. J’imagine que vous avez dû corriger les données pour tenir compte de cette situation particulière. Comment procédez-vous ?
P.-Y. C. : Nous nous interdisons, par principe, de corriger les données, car cela pourrait détruire la confiance de nos équipes. En revanche, si nous n’avions pas pris en compte les inflexions de la consommation liées à la pandémie, nos prédictions n’auraient pas fonctionné et je ne serais pas là, aujourd’hui, pour vous en parler.
C’est pourquoi nous nous sommes basés, pour effectuer les corrections nécessaires, sur des sources externes, comme le Stringency Index développé par l’Oxford Coronavirus Government Response Tracker, qui mesurait, pays par pays, l’impact économique des mesures prises contre le Covid-19. Nous nous sommes également basés sur les données, fournies par les opérateurs de télécommunication, concernant le nombre de personnes présentes jour par jour, ou même heure par heure dans tel ou tel lieu, notamment dans des bars, supermarchés ou aéroports.
L’intelligence artificielle générative
Int. : Recourez-vous également à l’intelligence artificielle générative, de type ChatGPT ?
P.-Y. C. : La grande différence entre l’intelligence artificielle analytique, celle que nous utilisons pour les programmes décrits aujourd’hui, et l’intelligence artificielle générative est que, dans le premier cas, les algorithmes sont gratuits et leur utilisation quotidienne ne coûte pas cher. Dans le cas de l’intelligence artificielle générative, un préentraînement de l’algorithme sur des volumes de textes ou d’images de tailles gigantesques est nécessaire, ce qui peut coûter plusieurs centaines de millions d’euros. Par conséquent, les sociétés comme OpenAI, le fournisseur de ChatGPT, facturent l’utilisation de chaque requête quand ses modèles préentraînés sont utilisés en entreprise.
Pour le moment, nous nous servons de la version standard de ChatGPT, et seulement pour des usages très restreints, comme la rédaction de fiches de poste. Cet exercice relativement fastidieux est largement facilité par cet outil, puisqu’à condition de fournir les bons éléments à l’application, les fiches de poste proposées sont correctes à 80 %. De même, en Espagne, nous devons charger et structurer les catalogues de nos 3 000 grossistes pour pouvoir utiliser les flux de données correspondants. Ce travail mobilisait deux personnes à temps plein et, grâce à l’intelligence artificielle générative, il n’emploie plus qu’une personne à raison d’une heure par jour. Ces usages, pour l’instant limités, ne nous rapportent pas énormément, mais ne coûtent pas très cher non plus.
Nous envisageons de passer à des projets plus ambitieux, par exemple pour aider les 5 000 personnes que nous recrutons au moment des fêtes de fin d’année à conseiller les consommateurs dans les magasins.
L’intelligence artificielle détruit-elle des emplois ?
Int. : Vous avez évoqué le fait que, dans certains cas, l’utilisation du programme avait conduit à recruter des commerciaux supplémentaires, compte tenu des bons résultats obtenus. Globalement, l’intelligence artificielle contribue-t-elle à créer ou à supprimer des emplois ?
P.-Y. C. : N’importe quel outil peut avoir des effets positifs ou négatifs, selon la façon dont on s’en sert. Le groupe Pernod Ricard a des valeurs très fortes, dont témoignent ses orientations stratégiques. Si nous avions eu pour objectif que le recours à l’intelligence artificielle soit destiné à réduire la taille de la force de vente, nous nous serions heurtés à une forte résistance. Cet outil est, au contraire, mis au service des employés, et c’est pour cela qu’il recueille une large adhésion.
Int. : Juste avant le début de la guerre en Ukraine, la commission européenne proposait de suspendre le financement des entreprises d’armement. Un éditorialiste du Financial Times avait objecté que, certes, l’armement est nocif, mais qu’il l’est encore plus lorsque votre adversaire en possède, et pas vous. Il est certain que, pour une entreprise comme Pernod Ricard, se priver de l’intelligence artificielle face à des concurrents qui s’en servent serait risqué. En revanche, il n’est pas certain que l’intelligence artificielle conduise à l’augmentation globale du nombre de commerciaux.
L’évolution des goûts
Int. : Les jeunes ont tendance à boire moins de Ricard que d’autres apéritifs, comme l’Aperol. Comment vous adaptez-vous à l’évolution des goûts des consommateurs ?
P.-Y. C. : En fait, la consommation de Ricard est en croissance sur les quatre dernières années, signe d’un attrait de cette belle marque, qu’elle soit perçue comme traditionnelle ou vintage !
En réalité, nous ne raisonnons pas par type de consommateur, mais par “moments de consommation”. La même personne peut, le mardi, vouloir se détendre avec un bon whisky au coin du feu et, le vendredi, aller en discothèque et vouloir partager avec ses amis une bouteille de Champagne Mumm.
Nous réalisons régulièrement des sondages pour identifier ces moments de consommation et mesurer l’évolution des pratiques. Nous sommes aussi attentifs aux publications réalisées par les consommateurs sur les réseaux sociaux. Cette écoute permanente permet d’identifier les moments de consommation et les produits consommés.
Cela dit, nous sommes aussi capables de faire des paris. Par exemple, le patron du marketing du Havana Club a décidé de positionner la marque sur la street culture et cela donne de bons résultats.
1. Alexandre Ricard et Antonia McCahon, « Connaissance client et communautés : le cocktail digital détonnant de Pernod Ricard », séminaire Transformations numériques et entrepreneuriales, séance du 12 avril 2017.
Le compte rendu de cette séance a été rédigé par :
Élisabeth BOURGUINAT