Ici archive

En quelques années, nos pratiques de travail se sont transformées, faisant émerger de nouveaux usages : télétravail, travail hybride, horaires flexibles… En 2022, 35 % des salarié·e·s témoignent qu’ils pourraient quitter leur entreprise s’ils·elles sont contraint·e·s d’être en présentiel à temps plein. 37% pensent également que leur lieu de travail n’est pas agréable et se sentent, de ce fait, moins motivé·e·s. (1) Les entreprises doivent donc adapter leurs politiques RH pour éviter le désengagement de leurs talents.

L’expérience employé est ainsi devenue une priorité pour les entreprises pour renforcer l’engagement de leurs salarié·e·s – et en attirer de nouveaux·elles. À la lumière de ce constat, il est nécessaire de repenser l’approche imaginée jusqu’alors pour (re)créer un environnement propice aux échanges, à la créativité et à la collaboration.

Ces interactions peuvent être physiques et virtuelles, mais aussi hybrides. Nous le voyons : la frontière entre le réel et virtuel s’estompe, offrant de nouvelles possibilités mais aussi problématiques à résoudre. Renforcer le lien au sein d’une équipe multisites, échanger avec le personnel de terrain, négocier avec des clients à l’autre bout du monde, créer des expériences immersives et ludiques au sein d’un team building ou pour le lancement d’un nouveau produit… Le champ des possibles de la collaboration hybride est immense et reste à explorer. “Nous n’arrêtons jamais d’explorer, et le terme de toute exploration sera le retour au point de départ”, disait Thomas Stearns Eliot.

Pour mieux explorer ces usages hybrides, il faut bien s’équiper. Le navire recherché ? Une technologie visant à recréer un espace collectif partagé, en temps réel.

C’est la promesse du métavers. Celle de “la fusion d’un univers virtuel avec des fonctionnalités qui sont ancrées dans le réel” (2) “pour retrouver en ligne le sentiment d’être entièrement présent, qui est propre au monde physique.” (3) Si l’on parle beaucoup de l’intérêt du métavers pour les lieux de rencontre informels ou les jeux vidéos, comment peut-il être appliqué à la collaboration ? Dans quelle mesure est-il un environnement optimal pour travailler ensemble ? Comment peut-il répondre à certains enjeux de la transformation de l’expérience employé ?

C’est ce que Saegus et Metagellan proposent d’explorer ensemble : démultiplier les usages de l’expérience employé dans le métavers. Grâce à ce partenariat, nous allions deux expertises, celle d’un acteur du conseil qui met l’employé·e et ses usages au cœur de son approche et celle d’un éditeur d’une plateforme facilitant l’accès au métavers.

Notre volonté est d’identifier et tester les nouveaux usages liés au métavers pour connaître leur valeur ajoutée et accompagner nos clients dans l’adoption de ces derniers. Tout comme Magellan (ou presque !), nous nous lançons dans l’aventure et débutons ce partenariat par une phase exploratoire pour préparer l’avenir.

Agathe Van Den Plas, Consultante EMployee EXperience (EMEX) chez Saegus, témoigne :

“Je suis convaincue que le métavers permet de lever certaines barrières liées à la distance, à la langue ou encore à l’image de soi. Interagir dans le métavers, c’est organiser par exemple un séminaire d’équipe ou un forum de recrutement avec des personnes aux 4 coins du monde. Il ne s’agit pas de remplacer les interactions physiques mais de créer une nouvelle possibilité de travail permettant de contourner les contraintes du physique et du virtuel.

C’est d’ailleurs ce que nous avons expliqué aux Champions internationaux d’Orange en décembre dernier lors d’une Learning Expedition virtuelle. À cette occasion, les Champions – qui ont pour mission de relayer les nouvelles pratiques de travail d’Orange – ont découvert quelques cas d’usage liés au métavers illustrés par une démonstration. C’était un moment inspirant et immersif qui nous a permis à tou·te·s de voir l’expérience employé sous un nouvel angle.”

Pour Loïc Schappacher, CEO de Metagellan :

“Nous sommes ravis de démarrer ce partenariat avec Saegus. Les barrières d’accès au métavers sont pour le moment nombreuses : compréhension de ces nouveaux environnements virtuels, accessibilité, modélisation 3D et développement…

Les entreprises sont pourtant bel et bien à l’écoute de ce nouveau marché et souhaitent explorer son potentiel. Les solutions digitales innovantes que le métavers offre leur permettront de réinventer l’expérience collaborateur, notamment lors d’évènements corporate, séances de team-building ou autre forme d’animation digitale.

Notre solution Metagellan permet de franchir ces obstacles et faciliter l’accès à ces nouveaux univers pour toute société souhaitant y faire ses premiers pas. Notre collaboration avec Saegus, grâce à leur expertise dans l’expérience utilisateur digitale, nous permet d’offrir des solutions adaptées aux besoins de nos clients.”

Vous souhaitez en savoir plus sur ce partenariat ou être accompagné·e·s par nos équipes EMployee EXperience (EMEX) ?

Sources
(1) Selon une étude menée par la société Qualtrics en 2022
(2) Caron Pierre-Louis, (2021, 16 septembre). “On vous explique ce qu’est le métavers, “l’internet du futur” qui fait rêver la tech”, FranceInfo
(3) Biseul Xavier, (2022, 10 octobre). Métaverse : les cas d’usage collaboratif se précisent, Journaldunet

Qu’est-ce que ChatGPT ?

ChatGPT est un chatbot développé par Open AI, une organisation spécialisée dans la recherche en intelligence artificielle co-fondée par Sam Altman et Elon Musk, également à l’origine de DALL-E. La version de ChatGPT actuellement proposée est la 3.5, plusieurs versions ayant été mises en ligne précédemment.

ChatGPT est un modèle entraîné sur des milliards de données qu’il puise dans le web pour générer une conversation similaire à celle d’un humain. Il utilise des techniques de machine learning pour améliorer ses prédictions selon les données d’entraînement qu’il a reçues. En d’autres mots : plus le modèle a reçu de requêtes, plus il s’entraîne sur un large corpus de textes et est donc capable de générer des réponses cohérentes en autonomie. Il se nourrit également des retours que l’utilisateur·rice lui fait sur la pertinence ou non de ses réponses.

Essayons-le !

Exemple d’une requête en temps réel

Ce que j’aime

  • ChatGPT est gratuit et disponible en français ;
  • Développement : le chatbot offre une infinité de possibilités. Et notamment, en une simple requête, il peut générer des lignes de code ;
  • L’outil se prête facilement à mes utilisations personnelles : c’est une aide précieuse pour mon travail quotidien de designer (rédaction de documents, traduction, réponse à des questions techniques…). Le plus ? ChatGPT livre du contenu pertinent et utilisable plutôt que du lorem ipsum.

Ce que j’aime moins

  • Biais : ChatGPT peut délivrer des informations incorrectes voire discriminantes. Ce ne sera pas le premier cas de ce fait constaté. Parce que l’intelligence artificielle est entraînée sur des données fournies par des humains – soit donc, l’interprétation du monde par les êtres humains – elle comporte des biais, par exemple racistes ou sexistes ;
  • Subjectivité : si une question n’est pas posée distinctement et directement, ChatGPT peut mal l’interpréter et fournir une réponse erronée.
Exemple de l’une des limites de l’outil : la question comporte deux facteurs impliquant de faire preuve de logique, face à laquelle le chatbot échoue. Toutefois, il prend en compte la réponse qui lui est faite pour corriger la sienne.
  • L’outil répond à certaines questions inappropriées et illégales. Pour cette raison, OpenAI a doté ChatGPT d’un outil de modération de contenus qui classe les demandes selon des catégories types (violence, haine…).

Ce que j’ai apprécié en tant que Designer

“Le mieux est l’ennemi du bien.” Pourquoi faire compliqué quand on peut faire simple ? En deux clics, je suis redirigé vers le chatbot et peux commencer à poser mes questions. L’interface est simple et claire. Une inscription et connexion par mail suffisent.

Sur la colonne de gauche, je retrouve l’historique de mes conversations avec le chatbot. Je peux également les reprendre où je les ai laissées. J’apprécie particulièrement la possibilité de passer le chatbot en dark/light mode pour le confort des yeux.

Dans un effort de transparence, OpenAI donne un certain nombre d’informations utiles à l’utilisateur dès son arrivée sur le chatbot : à la première utilisation, plusieurs explications apparaissent à l’écran (l’outil est en cours de développement, les informations peuvent être erronées, collecte de la data, importance du feedback pour améliorer l’outil…). Plusieurs ressources détaillant le fonctionnement du chatbot (sources d’information, amélioration continue…) sont également disponibles sur la première page du site.

Si l’on étudie le motion, on constate que l’apparition des informations se fait progressivement, donnant l’impression que l’intelligence artificielle “réfléchit” pour donner une information exacte. Ce temps de réflexion animé n’est pas gênant, bien au contraire : il permet aux lecteur·rice·s de digérer les informations livrées au compte-gouttes. Si elles étaient données d’un seul tenant, elles pourraient être indigestes ; l’expérience utilisateur en souffrirait.

Conclusion

Une intelligence artificielle reste une machine. Le contenu généré par ChatGPT est une bonne base pour gagner du temps et accélérer certains travaux (la rédaction d’un article par exemple), mais ne peut être utilisé tel quel. Nous conseillons de relire et vérifier l’exactitude et la véracité de ce qui a été produit.

À votre tour de tester l’outil ! Par ici : https://openai.com/blog/chatgpt/

Rédigé par Marceau Gerardin, UX/UI Designer à la Factory chez Saegus

Des champs d’application bien différenciés

Les mots “corrélation” et “causalité” sont souvent utilisés de manière égale, bien qu’ils aient des significations très différentes.

  • La corrélation indique une relation : deux variables sont corrélées lorsqu’elles affichent une tendance à la hausse ou à la baisse.
    Exemple : la consommation de mozzarella est corrélée au nombre de doctorats en ingénierie civile, mais l’un n’est sûrement pas la cause de l’autre. 
  • La causalité caractérise un lien de cause à effet. La cause est en partie responsable de l’effet et l’effet dépend en partie de la cause.
    Exemple : une nourriture trop sucrée peut être une des causes de surpoids. 

La corrélation étant une interprétation statistique déjà largement décrite, nous nous attacherons ici à partager quelques champs d’application de l’analyse de causalité, et plus particulièrement le mécanisme d’inférence causale

L’inférence causale est un processus visant à tirer une conclusion entre le lien de causalité et les conditions d’occurrence d’un effet. 

La méthode “logique” pour décrire ce processus est simple :  

  • Il s’agit dans un premier temps d’identifier le “champ des possibles”, c’est-à-dire les variables descriptives liées aux causes potentielles ; 
  • Dans un second temps, de comprendre l’influence de ces causes sur la variable d’effet (ou variable target), et plus exactement le lien de causalité à partir des conditions d’occurrence d’un effet ; 
  • Une fois ce lien établit, il est alors possible d’utiliser cette connaissance pour réaliser des analyses prescriptives

Note : rappel des niveaux de maturité  

  1. Aucune analyse : on parle ici des entreprises n’ayant pas de processus analytique en place ; 
  1. Analyse descriptive : nous permet de savoir ce qu’il s’est passé en rassemblant et visualisant les données historiques ; 
  1. Analyse de diagnostic : identifie les modèles et dépendances dans les données disponibles, c’est-à-dire explique pourquoi quelque chose s’est produit ; 
  1. Analyse prédictive : crée des prévisions probables de ce qui se passera dans le futur, en utilisant des techniques de Machine Learning pour exploiter de gros volumes de données ; 
  1. Analyse prescriptive : fournit des options d’optimisation, une aide à la décision et des informations sur la manière d’obtenir le résultat souhaité. 

Initialement les principaux champs d’application de l’inférence causale étaient scientifiques : économie, médecine, biologie, génétique, sciences sociales… Aujourd’hui, son usage se généralise pour toucher des secteurs divers comme l’industrie du jeu, le retail ou l’e-commerce, ou plus généralement les applications liées aux “jumeaux numériques” (Digital Twin) dont l’objet est de créer des simulations numériques de phénomènes complexes.

Les limites d’une démarche expérimentale

L’analyse de causalité est un domaine qui se prête particulièrement bien à l’expérimentation, dans une approche purement scientifique. 

  • Le phénomène étudié est d’abord reproduit dans plusieurs environnements dans des conditions identiques ; 
  • L’analyste/scientifique modifie ensuite dans l’un des environnements une ou plusieurs variables pour comprendre leur influence sur l’effet recherché (la variable target). 

Néanmoins, il existe en pratique de nombreuses situations où ce scénario n’est pas applicable : 

  • Si les expériences sont contraires à l’éthique (exemple : vous ne pouvez pas faire fumer un enfant pour tester si la cigarette peut être une cause de cancer infantile) ; 
  • Si la cause ne dépend pas de vous (exemple : un concurrent lance un produit et vous souhaitez mesurer son effet sur vos ventes) ; 
  • Si la réalisation de l’expérience est trop coûteuse 
  • Si le phénomène à observer est trop complexe. 

Lorsque l’expérience n’est pas envisageable, l’utilisation de la donnée est un recours indispensable – elle permet de simuler des phénomènes complexes, facilement scalables, et de manière bien moins coûteuse (ressources humaines, logistique, temps d’étude…) qu’une expérimentation plus classique. 

Note : les deux approches peuvent être combinées pour maximiser la fiabilité des résultats, et éprouver la robustesse des modèles data-driven. 

Comment implémenter un moteur d’inférence causale ?

Plusieurs méthodes scientifiques permettent de construire les relations de causalité à partir de données historiques. La plus connue est celle de « PC » (Peter & Clark), qui est basée sur un algorithme de contraintes.

L’objectif est de construire initialement un graphe entièrement connecté (modélisant toutes les relations théoriques entre les variables) et d’utiliser des tests d’indépendance conditionnelle pour simplifier le graphe causal jusqu’à ce qu’il soit cohérent avec les données observées.   

Note : Dans cette approche, l’absence de liaison entre les 2 nœuds du graphe présente également une information précieuse – il est important de déterminer que deux variables n’ont pas de lien de causalité. 

La méthode consiste à rationaliser les résultats d’exploration pour répondre à des questions spécifiques (cibler l’effet à observer). Les informations causales extraites des données brutes sont modélisées sous la forme d’un “diagramme causal”, c’est-à-dire un graphe orienté qui affiche les relations causales entre les variables du modèle. Un diagramme causal comprend un ensemble de variables (ou nœuds). Chaque nœud est relié par une flèche à un ou plusieurs autres nœuds sur lesquels il exerce une influence causale ; un niveau de probabilité de cette influence y est associé. 

Le parcours du graphe entre deux nœuds suivant des flèches causales est un “chemin”. 

Pour les phénomènes complexes, nous recommandons fortement d’utiliser des bases de données graphes, qui permettent de faciliter la modélisation, les calculs et les parcours de graphe. 

Les outils ?

Les librairies de CI (Causal Inference) connaissent une évolution rapide avec de plus en plus de librairies disponibles et une meilleure intégration dans les systèmes d’information « data-driven ».  

Ci-dessous, une liste non-exhaustive des outils que nous recommandons : 

  • Dowhy, une librairie de CI récemment publiée par notre partenaire Microsoft 
  • Causal ML 
  • CausalNex 
  • EconML 
  • causalImpact

Base de données graphe fréquemment utilisée : 

  • Neo4j 
  • Cosmos DB avec l’API Gremlin 

Pour aller plus loin

Attention à l’industrialisation ! 

Comme souvent dans les projets d’intelligence artificielle, il y a un monde entre l’expérimentation sur un sous-ensemble et la capacité à l’automatiser et le rendre scalable sur des données réelles, qui plus est lorsque le phénomène est complexe (ex. Digital Twin pour l’industrie 4.0). 

Notre recommandation est d’intégrer à l’équipe un ingénieur MLOps dès les phases amont pour éviter de se retrouver in fine avec une expérimentation prometteuse mais non-scalable.

L’interprétabilité des algorithmes d’IA : un usage en plein essor  

L’application de l’IA à des usages règlementés (manipulation de données personnelles, octroi de crédits, fraudes…) nécessite un certain niveau de transparence dans la manière dont l’algorithme produit un résultat. 

La transparence et la traçabilité des modèles est un nouveau champ d’application pour les moteurs d’inférence causale. 

Nos experts ont créés à cet effet l’offre “Reliable ML“ : n’hésitez pas à nous contacter pour en savoir plus. 

Rédigé par Alexander Mikheev, Lead Tech Engineer au sein de notre département Data Driven

La sortie de crise Covid, combinée à la guerre en Ukraine a généré une inflation massive, amplifiée par la reprise économique, une relance budgétaire massive, des pénuries sur certaines matières premières et une tension sur le marché énergétique.

Cette inflation, estimée à 6,5% en France depuis un an, est compliquée à objectiver et mesurer tant elle touche de manière inégale les pays et secteurs. Les entreprises sont confrontées à une difficulté majeure : comment acheter au prix juste dans un contexte d’inflation généralisé ? Comment anticiper les effets de cette inflation sur l’activité des mois à venir ?

Martin Alteirac, Responsable Data for Sustainability chez Saegus, nous explique comment les directions procurement peuvent contribuer, en exploitant mieux leurs données, à minimiser les impacts de l’inflation sur la performance de leur entreprise.

Quelles données les entreprises peuvent-elles utiliser pour objectiver l’inflation ?

Les directions achats ont la chance de disposer pour la plupart d’une source de données critique : leur ERP (Enterprise Resource Planning). L’ERP stocke l’historique de la donnée nécessaire pour déterminer ce qu’une entreprise achète, à qui et où elle l’achète, et évidemment à quel prix. L’exercice n’est pas évident pour les entreprises, qui exercent souvent une activité globale dont les fournisseurs sont répartis dans le monde entier.

Cette première étape permet de construire une cartographie macroscopique des achats de l’entreprise et lister les principales catégories de produits, ou matières premières, ainsi que leur provenance. Cette étape est importante car elle permet d’identifier les types de données nécessaires pour mesurer l’impact de l’inflation dans ces pays. Elle permet également d’identifier les principaux marchés (combinaison d’une catégorie de produit et d’un pays de provenance) intéressants à vigiler.

Pour préciser la mesurer de l’inflation, il est intéressant de déterminer si d’autres sources de données peuvent être récupérées – par exemple, si l’entreprise stocke les offres de prix de ses fournisseurs avant même que les commandes soient passées.

Enfin, il est intéressant de mesurer l’impact potentiel de l’inflation sur les prix payés sur un marché en particulier. Si une partie de l’évolution des prix de vente est liée à des facteurs attribuables à l’inflation (évolution du coût des matières premières, coût du travail, coût de l’énergie…), ce n’est jamais le seul driver – l’équilibre de l’offre et la demande ou une situation concurrentielle sont par exemple des facteurs d’influence essentiels. Il est donc fondamental de réserver ce type d’exercice à des marchés au sein desquels l’évolution du prix payé est principalement liée à celui du coût de production (présence de la concurrence, équilibre entre l’offre été la demande, marges stables).

Une fois ces données internes collectées, il faut donc collecter des données économiques permettant la mesure de l’inflation ?

C’est effectivement l’étape suivante. En fonction du secteur d’activité de l’entreprise concernée, il faut identifier un ou plusieurs fournisseurs de données permettant de consulter en temps réel les données relatives à l’évolution des drivers de coûts dans les pays concernés.

Par exemple, si vous achetez du câble de cuivre en Indonésie, vous pouvez identifier les principaux indices ayant un impact sur son coût de fabrication dans le pays étudié : les salaires dans l’industrie, le coût de l’énergie, le coût du cuivre…

Les fournisseurs proposent en général des modèles de coûts associant ces indices unitaires pour reconstituer un modèle représentant l’évolution théorique des coûts de production, produit par produit.

Une fois ces données récoltées, il est alors possible de comparer l’évolution des prix payés à l’évolution du modèle de coût associé, donc d’objectiver l’impact réel de l’inflation dans l’évolution des prix proposée par le fournisseur. Ce type d’indice étant aussi disponible sous forme de forecasts, il est possible de réaliser des projections sur les prochains mois voire les prochaines années, même si le contexte actuel pousse à la prudence.

Ce type de mécanisme permet ensuite d’estimer l’évolution du prix d’achat d’un produit en fonction de l’évolution attendue de ses principaux drivers de coûts, tout en donnant une marge d’erreur sur cette prédiction.

Concrètement, par quel type d’outil ce type de démarche peut-il se matérialiser ?

La première étape constitue à vérifier que l’entreprise dispose de données suffisamment précises pour réaliser ce type d’étude. Cette étape permet en général de fixer un premier périmètre à adresser : une ou plusieurs familles de produits ayant une origine géographique claire.

Une fois que cette première étape est franchie, on construit une matrice associant à chaque couple (produit/provenance) un modèle de coût. Ce modèle est constitué d’une liste d’indices, auxquels sont associés un poids. Une fois que cette matrice est constituée, l’évolution des prix peut être comparée à l’évolution du modèle de coût associé. Il est alors possible d’identifier parmi les fournisseurs :

  • Ceux qui surperforment : dont l’évolution des prix est inférieure à celle de l’inflation théorique liée à l’augmentation de leurs coûts ;
  • Ceux qui sous-performent : dont l’évolution des prix est plus importante que l’inflation.

On va également être capable de produire des prévisions d’évolution des prix des produits en se basant sur les prédictions d’évolution des coûts de production de ces produits.

Il y a ensuite deux manières d’exploiter cette donnée :

  • La première est de l’injecter dans les systèmes d’information existants de l’entreprise. Si vous vous apprêtez à analyser les offres de prix de vos fournisseurs, il est intéressant de disposer d’une estimation du prix cible qui permet automatiquement d’évaluer la pertinence du prix proposé ;
  • La seconde est de développer des tableaux de bord interactifs analysant ce type de données de manière à la fois macro et micro, sur plusieurs types de produits et dans plusieurs pays. Il est ainsi possible de naviguer au sein des données pour faire des analyses à la carte.

L’intérêt de cette seconde approche est d’accéder à une information détaillée utilisable en phase de négociation financière. Si l’un de vos fournisseurs cherche à justifier l’augmentation d’un de ses prix par l’augmentation du coût de l’énergie ou d’une matière première à un certain pourcentage, il vous sera possible d’accéder en quelques clics à une information fiable permettant, le cas échéant, de contrer ses arguments si les hausses annoncées ne sont pas réelles ou si leur impact sur le coût de production est marginal.

Vous souhaitez découvrir comment la data peut outiller votre fonction achat ? Contactez nos expert·e·s.

Rédigé par Martin Alteirac, Responsable Data for Sustainability au sein de notre département Data Driven