Klaxoon & Jira : un duo efficace pour enrichir votre collaboration en équipe
Ici archive
Auteur/autrice : Hermine Loignon
En septembre 2021, nous vous présentions l’interopérabilité entre Klaxoon et Jira permettant d’enrichir votre collaboration. Klaxoon vient de l’annoncer, une nouvelle version de son intégration avec Jira est disponible… Nous l’avons testé pour vous !
L’objectif reste le même : vous permettre à vous et votre équipe de travailler avec fluidité et efficacité tout en maximisant la collaboration.
Si vous ne connaissez pas Klaxoon, voici une liste non-exhaustive des possibilités offertes par l’outil :
Enrichir vos réunions, qu’elles soient à distances ou en présentielles, grâce à son interface ergonomique ;
Récolter les avis de vos collaborateurs pendant les ateliers grâce à la création de sondages ou quiz ;
Passer de l’idée à l’action grâce au board « hybrid » ;
Et bien d’autres fonctionnalités encore.
Jira, destiné aux équipes travaillant en agile ou non, est un outil avancé de gestion de projets permettant :
La création de Product Backlog et le suivi des avancées des équipes en temps réel grâce à la création automatique de graphiques détaillés ;
L’alignement des équipes et la compréhension claire et partagée d’un projet. L’outil peut être connecté avec les environnements de développement pour les projets IT notamment;
L’automatisation de tâches ou processus, pour économiser du temps permettant et se concentrer sur l’évolution du projet ;
Et bien d’autres fonctionnalités encore.
L’intégration Jira-Klaxoon
L’utilisation conjointe de ces outils permet d’importer dynamiquement les tickets Jira dans un board Klaxoon hybride. L’avantage ? Allier la visualisation dynamique et la gestion de projet.
La nouvelle version de cette intégration propose plusieurs nouveautés clés, dont voici les bénéfices principaux.
Les demandes jira sont dorénavant des posts-it ayant des attributs
Pour rappel, en fusionnant avec Jira, l’objectif de Klaxoon est de permettre à ses utilisateurs d’organiser ou trier visuellement leurs tickets Jira. Grâce à l’interopérabilité, les demandes Jira sont affichées et modifiées en temps réel sur les deux outils.
Dans cette nouvelle version, le type de demande n’est plus signalée par une simple couleur de post-it, mais par un attribut. Il en est de même pour le statut du ticket.
De ce fait, les utilisateurs peuvent maintenant créer des couleurs ou catégories librement. En basculant dans la vue “colonne” du board Klaxoon, l’utilisateur peut créer autant de catégories et couleurs qu’il le souhaite pour mieux organiser visuellement son projet et/ou l’animation de sa réunion.
Obtenir plus d’informations sur une demande Jira depuis un post-it Klaxoon
En cliquant sur un post-it hybride, une nouvelle vue est maintenant disponible. Elle présente à gauche les informations du post-it (sujet et attributs) et à droite les informations relatives à Jira en lien avec ce post-it (assignement, priorité, date de création…). Un lien renvoyant vers le projet Jira en question apparaîtra, vous permettant de basculer simplement sur l’autre outil.
Exploiter le board Klaxoon en multi-projets
Sur votre board Klaxoon, l’intégration Jira vous propose de choisir le projet sur lequel vous souhaitez travailler. Nouveauté : la possibilité de sélectionner plusieurs projets Jira pour ajouter des tickets à votre board.
Vous pouvez également contrôler les options de filtre des tickets en utilisant le code JQL. Il vous permet de définir les filtres des tickets à importer suivant par exemple : la date de création, l’assignement, la priorité…
Ce qui n’a pas changé : la synchronisation automatique des tickets depuis Jira et Klaxoon
D’un point de vue méthodologique, il est recommandé de rédiger correctement les demandes sur Jira et renseigner l’intégralité des champs obligatoires, afin qu’elles soient compréhensibles par tous. Cependant, grâce à l’intégration, il est possible de transformer les idées Klaxoon en tickets Jira en quelques clics. Alors qu’il fallait jusqu’alors sélectionner les post-it un à un, il est maintenant possible de les sélectionner de façon groupée, puis les convertir en tickets Jira au sein d’un projet sélectionné.
Rendez vous ensuite dans le Product Backlog de votre projet Jira : enrichissez vos tickets d’informations complémentaires (description, priorité…). Ces informations se mettront automatiquement à jour sur votre board Klaxoon.
Créer des tickets directement depuis le board Klaxoon permet de gagner en rapidité et éviter de recopier chaque idée sur Jira. À noter : le processus inverse fonctionne également, à une différence près. Les tickets créés sur Jira sont automatiquement synchronisés sur le board Klaxoon mais sont disponibles dans une “inbox”. Il vous suffit de l’ouvrir pour décider les tickets que vous souhaitez incorporer. Cette procédure vous permet d’avoir la main mise sur ce qui est affiché sur le board.
Notre avis
Créativité, efficacité et transparence sont les mots qui peuvent définir la rencontre de Klaxoon et Jira.
Cette mise à jour permet de profiter pleinement des fonctionnalités de chaque outil : Klaxoon pour la collaboration, l’émergence d’idées et l’organisation des équipes et Jira pour l’alignement des équipes, la gestion de projet selon une fine maille et le suivi en temps réel des réalisations.
Pour résumer, cette intégration donne aux post-it une nouvelle dimension en leur donnant des attributs précédemment seulement visibles sur Jira. Le board Klaxoon peut être organisé selon plusieurs projets Jira, tout en offrant ses fonctionnalités clés comme la vue colonne. Il répond ainsi à de nouveaux cas d’usage. Enfin, la synchronisation des deux plateformes permet de garder la main sur ce qui est créé, décidé et réalisé à chaque instant durant la vie d’un projet.
Au sein de l’équipe Acceleration Tactics, département de Saegus expert des méthodes agiles et de la gestion de projets, nous utilisons au quotidien ces deux outils pour l’animation d’ateliers d’intelligence collective ou de nos instances agiles. Pour nous, cette intégration est importante car elle nous permet de fluidifier la transition de l’idée vers le ticket sans perte de temps ou d’information et d’assurer la transparence de chaque étape d’un projet.
Si vous souhaitez être accompagné·e dans l’adoption de ces outils ou vos projets de transformation agile, n’hésitez pas à contacter nos expert·e·s Acceleration Tactics !
En quelques années, nos pratiques de travail se sont transformées, faisant émerger de nouveaux usages : télétravail, travail hybride, horaires flexibles… En 2022, 35 % des salarié·e·s témoignent qu’ils pourraient quitter leur entreprise s’ils·elles sont contraint·e·s d’être en présentiel à temps plein. 37% pensent également que leur lieu de travail n’est pas agréable et se sentent, de ce fait, moins motivé·e·s. (1) Les entreprises doivent donc adapter leurs politiques RH pour éviter le désengagement de leurs talents.
L’expérience employé est ainsi devenue une priorité pour les entreprises pour renforcer l’engagement de leurs salarié·e·s – et en attirer de nouveaux·elles. À la lumière de ce constat, il est nécessaire de repenser l’approche imaginée jusqu’alors pour (re)créer un environnement propice aux échanges, à la créativité et à la collaboration.
Ces interactions peuvent être physiques et virtuelles, mais aussi hybrides. Nous le voyons : la frontière entre le réel et virtuel s’estompe, offrant de nouvelles possibilités mais aussi problématiques à résoudre. Renforcer le lien au sein d’une équipe multisites, échanger avec le personnel de terrain, négocier avec des clients à l’autre bout du monde, créer des expériences immersives et ludiques au sein d’un team building ou pour le lancement d’un nouveau produit… Le champ des possibles de la collaboration hybride est immense et reste à explorer. “Nous n’arrêtons jamais d’explorer, et le terme de toute exploration sera le retour au point de départ”, disait Thomas Stearns Eliot.
Pour mieux explorer ces usages hybrides, il faut bien s’équiper. Le navire recherché ? Une technologie visant à recréer un espace collectif partagé, en temps réel.
C’est la promesse du métavers. Celle de “la fusion d’un univers virtuel avec des fonctionnalités qui sont ancrées dans le réel” (2) “pour retrouver en ligne le sentiment d’être entièrement présent, qui est propre au monde physique.” (3) Si l’on parle beaucoup de l’intérêt du métavers pour les lieux de rencontre informels ou les jeux vidéos, comment peut-il être appliqué à la collaboration ? Dans quelle mesure est-il un environnement optimal pour travailler ensemble ? Comment peut-il répondre à certains enjeux de la transformation de l’expérience employé ?
C’est ce que Saegus et Metagellan proposent d’explorer ensemble : démultiplier les usages de l’expérience employé dans le métavers. Grâce à ce partenariat, nous allions deux expertises, celle d’un acteur du conseil qui met l’employé·e et ses usages au cœur de son approche et celle d’un éditeur d’une plateforme facilitant l’accès au métavers.
Notre volonté est d’identifier et tester les nouveaux usages liés au métavers pour connaître leur valeur ajoutée et accompagner nos clients dans l’adoption de ces derniers. Tout comme Magellan (ou presque !), nous nous lançons dans l’aventure et débutons ce partenariat par une phase exploratoire pour préparer l’avenir.
“Je suis convaincue que le métavers permet de lever certaines barrières liées à la distance, à la langue ou encore à l’image de soi. Interagir dans le métavers, c’est organiser par exemple un séminaire d’équipe ou un forum de recrutement avec des personnes aux 4 coins du monde. Il ne s’agit pas de remplacer les interactions physiques mais de créer une nouvelle possibilité de travail permettant de contourner les contraintes du physique et du virtuel.
C’est d’ailleurs ce que nous avons expliqué aux Champions internationaux d’Orange en décembre dernier lors d’une Learning Expedition virtuelle. À cette occasion, les Champions – qui ont pour mission de relayer les nouvelles pratiques de travail d’Orange – ont découvert quelques cas d’usage liés au métavers illustrés par une démonstration. C’était un moment inspirant et immersif qui nous a permis à tou·te·s de voir l’expérience employé sous un nouvel angle.”
“Nous sommes ravis de démarrer ce partenariat avec Saegus. Les barrières d’accès au métavers sont pour le moment nombreuses : compréhension de ces nouveaux environnements virtuels, accessibilité, modélisation 3D et développement…
Les entreprises sont pourtant bel et bien à l’écoute de ce nouveau marché et souhaitent explorer son potentiel. Les solutions digitales innovantes que le métavers offre leur permettront de réinventer l’expérience collaborateur, notamment lors d’évènements corporate, séances de team-building ou autre forme d’animation digitale.
Notre solution Metagellan permet de franchir ces obstacles et faciliter l’accès à ces nouveaux univers pour toute société souhaitant y faire ses premiers pas. Notre collaboration avec Saegus, grâce à leur expertise dans l’expérience utilisateur digitale, nous permet d’offrir des solutions adaptées aux besoins de nos clients.”
ChatGPTest un chatbot développé par Open AI, une organisation spécialisée dans la recherche en intelligence artificielle co-fondée par Sam Altman et Elon Musk, également à l’origine de DALL-E. La version de ChatGPT actuellement proposée est la 3.5, plusieurs versions ayant été mises en ligne précédemment.
ChatGPT est un modèle entraîné sur des milliards de données qu’il puise dans le web pour générer une conversation similaire à celle d’un humain. Il utilise des techniques de machine learning pour améliorer ses prédictions selon les données d’entraînement qu’il a reçues. En d’autres mots : plus le modèle a reçu de requêtes, plus il s’entraîne sur un large corpus de textes et est donc capable de générer des réponses cohérentes en autonomie. Il se nourrit également des retours que l’utilisateur·rice lui fait sur la pertinence ou non de ses réponses.
Essayons-le !
Ce que j’aime
ChatGPT est gratuit et disponible en français ;
Développement : le chatbot offre une infinité de possibilités. Et notamment, en une simple requête, il peut générer des lignes de code ;
L’outil se prête facilement à mes utilisations personnelles : c’est une aide précieuse pour mon travail quotidien de designer (rédaction de documents, traduction, réponse à des questions techniques…). Le plus ? ChatGPT livre du contenu pertinent et utilisable plutôt que du lorem ipsum.
Ce que j’aime moins
Biais : ChatGPT peut délivrer des informations incorrectes voire discriminantes. Ce ne sera pas le premier cas de ce fait constaté. Parce que l’intelligence artificielle est entraînée sur des données fournies par des humains – soit donc, l’interprétation du monde par les êtres humains – elle comporte des biais, par exemple racistes ou sexistes ;
Subjectivité : si une question n’est pas posée distinctement et directement, ChatGPT peut mal l’interpréter et fournir une réponse erronée.
L’outil répond à certaines questions inappropriées et illégales. Pour cette raison, OpenAI a doté ChatGPT d’un outil de modération de contenus qui classe les demandes selon des catégories types (violence, haine…).
Ce que j’ai apprécié en tant que Designer
“Le mieux est l’ennemi du bien.” Pourquoi faire compliqué quand on peut faire simple ? En deux clics, je suis redirigé vers le chatbot et peux commencer à poser mes questions. L’interface est simple et claire. Une inscription et connexion par mail suffisent.
Sur la colonne de gauche, je retrouve l’historique de mes conversations avec le chatbot. Je peux également les reprendre où je les ai laissées. J’apprécie particulièrement la possibilité de passer le chatbot en dark/light mode pour le confort des yeux.
Dans un effort de transparence, OpenAI donne un certain nombre d’informations utiles à l’utilisateur dès son arrivée sur le chatbot : à la première utilisation, plusieurs explications apparaissent à l’écran (l’outil est en cours de développement, les informations peuvent être erronées, collecte de la data, importance du feedback pour améliorer l’outil…). Plusieurs ressources détaillant le fonctionnement du chatbot (sources d’information, amélioration continue…) sont également disponibles sur la première page du site.
Si l’on étudie le motion, on constate que l’apparition des informations se fait progressivement, donnant l’impression que l’intelligence artificielle “réfléchit” pour donner une information exacte. Ce temps de réflexion animé n’est pas gênant, bien au contraire : il permet aux lecteur·rice·s de digérer les informations livrées au compte-gouttes. Si elles étaient données d’un seul tenant, elles pourraient être indigestes ; l’expérience utilisateur en souffrirait.
Conclusion
Une intelligence artificielle reste une machine. Le contenu généré par ChatGPT est une bonne base pour gagner du temps et accélérer certains travaux (la rédaction d’un article par exemple), mais ne peut être utilisé tel quel. Nous conseillons de relire et vérifier l’exactitude et la véracité de ce qui a été produit.
La sortie de crise Covid, combinée à la guerre en Ukraine a généré une inflation massive, amplifiée par la reprise économique, une relance budgétaire massive, des pénuries sur certaines matières premières et une tension sur le marché énergétique.
Cette inflation, estimée à 6,5% en France depuis un an, est compliquée à objectiver et mesurer tant elle touche de manière inégale les pays et secteurs. Les entreprises sont confrontées à une difficulté majeure : comment acheter au prix juste dans un contexte d’inflation généralisé ? Comment anticiper les effets de cette inflation sur l’activité des mois à venir ?
Martin Alteirac, Responsable Data for Sustainability chez Saegus, nous explique comment les directions procurement peuvent contribuer, en exploitant mieux leurs données, à minimiser les impacts de l’inflation sur la performance de leur entreprise.
Quelles données les entreprises peuvent-elles utiliser pour objectiver l’inflation ?
Les directions achats ont la chance de disposer pour la plupart d’une source de données critique : leur ERP (Enterprise Resource Planning). L’ERP stocke l’historique de la donnée nécessaire pour déterminer ce qu’une entreprise achète, à qui et où elle l’achète, et évidemment à quel prix. L’exercice n’est pas évident pour les entreprises, qui exercent souvent une activité globale dont les fournisseurs sont répartis dans le monde entier.
Cette première étape permet de construire une cartographie macroscopique des achats de l’entreprise et lister les principales catégories de produits, ou matières premières, ainsi que leur provenance. Cette étape est importante car elle permet d’identifier les types de données nécessaires pour mesurer l’impact de l’inflation dans ces pays. Elle permet également d’identifier les principaux marchés (combinaison d’une catégorie de produit et d’un pays de provenance) intéressants à vigiler.
Pour préciser la mesurer de l’inflation, il est intéressant de déterminer si d’autres sources de données peuvent être récupérées – par exemple, si l’entreprise stocke les offres de prix de ses fournisseurs avant même que les commandes soient passées.
Enfin, il est intéressant de mesurer l’impact potentiel de l’inflation sur les prix payés sur un marché en particulier. Si une partie de l’évolution des prix de vente est liée à des facteurs attribuables à l’inflation (évolution du coût des matières premières, coût du travail, coût de l’énergie…), ce n’est jamais le seul driver – l’équilibre de l’offre et la demande ou une situation concurrentielle sont par exemple des facteurs d’influence essentiels. Il est donc fondamental de réserver ce type d’exercice à des marchés au sein desquels l’évolution du prix payé est principalement liée à celui du coût de production (présence de la concurrence, équilibre entre l’offre été la demande, marges stables).
Une fois ces données internes collectées, il faut donc collecter des données économiques permettant la mesure de l’inflation ?
C’est effectivement l’étape suivante. En fonction du secteur d’activité de l’entreprise concernée, il faut identifier un ou plusieurs fournisseurs de données permettant de consulter en temps réel les données relatives à l’évolution des drivers de coûts dans les pays concernés.
Par exemple, si vous achetez du câble de cuivre en Indonésie, vous pouvez identifier les principaux indices ayant un impact sur son coût de fabrication dans le pays étudié : les salaires dans l’industrie, le coût de l’énergie, le coût du cuivre…
Les fournisseurs proposent en général des modèles de coûts associant ces indices unitaires pour reconstituer un modèle représentant l’évolution théorique des coûts de production, produit par produit.
Une fois ces données récoltées, il est alors possible de comparer l’évolution des prix payés à l’évolution du modèle de coût associé, donc d’objectiver l’impact réel de l’inflation dans l’évolution des prix proposée par le fournisseur. Ce type d’indice étant aussi disponible sous forme de forecasts, il est possible de réaliser des projections sur les prochains mois voire les prochaines années, même si le contexte actuel pousse à la prudence.
Ce type de mécanisme permet ensuite d’estimer l’évolution du prix d’achat d’un produit en fonction de l’évolution attendue de ses principaux drivers de coûts, tout en donnant une marge d’erreur sur cette prédiction.
Concrètement, par quel type d’outil ce type de démarche peut-il se matérialiser ?
La première étape constitue à vérifier que l’entreprise dispose de données suffisammentprécises pour réaliser ce type d’étude. Cette étape permet en général de fixer un premier périmètre à adresser : une ou plusieurs familles de produits ayant une origine géographique claire.
Une fois que cette première étape est franchie, on construit une matrice associant à chaque couple (produit/provenance) un modèle de coût. Ce modèle est constitué d’une liste d’indices, auxquels sont associés un poids. Une fois que cette matrice est constituée, l’évolution des prix peut être comparée à l’évolution du modèle de coût associé. Il est alors possible d’identifier parmi les fournisseurs :
Ceux qui surperforment : dont l’évolution des prix est inférieure à celle de l’inflation théorique liée à l’augmentation de leurs coûts ;
Ceux qui sous-performent : dont l’évolution des prix est plus importante que l’inflation.
On va également être capable de produire des prévisions d’évolution des prix des produits en se basant sur les prédictions d’évolution des coûts de production de ces produits.
Il y a ensuite deux manières d’exploiter cette donnée :
La première est de l’injecter dans les systèmes d’information existants de l’entreprise. Si vous vous apprêtez à analyser les offres de prix de vos fournisseurs, il est intéressant de disposer d’une estimation du prix cible qui permet automatiquement d’évaluer la pertinence du prix proposé ;
La seconde est de développer des tableaux de bord interactifs analysant ce type de données de manière à la fois macro et micro, sur plusieurs types de produits et dans plusieurs pays. Il est ainsi possible de naviguer au sein des données pour faire des analyses à la carte.
L’intérêt de cette seconde approche est d’accéder à une information détaillée utilisable en phase de négociation financière. Si l’un de vos fournisseurs cherche à justifier l’augmentation d’un de ses prix par l’augmentation du coût de l’énergie ou d’une matière première à un certain pourcentage, il vous sera possible d’accéder en quelques clics à une information fiable permettant, le cas échéant, de contrer ses arguments si les hausses annoncées ne sont pas réelles ou si leur impact sur le coût de production est marginal.
Vous souhaitez découvrir comment la data peut outiller votre fonction achat ? Contactez nos expert·e·s.
Rédigé par Martin Alteirac, Responsable Data for Sustainability au sein de notre département Data Driven
Alors que la crise COVID perturbe encore l’économie mondiale, notamment en Chine qui continue à imposer régulièrement des confinements, la crise ukrainienne a déclenché une forte tension et envolée des prix sur les marchés de l’énergie. Dans un même temps, la lutte contre le réchauffement climatique devient une préoccupation majeure de la société, comme l’illustre la multiplication des règlementations sur le sujet.
Un secteur est particulièrement touché car souvent électro-intensif : l’industrie. Pour les industriels, disposer d’une énergie fiable et bon marché est une impérieuse nécessité. Dans un contexte où la disponibilité du parc nucléaire français est mise à mal par des problématiques de maintenance, le prix élevé de l’énergie et risque de pénurie fait peser sur lui une menace importante.
Martin Alteirac, Responsable Data for Sustainability chez Saegus, nous explique comment les industriels peuvent adopter une démarche data driven pour optimiser leur consommation énergétique, réduire leurs émissions de gaz à effet de serre et in fine assurer leur performance économique.
Quel est l’impact de la crise énergétique en cours sur l’industrie ?
Son impact est massif car cette crise, liée à la baisse de l’offre dans un contexte de reprise mondiale de la demande, a pour effet d’augmenter les prix de l’énergie et faire peser sur les entreprises le risque de coupures.
Tout d’abord, il faut se rendre compte que les prix de gros sur les marchés de l’électricité ont été multipliés par 10 entre le premier trimestre 2019 et le dernier trimestre 2022. Évidemment, il est probable que cette hausse massive ne soit qu’un pic à passer, mais les analystes prédisent que les prix de l’énergie resteront durablement à des niveaux élevés : il est probable que le monde post COVID soit un monde ou l’énergie restera près de quatre fois plus chère qu’elle ne l’était auparavant.
Pour l’industrie, un chiffre suffit à mesurer l’impact de cette hausse : pour un industriel dont l’énergie constituait 20% du coût de production avant la crise, cette même énergie représentera demain 50% de son coût de production, engendrant une augmentation de 60% de celui-ci.
Ensuite, sur la disponibilité : alors que les premières températures négatives sont annoncées et que le gouvernement annonce que des plans de délestage (de coupures) sont à l’étude, il est évident que la hausse des prix ne permettra même pas de garantir la disponibilité de l’énergie. C’est une contrainte insurmontable pour un pan de l’industrie qui a besoin de fonctionner en continu pour des raisons de process industriel (aciérie, verrerie…) ou de contraintes en matière de respect de la chaine du froid (industrie agroalimentaire et pharmaceutique).
Pour faire face à ces deux difficultés, la sobriété énergétique est une réponse efficace car elle permet de limiter le risque de pénurie et l’impact économique de cette hausse des tarifs.
Pourquoi sobriété énergétique et décarbonation sont-ils souvent abordés de concert ?
La première raison est mathématique : l’énergie représente (en moyenne) plus de 50% de l’empreinte carbone de l’industrie. Optimiser sa consommation énergétique est donc un moyen très efficace de diminuer son empreinte carbone. L’impact d’une démarche de réduction de consommation énergétique sur l’empreinte carbone dépend néanmoins du mix énergétique de l’industrie concernée.
Son impact est maximal lorsque l’énergie utilisée est majoritairement d’origine fossile : gaz évidemment, mais aussi pétrole même si celui-ci se fait (heureusement) de plus en plus rare. Lorsque l’énergie utilisée est majoritairement électrique, l’impact dépendra alors de l’intensité carbone de l’électricité. Sur cet aspect des disparités importantes existent au niveau mondial et européen.
En France sur les 12 derniers mois, l’intensité carbone était de 117g de CO2 par kwh d’électricité, que l’on peut comparer à quelques autres pays :
L’Allemagne : 513g/kwh
La Pologne : 875g/kwh
La Suède : 21g/kwh
Les États Unis : 522g/kwh
La Chine : 766g/kwh
En fonction de l’énergie utilisée et de la localisation de la production, l’impact d’une réduction de la consommation énergétique sur l’empreinte carbone sera donc à quantifier précisément.
Une autre raison poussant les entreprises à mutualiser ce type d’initiatives tient à l’autre inflation, règlementaire cette fois, qui demande aux industriels des efforts sur leur consommation énergétique mais également sur leurs émissions de gaz à effet de serre.
La stratégie nationale bas carbone prévoit une diminution des émissions de gaz à effet de serre de près de 35% à l’horizon 2030, ce qui nécessite de réduire tous les ans ces émissions de 3,5%.
Enfin, la dernière raison qui pousse fréquemment à travailler ces sujets de concert tient aux dispositifs de financement permettant d’optimiser le retour sur investissement de projets d’optimisation de la consommation énergétique industrielle. Des fonds sont mis à disposition par l’État dans le cadre du plan France Relance pour décarboner l’industrie, fond qui sert souvent à financer des projets de réduction de la consommation énergétique.
Comment la data peut-elle permettre de réduire sa consommation énergétique et ses émissions de gaz à effet de serre ?
Mesurer la consommation énergétique d’un site industriel avec la finesse nécessaire pour identifier des pistes d’optimisation concrètes et activables n’est pas aisé. Une grande partie des équipements industriels ne sont pas encore connectés voire ne produisent aucune donnée. Il faut donc commencer par identifier les données disponibles et mettre en place ou moderniser les systèmes de récupération, stockage et valorisation de ces données.
Ce dispositif de mesure permet d’abord d’objectiver le point de départ. Une fois cette étape franchie, il devient alors possible d’identifier les postes et les types de production les plus consommateurs. Deux types d’actions peuvent être mises en place :
Modernisation ou remplacement de certains équipements du process de production ;
Optimisation du process de production : une modification de la stratégie d’ordonnancement ou du réglage du process.
Plus largement, une mesure granulaire en temps réel permettra d’intégrer le critère énergétique, voire le critère carbone, dans l’organisation des opérations.
Enfin, ce dispositif de mesure est essentiel pour mesurer l’impact réel des actions mises en place en permettant de comparer rapidement la réalité des économies réalisées par rapport à celles espérées. Cette mesure est essentielle pour mettre en place une amélioration continue de la performance énergétique, dynamique indispensable pour atteindre chaque année l’objectif de 3,5% d’économies d’énergie fixé par les pouvoirs publics.
Vous souhaitez découvrir comment la data peut vous permettre de mesurer et réduire votre consommation énergétique et vos émissions de gaz à effet de serre ?
Rédigé par Martin Alteirac, Responsable Data for Sustainability au sein de notre département Data Driven
Résumer ce qu’est l’expérience collaborateur en un seul paragraphe est une tâche bien trop ambitieuse… bien trop ambitieuse tant le sujet est vaste.
Mais j’aime les défis, alors je m’y risque quand même !
Avant de m’y risquer, je me permettrai quelques anglicismes pour plus de facilité et je parlerai dans cet article d’EMEX pour définir l’expérience collaborateur (EMployee EXperience).
Lorsque nous avons parlé pour la première fois d’EMEX, celle-ci est venue se mettre en miroir de l’expérience client. Nous avons alors évoqué l’EMEX comme l’ensemble des interactions et expériences vécues par un collaborateur au sein de l’entreprise, dans les moments clés de son parcours comme dans son quotidien professionnel, de son recrutement (onboarding) jusqu’à son départ (offboarding).
Depuis, cette définition s’est enrichie. Plusieurs autrices et auteurs ont affiné cette analyse et cette description.
L’un des plus inspirants est, selon moi, Jacob Morgan. Il est d’ailleurs biographié comme un conférencier, auteur, mais aussi futuriste. Son dernier ouvrage, The Employee Experience Advantage*, donne de nombreuses pistes pour documenter l’EMEX et définir une stratégie ambitieuse pour offrir la meilleure expérience possible à tous les talents de votre entreprise.
L’avantage du point de vue de Jacob Morgan est d’enrichir la réflexion en positionnant 3 environnements pour définir ce que représente l’expérience d’un collaborateur.
Pour chaque environnement, il y a des briques et sujets à adresser pour garantir que l’EMEX est bonne. Tout l’intérêt de sa vision réside dans la connexion de ces 3 environnements. Dès lors, on ne peut traiter de l’EMEX qu’en s’attachant à investiguer les 3 environnements.
Pourquoi je vous parle de ce contexte ?
Parce que s’il y a bien un sujet qui parcourt les 3 environnements, c’est le Learning.
Car oui, offrir des programmes de développement de carrière est une décision nécessaire pour avoir des collaborateurs fidèles et plus performants. Donner des perspectives d’évolution permet de créer une culture d’entreprise saine, dans laquelle la strate managériale comprend mieux les besoins et aspirations des personnes sous leur responsabilité.
Saviez-vous par exemple que Sephora a créé une plateforme entièrement dédiée à la formation ?
Les bénéfices de telles initiatives sont nombreux :
Les personnes formées se sentent valorisées
Les personnes formées améliorent leur performance
Les personnes formées apprennent de nouvelles choses et enrichissent leur domaine de compétence
Les entreprises formatrices nourrissent leur image de marque employeur
Les entreprises formatrices retiennent leurs Talents
Les entreprises formatrices génèrent de l’attraction candidat
C’est vous dire à quel point ce sujet devient stratégique pour le People Management.
Une question majeure se pose alors ; quel est le point d’entrée pour les contenus dédiés au Learning ? Car oui, pour offrir aux collaborateurs une expérience sans couture, il convient de se poser la question de leur parcours. Comment accéder aux contenus ? Comment les partager ? Comment adapter ces contenus au profil de chaque collaborateur·rice ?
Tadam !
C’est là qu’entre en scène la plateforme d’expérience employé (nous avons définitivement décidé de stopper l’utilisation du mot “intranet”).
Il y a un fort intérêt aujourd’hui à considérer une plateforme d’EMEX comme un Hub et un point d’accès unique pour accéder à des contenus multiples. L’offre de Learning est évidemment une part importante des contenus que les organisations devraient être en mesure de proposer de façon simple.
Je vois plusieurs avantages à positionner les contenus Learning sur les plateformes d’EMEX.
Un point d’entrée unique
Je crois fortement que nos entreprises de demain seront toutes digitalisées. Ceux qui auront fait le pari de considérer une plateforme performante aujourd’hui seront les entreprises innovantes de demain. Évidemment, quand je parle de point d’entrée unique, je pense aussi aux populations frontline qui, encore aujourd’hui, se trouvent trop peu adressées et embarquées dans ces sujets.
Un contenu adapté
Si votre plateforme a été provisionnée et profilée à partir d’une source de vérité unique, vous pourrez alors personnaliser votre contenu en fonction de vos utilisateurs. Ce souhait ne devrait pas être un rêve inaccessible. Nos talents internes méritent une expérience unique et immersive.
Une communication facilitée
Puisque tous vos contenus se trouvent sur une seule interface, vous aurez tout à gagner à créer des points de communication multiples pour promouvoir vos contenus de formation : dans vos communautés, sur vos pages froides, dans des news chaudes… Vous aurez même la possibilité de créer des campagnes de communication spécifiques et des push de notification pour garantir aux utilisateurs la possibilité de trouver la bonne information au bon moment.
Une conception unifiée
En disposant d’une plateforme unique, nous pouvons également harmoniser les prises de parole. Cela permet à nos utilisateurs de développer une relation plus étroite avec la marque employeur et renforcer leur sentiment d’appartenance – étant l’un des enjeux ultimes de l’EMEX.
J’ai travaillé récemment sur plusieurs sujets de plateformes d’expérience employé et ai eu à résoudre ces problématiques. Bien heureusement, certains éditeurs prennent déjà une longueur d’avance en adressant dès à présent le volet Learning et en le valorisant comme un cas d’usage majeur.
C’est le cas de LumApps, qui considère le site d’une organisation comme une Digital Workplace à part entière. Au-delà des traditionnelles attentes en termes de communication interne et partage communautaire, on constate une forte attente concernant l’accès à des contenus de formation et développement. En intégrant ces contenus à une plateforme LumApps, nous réussissons le challenge de mettre à disposition de l’utilisateur toutes les informations qui lui seront utiles.
Vous serez alors en mesure de promettre “une plateforme unique pour des expériences infinies”.
Et c’est alors que la magie opère…
Vous vous souvenez de mon illustre compagnon de lecture Jacob Morgan ? En positionnant le Learning sur une plateforme d’expérience collaborateur, nous aurons réalisé un travail sur :
L’environnement physique puisque nous aurons mis ces contenus à disposition sur une Digital Workplace ;
L’environnement technologique puisque nous offrirons à nos utilisateurs une interface sans couture qui facilitera leur accès à l’information ;
L’environnement culturel puisque nous aurons renforcé notre image de marque employeur et, plus globalement, nous aurons soutenu notre EVP (employee value proposition).
Je vais donc clôturer cet article en citant Jacob Morgan (in English of course, ses livres n’étant pas encore traduits… What a pity !) :
Learning and development is designed to make sure that employees never stop learning and adapting to the changing world. Learning and development helps make sure that we continue to grow as individuals. Instead of taking learners to great learning, you should be taking great learning to your learners. This means that you can be anywhere in the world and get access to a top-notch learning infrastructure.
Que vous soyez à la DSI, la RH, la Com, en équipe de LMS, que vous fassiez du People Management, emparez-vous de ce sujet, et vite !
Vous souhaitez en savoir plus ou être accompagnés par nos équipes de la Factory ?
*Source : The Employee Experience Advantage – Jacob MORGAN – 2017
Le développement de biens et services centrés utilisateurs invite les organisations à améliorer les méthodes, outils et processus de recherche utilisateur. Pour ce faire, des outils pensés pour faciliter les activités de recherche intègrent progressivement les processus de travail des équipes.
Daniel Pidcock, chercheur spécialiste en UX, a puisé dans les difficultés rencontrées par ses équipes au quotidien pour développer une méthodologie et un outil destiné à capitaliser efficacement les données de la recherche utilisateur :Glean.ly.
Le premier outil dédié à l’Atomic Research
Qui de mieux pour concevoir un outil basé sur une méthodologie que celui qui en est le créateur ? Lors de sa conférence sur l’Atomic Research à l’UX Brighton en 2018, Daniel Pidcok a dévoilé l’outil qu’il a pensé pour faciliter la recherche utilisateur avec ces mots : “What if our UX knowledge was in a searchable and shareable format?” (“Et si l’ensemble de nos connaissances UX était accessible sous un format facilement recherchable et partageable ?”).
Fondée sur la base théorique de l’Atomic Design, l’Atomic Research est une méthodologie visant à étudier un objet en le découpant en plusieurs éléments pouvant être examinés à la fois sous leur forme primaire et de façon relative par rapport à d’autres éléments.
Si l’Atomic Design entend identifier les éléments composant une structure visuelle donnée, l’Atomic Research reprend quant à lui la structure de la synthèse d’une recherche utilisateur pour catégoriser les informations obtenues et les lier entre elles.
Les expériences (questionnaires, entretiens) engendrent des faits et objectifs neutres (80% des utilisateurs ne cliquent pas sur le bouton rouge), qui nous poussent à supposer des insights (“les utilisateurs préfèrent les boutons verts”) desquels nous pouvons déduire des recommandations (“il faut remplacer les boutons rouges par des boutons verts”).
Glean.ly s’appuie sur cette structure pour faciliter le travail de l’UX Researcher en lui permettant de naviguer au sein d’un ensemble d’informations ordonnées et interconnectées.
Les fonctionnalités clés de l’outil
Nous l’avons vu, l’outil repose sur l’adaptation du modèle de l’Atomic Research. Les fonctionnalités clés de Glean.ly sont donc par nature des moyens de valoriser l’interconnexion des données de la recherche utilisateur.
Cartes interconnectées
Chaque élément des étapes de l’Atomic Research est représenté sous forme de carte. Chaque carte est reliée à celle qui la justifie ainsi qu’à celle qu’elle permet de déduire.
Grâce à cette structure, les recommandations issues d’une recherche utilisateur sont justifiées par des faits objectifs qui permettent de valider ou non des hypothèses appelées insights, sur la base desquels des recommandations sont réalisées puis testées.
Les cartes interconnectées favorisent une démarche itérative, puisque les tests utilisateurs effectués d’après les recommandations faites par l’outil alimentent une série de faits qui entameront un nouveau cycle de la recherche utilisateur.
Enfin, les éléments d’une étape peuvent être rassemblés en une liste ; l’arborescence au sein de laquelle un élément se trouve apparaît lorsque l’on clique sur une carte.
Un classement intelligent des informations
Pour améliorer la pertinence des données collectées, Glean.ly a conçu des métadonnées triables sous forme de filtres, tags et scores :
Les filtres sont personnalisables par l’administrateur et concernent par défaut :
Les sentiments (positif, neutre, négatif)
Le type de l’insight (principe, conseil, transitoire)
La priorité (classée de 1 à 5)
La facilité de mise en œuvre (classée de 1 à 5)
L’échelle de mise en œuvre (d’une personne à toute l’entreprise)
Le statut de la recommandation (rejetée, complétée, approuvée, réutilisable…)
Les tags correspondent à des étiquettes – elles aussi personnalisables – permettant de naviguer entre les données grâce à une simple recherche précise. Il est également possible de se rendre dans le menu des tags et de trouver le nombre d’occurrences qui y sont associées.
Le système de score permet de préciser les informations récoltées : au coin de chaque carte, un score correspond à la somme des cartes antérieures qui la prouvent ou l’infirment.
Par exemple, si 3 insights valident une recommandation, mais que 2 insights l’invalident, le score de la recommandation sera de : 1.
Import/Export
Entrer manuellement des dizaines de faits peut être chronophage. Glean.ly permet de les importer sous 3 formats :
Aux formats .XLS, .XLSX et .CSV. Les feuilles de calcul peuvent être importées dans l’outil, qui héberge notamment Microsoft Excel, Miro et Maze.ermettant ainsi l’intégration avec Microsoft Excel, autres tableurs ainsi qu’avec Miro et Maze ;
L’extension Glean.ly (disponible sur le Chrome Web Store) offre la possibilité de convertir un contenu textuel provenant d’Internet en fait ;
L’intégration Zapier (payante) permet d’importer des données directement dans l’outil mais la prise en main peut être fastidieuse.
Invitation membre
Glean.ly permet d’inviter des collaborateurs sur votre espace à partir de leur adresse email. Vous pouvez leur attribuer l’un de ces trois statuts :
View Only (“lecture seule”) : les nouveaux collaborateurs peuvent consulter votre annuaire d’expériences, faits, insights et recommandations ;
Contributor (“contributeur”) : en plus d’un accès aux fonctionnalités du statut précédent, les invités pourront entrer des informations dans l’annuaire ;
Administrator (“administrateur”) : l’invité dispose de l’ensemble des droits ; il peut même personnaliser les filtres, gérer l’abonnement et modifier les tags.
Notre avis d’expert
Un outil spécifique
L’outil est très précis sur la recherche utilisateur ; c’est une force, mais peut aussi être une faiblesse selon l’axe de travail choisi.
Centré sur la recherche utilisateur, l’outil est moins facilitant pour le reste du processus comme l’idéation ou le prototypage. Par ailleurs, l’intégration avec d’autres outils n’est pas toujours fluide ; la navigation entre ces derniers implique une perte de données, bien que Glean.ly valorise l’interconnexion des cartes dans sa promesse de vente.
Nous l’avons vu, si l’on prend uniquement en compte la recherche utilisateur (l’essence même de sa conception), l’outil est d’une efficacité redoutable.
Une expérience utilisateur prometteuse
L’expérience utilisateur est plutôt satisfaisante dans l’ensemble, bien qu’elle puisse être améliorée, par exemple en fluidifiant le processus de création d’éléments. Le système de points attribué aux cartes n’est pas encore optimal, puisqu’il ne prend pas en compte la pondération, c’est-à-dire le poids de chaque information dans la justification d’une autre.
Nous ne pouvons pas passer à côté des gifs s’affichant au chargement des pages, ajoutant un côté “fun” à l’outil.
Une adaptation des normes RGPD à respecter
Cependant, il est clairement souligné que l’outil ne répond pas aux exigences du RGPD. Osons imaginer que Glean.ly sera bientôt compatible avec les normes européennes pour conquérir un marché qui ne lui est sûrement pas indifférent.
Un recueil et une capitalisation efficace
La récolte des faits depuis l’extension Chrome est un réel game changer dans une recherche utilisateur.
Par ailleurs, grâce à l’interconnexion et les filtres, l’outil promet une capitalisation accrue des informations et un gain de temps considérable. Il palie ainsi une navigation chronophage dans des masses informes de données. L’information est fluide, transparente, accessible et consultable par les équipes d’UX Researcher, ainsi que des métiers requérant de la visibilité sur le processus de recherche.
Un potentiel de taille
La recherche utilisateur est au cœur du Design Thinking. Faite avec rigueur, elle constitue un avantage concurrentiel de taille. C’est en tout cas le pari de l’Atomic Research, dans laquelle Glean.ly puise ses fonctionnalités. L’enjeu majeur de son évolution au cours des prochaines années ? Devenir incontournable dans la Research Ops.
Vous souhaitez essayer l’outil ou être accompagné·e·s par nos équipes Acceleration Tactics ?
Nouveau paradigme pour les architectures de données, le Data Mesh bouscule les modèles inventés et mis en œuvre ces dernières années qui reposent sur une approche fédératrice et centralisée des données.
Cette recherche de centralisation a pour objectif de casser les silos et stocker dans un espace commun les données pour en tirer un maximum de valeur et permettre de croiser des informations issues de différents domaines métiers. Elle a ainsi conduit à la création de Data Warehouses ou plus récemment de Data Lakes afin de rassembler les données de l’entreprise au sein d’une structure unifiée.
Le Data Mesh introduit une nouvelle approcheet une rupture avec le modèle de centralisation, en tirant parti des silos et en s’appuyant sur une organisation distribuée en réponse aux enjeux Data à l’échelle de l’entreprise.
Dans la mise en place d’une stratégie Data-Driven, les freins majeurs rencontrés par les entreprises pour passer à l’échelle sont souvent liés à une maturité Data hétérogène et à une organisation complexifiant les échanges. La recherche de centralisation au sein d’une architecture de type Data Warehouse ou Data Lake devient alors un goulet d’étranglement.
Le Data Mesh répond aux problématiques courantes liées à ces architectures, à savoir :
Le manque de connaissance métier au sein des équipes IT qui gèrent les données, ce qui entrainent parfois des incompréhensions et souvent des échanges multiples avec les équipes métiers, ralentissant fortement les processus ;
Un manque de flexibilité des plateformes de données centralisées qui conduit parfois à des solutions technologiques complexes ne pouvant répondre parfaitement à l’ensemble des spécificités ;
Une complexité et une latence forte dans la gestion des flux de données, chaque demande métiers nécessitant l’intégration des données dans l’architecture centralisée, rigidifiant cette dernière afin de répercuter les changements à tous les niveaux de la chaine de traitement.
La réponse ordinaire de centraliser pour mieux traiter n’est finalement pas la meilleure solution. Le Data Mesh apporte une nouvelle approche : ne pas lutter contre les silos mais s’appuyer dessus pour en tirer parti. Le but n’est pas de revenir à une vision complètement décentralisée mais d’adopter une approche fédérée pour conserver la maitrise du patrimoine informationnel de l’entreprise.
Le Data Mesh en quelques mots
Le Data Mesh repose donc sur une approche décentralisée ou distribuée équivalente à l’approche microservices dans l’architecture logicielle.
La notion de Data Mesh a été évoqué pour la première fois par Zhamak Dehghani (Monolithic Data Lake to a distributed Data Mesh) et a évolué pour devenir un concept établi. Il a fait l’objet d’une publication de référence en début d’année (Data Mesh, O’Reilly).
Le Data Mesh ne se résume pas à un concept technique ni à l’implémentation de briques technologiques. Il couvre l’étendue du spectre du Data Management et ses composantes, à savoir : organisation, compétences, méthodologies, gouvernance, architecture… Le Data Mesh se compose d’ensembles d’éléments appelés domaines de données. L’interconnexion de ces domaines formant ainsi le maillage (mesh) permet de donner une vision d’ensemble des informations métiers.
La notion de passage à l’échelle est un élément central et fournit un cadre de réponse aux freins pouvant être rencontrés. Par son approche globale, le Data Mesh constitue donc une approche adaptée pour répondre aux besoins de la stratégie Data-Driven :
Les réponses aux demandes de changement doivent être rapides : les modèles de données doivent pouvoir être modifiés rapidement et s’adapter aux besoins d’évolutions ;
Le nombre de producteurs de données est en évolution constante : nouvelles applications, nouvelles API…
Le nombre de consommateurs de données est en augmentation constante : nouvelles initiatives Data, nouveaux besoins métiers, augmentation des usages IA…
Le Data Mesh repose ainsi sur quatre grands piliers : Domaine, Produit, Plateforme et Gouvernance.
Data Domain : la connaissance est distribuée dans les différents domaines de données (dérivé du Domain Driven Design (DDD) d’Eric Evans). Les métiers, responsables des domaines, sont autonomes et responsables du pilotage de leurs initiatives Data ;
Data as a product : la donnée est gérée au sein des domaines comme un produit (Data Product). Avec le Data Mesh, les données deviennent le produit. Il revient à chaque domaine de données de mettre à disposition des produits tenant compte de leurs utilisateurs, leurs caractéristiques spécifiques et leur roadmap de développement. Ces produits sont fournis sous un format standardisé pour être utilisés à travers l’organisation ;
Self-service Data Infrastructure as aPlatform : une infrastructure self-service est mise en place pour gérer ces Data Products. Le Data Mesh nécessite la gestion d’une plateforme interopérable pour l’ensemble des domaines de données. Cette mutualisation vise à permettre aux différents domaines de provisionner des ressources techniques à la demande pour la création des Data Products. L’objectif recherché est de rationaliser le socle technique et les technologies utilisées à travers l’organisation ;
Federated Data Governance : une gouvernance fédérée autour de la donnée est mise en œuvre : la gouvernance des données porte de nombreux enjeux et particulièrement l’interopérabilité entre les domaines. La gouvernance permet de gérer les normes réglementaires et de sécurité de l’information, ainsi que le dictionnaire des données. Les domaines ont pour responsabilité de documenter les données et produits mis à disposition. La gouvernance est donc pilotée de manière hybride avec des responsabilités distribuées et fédérées.
Le Data Mesh redistribue les rôles et responsabilités au sein des entreprises
Le Data Mesh intègre en son sein aussi bien les sujets d’architecture, d’organisation, de méthodologie et de gouvernance dans un but commun : intégrer les composantes et acteurs de l’entreprise sur les enjeux de valorisation des données en tant qu’actif stratégique. Il repose sur une organisation Data distribuée et fédérée et nécessite l’implication de l’ensemble de l’organisation avec un sponsoring fort de la Direction et des directions métiers et fonctionnelles (y compris IT).
Pour les métiers, l’approche Data Mesh leur permet d’acquérir autonomie, agilité et responsabilité dans la création de leurs produits Data, la gestion de leur cycle de vie et la gouvernance des données.
Pour la DSI, sa transformation opérée ces dernières années en tant que fournisseur de services IT se renforceavec la responsabilitéde fournir et opérer une plateforme modulaire, interopérable permettant la mise à disposition d’assets communs. Dans cet approche les solutions cloud et de virtualisation des données constituent des approches d’architecture particulièrement adaptées au Data Mesh. La DSI joue donc un rôle essentiel en étant garant de la modernisation, l’agilisation du SI et de l’apport des innovations technologiques (apportées notamment par les solutions Cloud).
Pour le Data Office, il joue un rôle central d’animation, d’acculturation et de fédération des initiatives Data. Il accompagne la démarche de mutualisation des données, la coordination des actions et la mise en oeuvre de la gouvernance. Le Data Office est donc la tour de contrôle de la fonction Data transverse de l’entreprise et en charge du maintien de la cohérence globale.
Le Data Mesh, une rupture fédératrice
Le Data Mesh apporte une rupture totale avec le dogme Data-Centric qui a porté les réflexions d’architecture et d’organisation Data ces dernières années, mais à laquelle les entreprises se heurtent avec l’explosion des données et les limites en termes de création de valeur et de passage à l’échelle.
Le Data Mesh apporte une approche globale au service de l’entreprise Data-Driven, contrairement aux approches purement technologiques. L’agilité dans la création de produits Data et leur mutualisation donne l’opportunité de raccourcir le time-to-market pour les métiers et leur permet de répondre plus rapidement aux exigences internes ou du marché.
Le Data Mesh réunit donc les éléments nécessaires pour une stratégie Data-Driven réussie :
Une approche globale (méthodologie, technologie, architecture…) ;
Une répartition et une gestion des compétences Data dans les différents Data domaines ;
Une plus grande autonomie des métiers pour la gestion et la valorisation de leurs données.
L’ensemble de ces éléments réunit autour des quatre piliers du Data Mesh :
Une organisation en Data Domain métiers ;
La création de Data Products ;
La mise en place d’une plateforme technologique fédérée ;
Une gouvernance des données distribuée et fédérée.
Ils font écho à l’approche de Saegus et sa proposition de valeur sur la modernisation de plateforme de données sur l’ensemble de ces composantes techniques, méthodologiques et organisationnelles. N’hésitez pas à nous contacter pour en savoir plus.
La Power Platform de Microsoft est une suite d’outils qui permet à des collaborateurs – appelés dans ce cas les Citizen Developers – de créer rapidement des applications d’entreprise et automatiser des processus avec une faible implication du service informatique. Si cette approche facilite le développement et déploiement des applications en entreprise, elle y introduit de nouveaux défis et risques. Quels sont les modèles de gouvernance et comment choisir celui qui correspondra aux besoins d’une organisation ?
Que veut dire “gouverner la Power Platform” ?
La gouvernance est la stratégie de création et mise en pratique des normes qui régissent l’utilisation de la Power Platform. Ces politiques assurent la sécurisation des données, la gestion des applications et automatismes durant tout leur cycle de vie selon des normes établies, ainsi que la bonne répartition des droits et responsabilités au sein des équipes.
Pourquoi la gouvernance est-elle nécessaire ?
Gouverner la Power Platform est essentiel à son bon fonctionnement, pour plusieurs raisons :
Assurer la sécurité des données et la conformité de la Power Platformaux exigences réglementaires : sans une gouvernance appropriée, des données sensibles risquent d’être stockées dans des sources non-protégées et certaines applications peuvent être construites en violation des règles de conformité ;
Éviter la prolifération des applications : lorsque chaque membre d’une organisation peut créer ses propres applications sans l’intervention d’un service informatique, les applications peuvent proliférer, entraînant une surcharge des capacités de stockage, une incohérence dans la conception des applications et des difficultés à les maintenir dans le temps ;
Garantir des applications de qualité : des applications mal conçues peuvent entraîner la frustration des utilisateurs, une baisse de productivité et une augmentation des coûts de support. Une gouvernance appropriée garantit la qualité et la cohérence des applications déployées au sein d’une organisation ;
Maximiser le retour sur investissement (ROI) : en définissant des normes de développement encadrée par les politiques adaptées, les organisations assurent la production d’applications à forte valeur ajoutée, et donc la rentabilité de leur investissement dans la Power Platform ;
Promouvoir la collaboration et éviter la duplication des efforts : en créant un référentiel commun pour les applications approuvées et en facilitant leur promotion auprès des Citizen Developers, les organisations encouragent la collaboration entre les utilisateurs et évitent la multiplication des efforts sur une même problématique ;
Assurer la maintenabilité : les applications qui ne sont pas conçues ou documentées selon le référentiel de l’entreprise peuvent être difficiles, voire impossibles, à maintenir. Une gouvernance appropriée garantit que les applications sont conçues pour être maintenables dans le temps, évitant ainsi la surcharge des équipes en charge de leur gestion ;
Gérer le changement : la gestion du changement est une partie importante de tout projet de développement d’applications, mais elle le devient d’autant plus lorsqu’un grand nombre d’utilisateurs créent des applications en autonomie. La définition et diffusion de bonnes pratiques de gestion du changement garantit que les modifications apportées aux applications sont contrôlées et documentées, et que les parties prenantes sont informées de ces modifications.
Comment mettre en place une stratégie de gouvernance efficace et personnalisée ?
En amont ou après l’ouverture des services – ce que l’on appelle le Proactive ou Reactive Management –, il est rapidement nécessaire de contrôler, sinon surveiller, l’expansion de l’usage de la plateforme au sein d’une entreprise. Cependant, il n’est pas toujours simple d’appréhender l’étendue de la gouvernance ni d’identifier les actions à mettre en place en priorité.
La gouvernance est structurée en deux champs d’action : organisationnel et opérationnel.
La gouvernance organisationnelle : construire le cadre d’utilisation de la plateforme
L’équipe de gouvernance
La première étape (et sans doute la plus importante) d’un projet de gouvernance est de constituer une équipe d’administration résiliente et efficace avec les parties prenantes.
Au cœur de l’équipe, le Product Owner porte la vision de l’outil dans une entreprise et prend les décisions stratégiques. N’étant pas nécessairement issu d’un milieu technique, il est le principal interlocuteur de l’éditeur de la plateforme, Microsoft.
À ses côtés, l’administrateur Power Platform, souvent désigné parmi les collaborateurs IT, a les droits sur l’ensemble des produits et activités de la plateforme. Il est ainsi garant du bon déroulement des activités de maintenance, routine et communication concernant la roadmap. Il est aussi responsable de la gestion des capacités de stockage de données et licences liées à la Power Platform.
Pour compléter cette équipe, le référent Sécurité de la donnée, désigné parmi les équipes de cybersécurité, assure l’alignement des usages de la plateforme avec les règles et stratégies de conformité des données d’une entreprise. Son rôle est essentiel à la définition des stratégies de Data Loss Prevention (DLP), sur lesquelles nous reviendrons.
Il est recommandé d’inclure des professionnels en développement applicatif au sein de cette équipe pour identifier, construire et maintenir les solutions développées. Ces experts constitueront la base du Centre de Service : une équipe proposant des services professionnels (audit, coaching, développements) aux Citizen Developers.
Enfin, pour rester proche des utilisateurs finaux, le Product Owner peut mettre en place un processus d’interactions fréquentes. Il est courant de désigner des personnes qui relaieront auprès de l’équipe d’administration les besoins exprimés par les métiers, ainsi que les messages importants aux collaborateurs d’une équipe ou entité. Ces profils sont sélectionnés selon leur visibilité au sein d’une structure, leur intérêt pour la plateforme et leur proximité avec les métiers.
Le modèle de décision
Une fois les parties prenantes identifiées et réunies, il convient de définir la stratégie d’approche pour la prise de décision.
Pour assurer cette cohérence au niveau du groupe, retenons trois possibilités :
Une architecture centralisée au sein de laquelle les sujets de développement et gouvernance sont pris en charge au niveau du groupe par l’équipe d’administration de la Power Platform. Cette architecture assure la cohérence des développements en évitant les prises de décision isolées ;
Une architecture décentralisée, en créant une équipe d’administration pour chaque entité. Répartissant l’effort de la gouvernance sur un plus grand nombre d’équipes, cette structure favorise la flexibilité pour répondre à des besoins spécifiques ;
Une architecture mixte ou matricielle. La prise de décision est maintenue au niveau du groupe puisque l’équipe d’administration s’appuie sur des équipes dédiées à chaque entité. Cette structure réunit les avantages des architectures précédemment citées. Elle demande toutefois une plus grande coordination et communication des parties prenantes pour assurer qu’elle soit alignée à la vision du groupe tout en répondant aux besoins spécifiques de chaque entité.
Selon l’architecture choisie, les acteurs de la gouvernance devront fixer ensemble une méthodologie de gestion de projet, des instances régulières pour étudier chaque sujet et un dispositif de suivi des actions menées.
Ces architectures sont souvent liées à la structure d’une entreprise et son souhait de responsabiliser ou non ses entités. Par exemple, un grand groupe bancaire français que nous avons accompagné a choisi une architecture mixte, mieux adaptée au nombre important de collaborateurs auxquels les services de la Power Platform devaient être accessibles. L’équipe d’administration, ne pouvant pas assurer l’ensemble des actions nécessaires à la gouvernance, a donc choisi de responsabiliser sous sa supervision des personnes sélectionnées au sein de chaque entité.
Le cycle de vie des applications
La gestion du cycle de vie des applications (ou ALM, Application Lifecycle Management) désigne l’identification de l’ensemble des acteurs, outils et processus qui interviennent au cours de la vie d’une application ou d’un automatisme, de sa conception à sa suppression.
Elle fournit une cartographie permettant de gérer plus facilement les solutions développées. Il s’agit d’établir en amont un chemin que l’application ou l’automatisme suivra à travers l’écosystème applicatif d’une entreprise, établissant des jalons qui assureront la conformité, qualité et transparence des développements.
La double typologie d’utilisateurs – les Citizen Developers et les développeurs professionnels – rend l’approche ALM d’autant plus essentielle pour la gouvernance de la Power Platform. Une méthodologie développement incluant plusieurs phases avant la mise en production, des tests de conformité et de qualité, ainsi qu’une documentation technique et fonctionnelle, sont nécessaires pour des solutions critiques dont l’impact se fera sentir à grande échelle, mais elles ne sont pas adaptées au Citizen Development.
Une fois ces éléments définis, la mise en œuvre opérationnelle de la stratégie de gouvernance peut être lancée.
Mettre en œuvre les choix stratégiques : la gouvernance opérationnelle
Structurer
Pour cadrer l’utilisation de la plateforme, il est essentiel de structurer son espace en sous-espaces de développement isolés appelés “environnements”.
Chaque environnement possède sa gestion des droits, ses règles de capacité de stockage et ses normes de sécurité :
Le type d’un environnement influence significativement son utilisation. Selon qu’il soit bac-à-sable, de production ou développeur, chaque environnement a des capacités et contraintes qui lui sont propres. Identifier le rôle, l’audience et les limites d’un environnement est primordial pour choisir le type adapté ;
Les Data Loss Prevention (DLP) sécurisent l’utilisation de la donnée au sein des environnements. Certaines solutions nécessitent d’être connectées à des services externes à la Power Platform : c’est au niveau de l’environnement que les administrateurs peuvent limiter ces passerelles vers des jeux de données hétérogènes, garantissant ainsi la conformité d’utilisation ;
Les rôles et profils de sécurité gèrent les droits des utilisateurs au sein d’un environnement. Ils limitent l’accès à certaines données et restreignent l’utilisation des outils présents dans l’environnement.
Pour couvrir l’ouverture des services à une audience plus large, il est intéressant de définir des modèles – réplicables et adaptables selon les besoins – d’environnements. Les environnements dédiés à des développements professionnels, notamment ceux du centre de service, couvrent en général les trois phases de conception d’applications : le développement, les tests utilisateurs et la mise en production.
La mise en place d’un écosystème adéquat d’environnements assure la mise en pratique des normes de développement définies lors de la conception du cycle de vie des applications.
Surveiller
Après avoir franchi les premières étapes de structuration des environnements, l’équipe de gouvernance doit surveiller les développements sur le périmètre de l’entreprise. En ayant une visibilité complète sur la façon dont les utilisateurs utilisent les composants de la plateforme, elle peut prendre les décisions adaptées.
Dans ce but, plusieurs fonctionnalités sont déjà intégrées à Power Platform. Il est par exemple possible de surveiller l’utilisation de Dataverse pour s’assurer que les niveaux de consommation de la capacité correspondent aux estimations ; ou de mettre en place un système d’alertes et notifications sur des indicateurs précis comme l’apparition d’un nouveau connecteur ou le partage d’une application avec un nombre conséquent d’utilisateurs. Microsoft propose également une solution, le Centre d’excellence (CoE), assurant le suivi de l’utilisation de la plateforme et automatisant des règles de gestion ; elle facilite ainsi les actions de gouvernance de l’équipe d’administration.
Vous souhaitez en apprendre plus sur le Centre d’Excellence de la Power Platform ? Explorez ses composants ici.
Entretenir
Enfin, il est important d’accompagner et promouvoir l’utilisation des outils de la Power Platform en fournissant les ressources adéquates aux utilisateurs, qu’ils soient Citizen Developers ou professionnels. Définir des lignes directrices et responsabiliser chaque utilisateur est essentiel pour lui apprendre les normes de développement, bonnes pratiques et processus qu’il doit suivre. Toutefois, le rôle de l’équipe de gouvernance a également pour rôle de valoriser le travail des Citizen Developers en visibilisant leur travail au sein de la communauté (chemins de formation certifiants récompensant les utilisateurs avancés, accès plus permissifs, reconnaissance de la hiérarchie…).
Pour assurer cela, voici quelques actions que l’équipe de gouvernance peut mettre en place :
La création d’un espace communautaire au sein duquel les Citizens Developers et professionnels pourront interagir, partager des astuces et collaborer. C’est aussi un bon moyen pour l’équipe d’administration de communiquer directement avec les utilisateurs, tout en surveillant leurs difficultés et intérêts. Cette vision complète les statistiques d’utilisation de la plateforme fournis par le CoE pour accompagner la priorisation des actions de gouvernance ;
La mise en place d’un programme Champion que les utilisateurs pourront suivre pour devenir des porte-paroles de la plateforme et ce, en échange d’une visibilité accrue et d’interactions privilégiés avec les équipes en charge de la gouvernance ;
L’organisation d’événements récurrents préserve l’intérêt des utilisateurs pour la plateforme : sessions de découvertes pour guider les nouveaux arrivants, hackathons réunissant les porteurs de projets métiers et utilisateurs avancés pour imaginer des solutions fonctionnelles, assemblées présentant les solutions prometteuses à l’audience concernée…
Les lignes directrices présentées dans cet article sont une introduction au chantier qu’est la construction et mise en œuvre d’une stratégie de gouvernance efficace au sein d’une organisation. Vous souhaitez en savoir plus sur ce sujet ou être accompagné·e·s par nos équipes Employee Experience ? Contactez-nous.
Vous souhaitez en apprendre plus sur les bonnes pratiques pour valoriser le rôle des Citizen Developers dans une organisation ? Découvrez notre article à ce sujet ici.
En dehors de quelques start-ups ou spécialistes de la tech, les usages de l’intelligence artificielle se sont développés de façon moins spectaculaire que ce qui était attendu il y a quelques années. On constate une prise de conscience générale sur le fait que l’intelligence artificielle n’est pas une solution magique : l’investissement est relativement couteux pour un ROI qui n’est pas toujours au rendez-vous. Transformer une entreprise Data Driven tient plus en sa capacité à disposer de données fiables (mise en qualité), partagées (gouvernance et catalogue) et utilisées par le plus grand nombre (accessibilité et acculturation) que de sa capacité à réaliser des expérimentations de Deep Learning ou Machine Learning.
Faut-il toujours croire au développement de l’intelligence artificielle dans les entreprises ?
Oui, bien sûr. Bien utilisée, l’intelligence artificielle est un accélérateur puissant pour résoudre des problématiques complexes ou générer plus d’efficacité. Toutefois, l’offre existante sur le marché n’est pas toujours lisible : faut-il aller sur des outils packagés avec des modèles pré-entrainés, choisir du sur-mesure ou utiliser des plateformes de développement dédiées aux Data Scientists comme Dataiku ? Les entreprises hésitent aussi bien sur les solutions à retenir que sur les organisations à mettre en place.
Existe-t-il des freins spécifiques à l’intelligence artificielle ?
Le point prioritaire reste la mise à disposition des données : elles doivent être accessibles, qualitatives et représentatives des phénomènes étudiés. Ce prérequis étant franchi, il reste deux autres problèmes à résoudre qui sont souvent sous-estimés :
L’automatisation et l’industrialisation : ou comment sortir du cadre de l’expérimentation pour mettre les services d’intelligence artificielle en production. Il convient de s’inspirer du DevOps et du Software Engineering en mettant en place un cadre MLOps et une chaîne d’intégration continue. Sans ces piliers, il est inenvisageable de faire de l’intelligence artificielle un pilier de croissance des entreprises ;
L’intelligence artificielle de confiance : dès lors que la finalité est opérée dans un cadre règlementaire ou éthique (RH par exemple), il est indispensable de « superviser » les modèles d’intelligence artificielle afin de les rendre transparents (mise en évidence du poids des variables dans la décision de l’algorithme). La bonne pratique à adopter – qui est notre conviction – est d’aller encore plus loin en ne se limitant pas à l’explicabilité du modèle. Il est nécessaire de superviser l’ensemble de la chaîne, notamment la représentativité des jeux d’entraînements (un algorithme qui apprend sur un jeu de données comportant des biais aura tendance à les reproduire).
Trouver les bons leviers pour maximiser l’apport de l’intelligence artificielle
La mission que s’est donnée Saegus est simple : « maximiser l’impact de l’intelligence artificielle dans les entreprises ». Comment ? À l’appui de supports :
Méthodologiques : la difficulté n’est pas de trouver des cas d’usages, mais de trouver les bons. Pour cela, nos équipes identifient les « Deep Use Cases » ayant un impact mesurable sur les fonctions de l’entreprise : opérations (Supply Chain, logistique, Demand Forecasting), procurement, ressources humaines, Sustainability… ;
Technologique : nos équipes apportent une prise de recul nécessaire pour recommander les bonnes solutions à leurs clients en fonction du contexte, de la maturité et de la constitution des équipes, ainsi que de leur écosystème technique ;
Organisationnel : en fonction de la taille de la culture et du modèle d’entreprise (centralisé ou décentralisé, répartition des activités entre les équipes core et les domaines métiers), nos experts aident les entreprises à structurer et agiliser leurs équipes Data Science : acculturation, montée en compétences, modèles de gouvernance, collaboration et interactions entre les équipes Business et IT… ;
Et d’accélérateur concrets : guides pratiques, démonstrateurs, supports de formations et kits prêts à l’emploi – comme notre Starter Kit MLOPS.
Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data ?