Ici archive

Le développement de biens et services centrés utilisateurs invite les organisations à améliorer les méthodes, outils et processus de recherche utilisateur. Pour ce faire, des outils pensés pour faciliter les activités de recherche intègrent progressivement les processus de travail des équipes.

Daniel Pidcock, chercheur spécialiste en UX, a puisé dans les difficultés rencontrées par ses équipes au quotidien pour développer une méthodologie et un outil destiné à capitaliser efficacement les données de la recherche utilisateur : Glean.ly.

Le premier outil dédié à l’Atomic Research

Qui de mieux pour concevoir un outil basé sur une méthodologie que celui qui en est le créateur ? Lors de sa conférence sur l’Atomic Research à l’UX Brighton en 2018, Daniel Pidcok a dévoilé l’outil qu’il a pensé pour faciliter la recherche utilisateur avec ces mots : “What if our UX knowledge was in a searchable and shareable format?” (“Et si l’ensemble de nos connaissances UX était accessible sous un format facilement recherchable et partageable ?”).

Fondée sur la base théorique de l’Atomic Design, l’Atomic Research est une méthodologie visant à étudier un objet en le découpant en plusieurs éléments pouvant être examinés à la fois sous leur forme primaire et de façon relative par rapport à d’autres éléments.

L’Atomic Research : découpage de la recherche utilisateur en quatre parties, illustrant les informations récoltées et problématiques qu’elles résolvent.

Si l’Atomic Design entend identifier les éléments composant une structure visuelle donnée, l’Atomic Research reprend quant à lui la structure de la synthèse d’une recherche utilisateur pour catégoriser les informations obtenues et les lier entre elles.

Les expériences (questionnaires, entretiens) engendrent des faits et objectifs neutres (80% des utilisateurs ne cliquent pas sur le bouton rouge), qui nous poussent à supposer des insights (“les utilisateurs préfèrent les boutons verts”) desquels nous pouvons déduire des recommandations (“il faut remplacer les boutons rouges par des boutons verts”).

Glean.ly s’appuie sur cette structure pour faciliter le travail de l’UX Researcher en lui permettant de naviguer au sein d’un ensemble d’informations ordonnées et interconnectées.

Les fonctionnalités clés de l’outil

Nous l’avons vu, l’outil repose sur l’adaptation du modèle de l’Atomic Research. Les fonctionnalités clés de Glean.ly sont donc par nature des moyens de valoriser l’interconnexion des données de la recherche utilisateur.

Cartes interconnectées

Chaque élément des étapes de l’Atomic Research est représenté sous forme de carte. Chaque carte est reliée à celle qui la justifie ainsi qu’à celle qu’elle permet de déduire.

Grâce à cette structure, les recommandations issues d’une recherche utilisateur sont justifiées par des faits objectifs qui permettent de valider ou non des hypothèses appelées insights, sur la base desquels des recommandations sont réalisées puis testées.

Les cartes interconnectées favorisent une démarche itérative, puisque les tests utilisateurs effectués d’après les recommandations faites par l’outil alimentent une série de faits qui entameront un nouveau cycle de la recherche utilisateur.

Enfin, les éléments d’une étape peuvent être rassemblés en une liste ; l’arborescence au sein de laquelle un élément se trouve apparaît lorsque l’on clique sur une carte.

La recherche utilisateur permet d’obtenir des recommandations basées sur des insights, eux-mêmes validés ou réfutés par un certain nombre de faits constatés.

Un classement intelligent des informations

Pour améliorer la pertinence des données collectées, Glean.ly a conçu des métadonnées triables sous forme de filtres, tags et scores :

Les filtres sont personnalisables par l’administrateur et concernent par défaut :

  • Les sentiments (positif, neutre, négatif)
  • Le type de l’insight (principe, conseil, transitoire)
  • La priorité (classée de 1 à 5)
  • La facilité de mise en œuvre (classée de 1 à 5)
  • L’échelle de mise en œuvre (d’une personne à toute l’entreprise)
  • Le statut de la recommandation (rejetée, complétée, approuvée, réutilisable…)
Les filtres sont affichés en bas de la carte. Ici, la recommandation est prioritaire, plutôt facile à mettre en œuvre, avec peu de ressources humaines, et est réutilisable dans le cadre d’autres expériences.

Les tags correspondent à des étiquettes – elles aussi personnalisables – permettant de naviguer entre les données grâce à une simple recherche précise. Il est également possible de se rendre dans le menu des tags et de trouver le nombre d’occurrences qui y sont associées.

La carte comporte le tag « satisfaction ». Elle peut donc être retrouvée depuis la barre de recherche en entrant l’étiquette qui y est associée parmi toutes les autres liées à ce tag.

Le système de score permet de préciser les informations récoltées : au coin de chaque carte, un score correspond à la somme des cartes antérieures qui la prouvent ou l’infirment.

L’insight « les utilisateurs préfèrent le vert au rouge » indique un score de 1. Ce score est justifié par deux faits qui le démontrent et un qui le réfute (2-1 = 1).

Par exemple, si 3 insights valident une recommandation, mais que 2 insights l’invalident, le score de la recommandation sera de : 1.

Import/Export

Entrer manuellement des dizaines de faits peut être chronophage. Glean.ly permet de les importer sous 3 formats :

  • Aux formats .XLS, .XLSX et .CSV. Les feuilles de calcul peuvent être importées dans l’outil, qui héberge notamment Microsoft Excel, Miro et Maze.ermettant ainsi l’intégration avec Microsoft Excel, autres tableurs ainsi qu’avec Miro et Maze ;
  • L’extension Glean.ly (disponible sur le Chrome Web Store) offre la possibilité de convertir un contenu textuel provenant d’Internet en fait ;
  • L’intégration Zapier (payante) permet d’importer des données directement dans l’outil mais la prise en main peut être fastidieuse.
Page indiquant les options d’importation et d’exportation de données à partir d’une feuille de calcul, de l’extension chrome et de Zapier.

Invitation membre

Glean.ly permet d’inviter des collaborateurs sur votre espace à partir de leur adresse email. Vous pouvez leur attribuer l’un de ces trois statuts :

  • View Only (“lecture seule”) : les nouveaux collaborateurs peuvent consulter votre annuaire d’expériences, faits, insights et recommandations ;
  • Contributor (“contributeur”) : en plus d’un accès aux fonctionnalités du statut précédent, les invités pourront entrer des informations dans l’annuaire ;
  • Administrator (“administrateur”) : l’invité dispose de l’ensemble des droits ; il peut même personnaliser les filtres, gérer l’abonnement et modifier les tags.
Ici, Pierrick Gamichon est désigné comme administrateur et Nasr Kherroubi possède les droits de lecture seule.

Notre avis d’expert

Un outil spécifique

L’outil est très précis sur la recherche utilisateur ; c’est une force, mais peut aussi être une faiblesse selon l’axe de travail choisi.

Centré sur la recherche utilisateur, l’outil est moins facilitant pour le reste du processus comme l’idéation ou le prototypage. Par ailleurs, l’intégration avec d’autres outils n’est pas toujours fluide ; la navigation entre ces derniers implique une perte de données, bien que Glean.ly valorise l’interconnexion des cartes dans sa promesse de vente.

Nous l’avons vu, si l’on prend uniquement en compte la recherche utilisateur (l’essence même de sa conception), l’outil est d’une efficacité redoutable.

Une expérience utilisateur prometteuse

L’expérience utilisateur est plutôt satisfaisante dans l’ensemble, bien qu’elle puisse être améliorée, par exemple en fluidifiant le processus de création d’éléments. Le système de points attribué aux cartes n’est pas encore optimal, puisqu’il ne prend pas en compte la pondération, c’est-à-dire le poids de chaque information dans la justification d’une autre.

Nous ne pouvons pas passer à côté des gifs s’affichant au chargement des pages, ajoutant un côté “fun” à l’outil.

Une adaptation des normes RGPD à respecter

Cependant, il est clairement souligné que l’outil ne répond pas aux exigences du RGPD. Osons imaginer que Glean.ly sera bientôt compatible avec les normes européennes pour conquérir un marché qui ne lui est sûrement pas indifférent.

Un recueil et une capitalisation efficace

La récolte des faits depuis l’extension Chrome est un réel game changer dans une recherche utilisateur.

Par ailleurs, grâce à l’interconnexion et les filtres, l’outil promet une capitalisation accrue des informations et un gain de temps considérable. Il palie ainsi une navigation chronophage dans des masses informes de données. L’information est fluide, transparente, accessible et consultable par les équipes d’UX Researcher, ainsi que des métiers requérant de la visibilité sur le processus de recherche.

Un potentiel de taille

La recherche utilisateur est au cœur du Design Thinking. Faite avec rigueur, elle constitue un avantage concurrentiel de taille. C’est en tout cas le pari de l’Atomic Research, dans laquelle Glean.ly puise ses fonctionnalités. L’enjeu majeur de son évolution au cours des prochaines années ? Devenir incontournable dans la Research Ops.

Vous souhaitez essayer l’outil ou être accompagné·e·s par nos équipes Acceleration Tactics ?

La recherche de valeur, le but ultime

Nouveau paradigme pour les architectures de données, le Data Mesh bouscule les modèles inventés et mis en œuvre ces dernières années qui reposent sur une approche fédératrice et centralisée des données.

Cette recherche de centralisation a pour objectif de casser les silos et stocker dans un espace commun les données pour en tirer un maximum de valeur et permettre de croiser des informations issues de différents domaines métiers. Elle a ainsi conduit à la création de Data Warehouses ou plus récemment de Data Lakes afin de rassembler les données de l’entreprise au sein d’une structure unifiée.

Le Data Mesh introduit une nouvelle approche et une rupture avec le modèle de centralisation, en tirant parti des silos et en s’appuyant sur une organisation distribuée en réponse aux enjeux Data à l’échelle de l’entreprise.

Dans la mise en place d’une stratégie Data-Driven, les freins majeurs rencontrés par les entreprises pour passer à l’échelle sont souvent liés à une maturité Data hétérogène et à une organisation complexifiant les échanges. La recherche de centralisation au sein d’une architecture de type Data Warehouse ou Data Lake devient alors un goulet d’étranglement.

Le Data Mesh répond aux problématiques courantes liées à ces architectures, à savoir :

  • Le manque de connaissance métier au sein des équipes IT qui gèrent les données, ce qui entrainent parfois des incompréhensions et souvent des échanges multiples avec les équipes métiers, ralentissant fortement les processus ;
  • Un manque de flexibilité des plateformes de données centralisées qui conduit parfois à des solutions technologiques complexes ne pouvant répondre parfaitement à l’ensemble des spécificités ;
  • Une complexité et une latence forte dans la gestion des flux de données, chaque demande métiers nécessitant l’intégration des données dans l’architecture centralisée, rigidifiant cette dernière afin de répercuter les changements à tous les niveaux de la chaine de traitement.

La réponse ordinaire de centraliser pour mieux traiter n’est finalement pas la meilleure solution. Le Data Mesh apporte une nouvelle approche : ne pas lutter contre les silos mais s’appuyer dessus pour en tirer parti. Le but n’est pas de revenir à une vision complètement décentralisée mais d’adopter une approche fédérée pour conserver la maitrise du patrimoine informationnel de l’entreprise.

Le Data Mesh en quelques mots

Le Data Mesh repose donc sur une approche décentralisée ou distribuée équivalente à l’approche microservices dans l’architecture logicielle.

La notion de Data Mesh a été évoqué pour la première fois par Zhamak Dehghani (Monolithic Data Lake to a distributed Data Mesh) et a évolué pour devenir un concept établi. Il a fait l’objet d’une publication de référence en début d’année (Data Mesh, O’Reilly).

Logical architecture of Data Mesh Approach (martinfowler.com)

Le Data Mesh ne se résume pas à un concept technique ni à l’implémentation de briques technologiques. Il couvre l’étendue du spectre du Data Management et ses composantes, à savoir : organisation, compétences, méthodologies, gouvernance, architecture… Le Data Mesh se compose d’ensembles d’éléments appelés domaines de données. L’interconnexion de ces domaines formant ainsi le maillage (mesh) permet de donner une vision d’ensemble des informations métiers.

La notion de passage à l’échelle est un élément central et fournit un cadre de réponse aux freins pouvant être rencontrés. Par son approche globale, le Data Mesh constitue donc une approche adaptée pour répondre aux besoins de la stratégie Data-Driven :

  • Les réponses aux demandes de changement doivent être rapides : les modèles de données doivent pouvoir être modifiés rapidement et s’adapter aux besoins d’évolutions ;
  • Le nombre de producteurs de données est en évolution constante : nouvelles applications, nouvelles API…
  • Le nombre de consommateurs de données est en augmentation constante : nouvelles initiatives Data, nouveaux besoins métiers, augmentation des usages IA…

Le Data Mesh repose ainsi sur quatre grands piliers : Domaine, Produit, Plateforme et Gouvernance.

Les quatre piliers du Data Mesh
  • Data Domain : la connaissance est distribuée dans les différents domaines de données (dérivé du Domain Driven Design (DDD) d’Eric Evans). Les métiers, responsables des domaines, sont autonomes et responsables du pilotage de leurs initiatives Data ;
  • Data as a product : la donnée est gérée au sein des domaines comme un produit (Data Product). Avec le Data Mesh, les données deviennent le produit. Il revient à chaque domaine de données de mettre à disposition des produits tenant compte de leurs utilisateurs, leurs caractéristiques spécifiques et leur roadmap de développement. Ces produits sont fournis sous un format standardisé pour être utilisés à travers l’organisation ;
  • Self-service Data Infrastructure as a Platform : une infrastructure self-service est mise en place pour gérer ces Data Products. Le Data Mesh nécessite la gestion d’une plateforme interopérable pour l’ensemble des domaines de données. Cette mutualisation vise à permettre aux différents domaines de provisionner des ressources techniques à la demande pour la création des Data Products. L’objectif recherché est de rationaliser le socle technique et les technologies utilisées à travers l’organisation ;
  • Federated Data Governance : une gouvernance fédérée autour de la donnée est mise en œuvre : la gouvernance des données porte de nombreux enjeux et particulièrement l’interopérabilité entre les domaines. La gouvernance permet de gérer les normes réglementaires et de sécurité de l’information, ainsi que le dictionnaire des données. Les domaines ont pour responsabilité de documenter les données et produits mis à disposition. La gouvernance est donc pilotée de manière hybride avec des responsabilités distribuées et fédérées.

Le Data Mesh redistribue les rôles et responsabilités au sein des entreprises

Le Data Mesh intègre en son sein aussi bien les sujets d’architecture, d’organisation, de méthodologie et de gouvernance dans un but commun : intégrer les composantes et acteurs de l’entreprise sur les enjeux de valorisation des données en tant qu’actif stratégique. Il repose sur une organisation Data distribuée et fédérée et nécessite l’implication de l’ensemble de l’organisation avec un sponsoring fort de la Direction et des directions métiers et fonctionnelles (y compris IT).

Pour les métiers, l’approche Data Mesh leur permet d’acquérir autonomie, agilité et responsabilité dans la création de leurs produits Data, la gestion de leur cycle de vie et la gouvernance des données.

Pour la DSI, sa transformation opérée ces dernières années en tant que fournisseur de services IT se renforceavec la responsabilitéde fournir et opérer une plateforme modulaire, interopérable permettant la mise à disposition d’assets communs. Dans cet approche les solutions cloud et de virtualisation des données constituent des approches d’architecture particulièrement adaptées au Data Mesh. La DSI joue donc un rôle essentiel en étant garant de la modernisation, l’agilisation du SI et de l’apport des innovations technologiques (apportées notamment par les solutions Cloud).

Pour le Data Office, il joue un rôle central d’animation, d’acculturation et de fédération des initiatives Data. Il accompagne la démarche de mutualisation des données, la coordination des actions et la mise en oeuvre de la gouvernance. Le Data Office est donc la tour de contrôle de la fonction Data transverse de l’entreprise et en charge du maintien de la cohérence globale.

Le Data Mesh, une rupture fédératrice

Le Data Mesh apporte une rupture totale avec le dogme Data-Centric qui a porté les réflexions d’architecture et d’organisation Data ces dernières années, mais à laquelle les entreprises se heurtent avec l’explosion des données et les limites en termes de création de valeur et de passage à l’échelle.

Le Data Mesh apporte une approche globale au service de l’entreprise Data-Driven, contrairement aux approches purement technologiques. L’agilité dans la création de produits Data et leur mutualisation donne l’opportunité de raccourcir le time-to-market pour les métiers et leur permet de répondre plus rapidement aux exigences internes ou du marché.

Le Data Mesh réunit donc les éléments nécessaires pour une stratégie Data-Driven réussie :

  • Une approche globale (méthodologie, technologie, architecture…) ;
  • Une répartition et une gestion des compétences Data dans les différents Data domaines ;
  • Une plus grande autonomie des métiers pour la gestion et la valorisation de leurs données.

L’ensemble de ces éléments réunit autour des quatre piliers du Data Mesh :

  • Une organisation en Data Domain métiers ;
  • La création de Data Products ;
  • La mise en place d’une plateforme technologique fédérée ;
  • Une gouvernance des données distribuée et fédérée.

Ils font écho à l’approche de Saegus et sa proposition de valeur sur la modernisation de plateforme de données sur l’ensemble de ces composantes techniques, méthodologiques et organisationnelles. N’hésitez pas à nous contacter pour en savoir plus.

Rédigé par Julien Ayral, Directeur Data Driven

La Power Platform de Microsoft est une suite d’outils qui permet à des collaborateurs – appelés dans ce cas les Citizen Developers – de créer rapidement des applications d’entreprise et automatiser des processus avec une faible implication du service informatique. Si cette approche facilite le développement et déploiement des applications en entreprise, elle y introduit de nouveaux défis et risques. Quels sont les modèles de gouvernance et comment choisir celui qui correspondra aux besoins d’une organisation ?

Que veut dire “gouverner la Power Platform” ?

La gouvernance est la stratégie de création et mise en pratique des normes qui régissent l’utilisation de la Power Platform. Ces politiques assurent la sécurisation des données, la gestion des applications et automatismes durant tout leur cycle de vie selon des normes établies, ainsi que la bonne répartition des droits et responsabilités au sein des équipes.

Pourquoi la gouvernance est-elle nécessaire ?

Gouverner la Power Platform est essentiel à son bon fonctionnement, pour plusieurs raisons :

  • Assurer la sécurité des données et la conformité de la Power Platform aux exigences réglementaires : sans une gouvernance appropriée, des données sensibles risquent d’être stockées dans des sources non-protégées et certaines applications peuvent être construites en violation des règles de conformité ;
  • Éviter la prolifération des applications : lorsque chaque membre d’une organisation peut créer ses propres applications sans l’intervention d’un service informatique, les applications peuvent proliférer, entraînant une surcharge des capacités de stockage, une incohérence dans la conception des applications et des difficultés à les maintenir dans le temps ;
  • Garantir des applications de qualité : des applications mal conçues peuvent entraîner la frustration des utilisateurs, une baisse de productivité et une augmentation des coûts de support. Une gouvernance appropriée garantit la qualité et la cohérence des applications déployées au sein d’une organisation ;
  • Maximiser le retour sur investissement (ROI) : en définissant des normes de développement encadrée par les politiques adaptées, les organisations assurent la production d’applications à forte valeur ajoutée, et donc la rentabilité de leur investissement dans la Power Platform ;
  • Promouvoir la collaboration et éviter la duplication des efforts : en créant un référentiel commun pour les applications approuvées et en facilitant leur promotion auprès des Citizen Developers, les organisations encouragent la collaboration entre les utilisateurs et évitent la multiplication des efforts sur une même problématique ;
  • Assurer la maintenabilité : les applications qui ne sont pas conçues ou documentées selon le référentiel de l’entreprise peuvent être difficiles, voire impossibles, à maintenir. Une gouvernance appropriée garantit que les applications sont conçues pour être maintenables dans le temps, évitant ainsi la surcharge des équipes en charge de leur gestion ;
  • Gérer le changement : la gestion du changement est une partie importante de tout projet de développement d’applications, mais elle le devient d’autant plus lorsqu’un grand nombre d’utilisateurs créent des applications en autonomie. La définition et diffusion de bonnes pratiques de gestion du changement garantit que les modifications apportées aux applications sont contrôlées et documentées, et que les parties prenantes sont informées de ces modifications.

Comment mettre en place une stratégie de gouvernance efficace et personnalisée ?

En amont ou après l’ouverture des services – ce que l’on appelle le Proactive ou Reactive Management –, il est rapidement nécessaire de contrôler, sinon surveiller, l’expansion de l’usage de la plateforme au sein d’une entreprise. Cependant, il n’est pas toujours simple d’appréhender l’étendue de la gouvernance ni d’identifier les actions à mettre en place en priorité.

La gouvernance est structurée en deux champs d’action : organisationnel et opérationnel.

La gouvernance organisationnelle : construire le cadre d’utilisation de la plateforme

L’équipe de gouvernance

La première étape (et sans doute la plus importante) d’un projet de gouvernance est de constituer une équipe d’administration résiliente et efficace avec les parties prenantes.

Au cœur de l’équipe, le Product Owner porte la vision de l’outil dans une entreprise et prend les décisions stratégiques. N’étant pas nécessairement issu d’un milieu technique, il est le principal interlocuteur de l’éditeur de la plateforme, Microsoft.

À ses côtés, l’administrateur Power Platform, souvent désigné parmi les collaborateurs IT, a les droits sur l’ensemble des produits et activités de la plateforme. Il est ainsi garant du bon déroulement des activités de maintenance, routine et communication concernant la roadmap. Il est aussi responsable de la gestion des capacités de stockage de données et licences liées à la Power Platform.

Pour compléter cette équipe, le référent Sécurité de la donnée, désigné parmi les équipes de cybersécurité, assure l’alignement des usages de la plateforme avec les règles et stratégies de conformité des données d’une entreprise. Son rôle est essentiel à la définition des stratégies de Data Loss Prevention (DLP), sur lesquelles nous reviendrons.

Il est recommandé d’inclure des professionnels en développement applicatif au sein de cette équipe pour identifier, construire et maintenir les solutions développées. Ces experts constitueront la base du Centre de Service : une équipe proposant des services professionnels (audit, coaching, développements) aux Citizen Developers.

Enfin, pour rester proche des utilisateurs finaux, le Product Owner peut mettre en place un processus d’interactions fréquentes. Il est courant de désigner des personnes qui relaieront auprès de l’équipe d’administration les besoins exprimés par les métiers, ainsi que les messages importants aux collaborateurs d’une équipe ou entité. Ces profils sont sélectionnés selon leur visibilité au sein d’une structure, leur intérêt pour la plateforme et leur proximité avec les métiers.

L’équipe de la Power Platform au complet

Le modèle de décision

Une fois les parties prenantes identifiées et réunies, il convient de définir la stratégie d’approche pour la prise de décision.

Pour assurer cette cohérence au niveau du groupe, retenons trois possibilités :

  1. Une architecture centralisée au sein de laquelle les sujets de développement et gouvernance sont pris en charge au niveau du groupe par l’équipe d’administration de la Power Platform. Cette architecture assure la cohérence des développements en évitant les prises de décision isolées ;
  2. Une architecture décentralisée, en créant une équipe d’administration pour chaque entité. Répartissant l’effort de la gouvernance sur un plus grand nombre d’équipes, cette structure favorise la flexibilité pour répondre à des besoins spécifiques ;
  3. Une architecture mixte ou matricielle. La prise de décision est maintenue au niveau du groupe puisque l’équipe d’administration s’appuie sur des équipes dédiées à chaque entité. Cette structure réunit les avantages des architectures précédemment citées. Elle demande toutefois une plus grande coordination et communication des parties prenantes pour assurer qu’elle soit alignée à la vision du groupe tout en répondant aux besoins spécifiques de chaque entité.
Les 3 types d’architecture existants pour la prise de décision

Selon l’architecture choisie, les acteurs de la gouvernance devront fixer ensemble une méthodologie de gestion de projet, des instances régulières pour étudier chaque sujet et un dispositif de suivi des actions menées.

Ces architectures sont souvent liées à la structure d’une entreprise et son souhait de responsabiliser ou non ses entités. Par exemple, un grand groupe bancaire français que nous avons accompagné a choisi une architecture mixte, mieux adaptée au nombre important de collaborateurs auxquels les services de la Power Platform devaient être accessibles. L’équipe d’administration, ne pouvant pas assurer l’ensemble des actions nécessaires à la gouvernance, a donc choisi de responsabiliser sous sa supervision des personnes sélectionnées au sein de chaque entité.

Le cycle de vie des applications

La gestion du cycle de vie des applications (ou ALM, Application Lifecycle Management) désigne l’identification de l’ensemble des acteurs, outils et processus qui interviennent au cours de la vie d’une application ou d’un automatisme, de sa conception à sa suppression.

Elle fournit une cartographie permettant de gérer plus facilement les solutions développées. Il s’agit d’établir en amont un chemin que l’application ou l’automatisme suivra à travers l’écosystème applicatif d’une entreprise, établissant des jalons qui assureront la conformité, qualité et transparence des développements.

La double typologie d’utilisateurs – les Citizen Developers et les développeurs professionnels – rend l’approche ALM d’autant plus essentielle pour la gouvernance de la Power Platform. Une méthodologie développement incluant plusieurs phases avant la mise en production, des tests de conformité et de qualité, ainsi qu’une documentation technique et fonctionnelle, sont nécessaires pour des solutions critiques dont l’impact se fera sentir à grande échelle, mais elles ne sont pas adaptées au Citizen Development.

Répartition du Citizen Development et des développements professionnels selon la criticité du besoin et la taille de l’audience adressée

Une fois ces éléments définis, la mise en œuvre opérationnelle de la stratégie de gouvernance peut être lancée.

Mettre en œuvre les choix stratégiques : la gouvernance opérationnelle

Structurer

Pour cadrer l’utilisation de la plateforme, il est essentiel de structurer son espace en sous-espaces de développement isolés appelés “environnements”.

Chaque environnement possède sa gestion des droits, ses règles de capacité de stockage et ses normes de sécurité :

  • Le type d’un environnement influence significativement son utilisation. Selon qu’il soit bac-à-sable, de production ou développeur, chaque environnement a des capacités et contraintes qui lui sont propres. Identifier le rôle, l’audience et les limites d’un environnement est primordial pour choisir le type adapté ;
  • Les Data Loss Prevention (DLP) sécurisent l’utilisation de la donnée au sein des environnements. Certaines solutions nécessitent d’être connectées à des services externes à la Power Platform : c’est au niveau de l’environnement que les administrateurs peuvent limiter ces passerelles vers des jeux de données hétérogènes, garantissant ainsi la conformité d’utilisation ;
  • Les rôles et profils de sécurité gèrent les droits des utilisateurs au sein d’un environnement. Ils limitent l’accès à certaines données et restreignent l’utilisation des outils présents dans l’environnement.

Pour couvrir l’ouverture des services à une audience plus large, il est intéressant de définir des modèles – réplicables et adaptables selon les besoins – d’environnements. Les environnements dédiés à des développements professionnels, notamment ceux du centre de service, couvrent en général les trois phases de conception d’applications : le développement, les tests utilisateurs et la mise en production.

La mise en place d’un écosystème adéquat d’environnements assure la mise en pratique des normes de développement définies lors de la conception du cycle de vie des applications.

Surveiller

Après avoir franchi les premières étapes de structuration des environnements, l’équipe de gouvernance doit surveiller les développements sur le périmètre de l’entreprise. En ayant une visibilité complète sur la façon dont les utilisateurs utilisent les composants de la plateforme, elle peut prendre les décisions adaptées.

Dans ce but, plusieurs fonctionnalités sont déjà intégrées à Power Platform. Il est par exemple possible de surveiller l’utilisation de Dataverse pour s’assurer que les niveaux de consommation de la capacité correspondent aux estimations ; ou de mettre en place un système d’alertes et notifications sur des indicateurs précis comme l’apparition d’un nouveau connecteur ou le partage d’une application avec un nombre conséquent d’utilisateurs. Microsoft propose également une solution, le Centre d’excellence (CoE), assurant le suivi de l’utilisation de la plateforme et automatisant des règles de gestion ; elle facilite ainsi les actions de gouvernance de l’équipe d’administration.

Vous souhaitez en apprendre plus sur le Centre d’Excellence de la Power Platform ? Explorez ses composants ici.

Entretenir

Enfin, il est important d’accompagner et promouvoir l’utilisation des outils de la Power Platform en fournissant les ressources adéquates aux utilisateurs, qu’ils soient Citizen Developers ou professionnels. Définir des lignes directrices et responsabiliser chaque utilisateur est essentiel pour lui apprendre les normes de développement, bonnes pratiques et processus qu’il doit suivre. Toutefois, le rôle de l’équipe de gouvernance a également pour rôle de valoriser le travail des Citizen Developers en visibilisant leur travail au sein de la communauté (chemins de formation certifiants récompensant les utilisateurs avancés, accès plus permissifs, reconnaissance de la hiérarchie…).

Pour assurer cela, voici quelques actions que l’équipe de gouvernance peut mettre en place :

  • La création d’un espace communautaire au sein duquel les Citizens Developers et professionnels pourront interagir, partager des astuces et collaborer. C’est aussi un bon moyen pour l’équipe d’administration de communiquer directement avec les utilisateurs, tout en surveillant leurs difficultés et intérêts. Cette vision complète les statistiques d’utilisation de la plateforme fournis par le CoE pour accompagner la priorisation des actions de gouvernance ;
  • La mise en place d’un programme Champion que les utilisateurs pourront suivre pour devenir des porte-paroles de la plateforme et ce, en échange d’une visibilité accrue et d’interactions privilégiés avec les équipes en charge de la gouvernance ;
  • L’organisation d’événements récurrents préserve l’intérêt des utilisateurs pour la plateforme : sessions de découvertes pour guider les nouveaux arrivants, hackathons réunissant les porteurs de projets métiers et utilisateurs avancés pour imaginer des solutions fonctionnelles, assemblées présentant les solutions prometteuses à l’audience concernée…

Les lignes directrices présentées dans cet article sont une introduction au chantier qu’est la construction et mise en œuvre d’une stratégie de gouvernance efficace au sein d’une organisation. Vous souhaitez en savoir plus sur ce sujet ou être accompagné·e·s par nos équipes Employee Experience ? Contactez-nous.

Vous souhaitez en apprendre plus sur les bonnes pratiques pour valoriser le rôle des Citizen Developers dans une organisation ? Découvrez notre article à ce sujet ici.

En dehors de quelques start-ups ou spécialistes de la tech, les usages de l’intelligence artificielle se sont développés de façon moins spectaculaire que ce qui était attendu il y a quelques années. On constate une prise de conscience générale sur le fait que l’intelligence artificielle n’est pas une solution magique : l’investissement est relativement couteux pour un ROI qui n’est pas toujours au rendez-vous. Transformer une entreprise Data Driven tient plus en sa capacité à disposer de données fiables (mise en qualité), partagées (gouvernance et catalogue) et utilisées par le plus grand nombre (accessibilité et acculturation) que de sa capacité à réaliser des expérimentations de Deep Learning ou Machine Learning.

Faut-il toujours croire au développement de l’intelligence artificielle dans les entreprises ?

Oui, bien sûr. Bien utilisée, l’intelligence artificielle est un accélérateur puissant pour résoudre des problématiques complexes ou générer plus d’efficacité. Toutefois, l’offre existante sur le marché n’est pas toujours lisible : faut-il aller sur des outils packagés avec des modèles pré-entrainés, choisir du sur-mesure ou utiliser des plateformes de développement dédiées aux Data Scientists comme Dataiku ? Les entreprises hésitent aussi bien sur les solutions à retenir que sur les organisations à mettre en place.

Existe-t-il des freins spécifiques à l’intelligence artificielle ?

Le point prioritaire reste la mise à disposition des données : elles doivent être accessibles, qualitatives et représentatives des phénomènes étudiés. Ce prérequis étant franchi, il reste deux autres problèmes à résoudre qui sont souvent sous-estimés :

  • L’automatisation et l’industrialisation : ou comment sortir du cadre de l’expérimentation pour mettre les services d’intelligence artificielle en production. Il convient de s’inspirer du DevOps et du Software Engineering en mettant en place un cadre MLOps et une chaîne d’intégration continue. Sans ces piliers, il est inenvisageable de faire de l’intelligence artificielle un pilier de croissance des entreprises ;
  • L’intelligence artificielle de confiance : dès lors que la finalité est opérée dans un cadre règlementaire ou éthique (RH par exemple), il est indispensable de « superviser » les modèles d’intelligence artificielle afin de les rendre transparents (mise en évidence du poids des variables dans la décision de l’algorithme). La bonne pratique à adopter – qui est notre conviction – est d’aller encore plus loin en ne se limitant pas à l’explicabilité du modèle. Il est nécessaire de superviser l’ensemble de la chaîne, notamment la représentativité des jeux d’entraînements (un algorithme qui apprend sur un jeu de données comportant des biais aura tendance à les reproduire).

Trouver les bons leviers pour maximiser l’apport de l’intelligence artificielle

La mission que s’est donnée Saegus est simple : « maximiser l’impact de l’intelligence artificielle dans les entreprises ». Comment ? À l’appui de supports :

  • Méthodologiques : la difficulté n’est pas de trouver des cas d’usages, mais de trouver les bons. Pour cela, nos équipes identifient les « Deep Use Cases » ayant un impact mesurable sur les fonctions de l’entreprise : opérations (Supply Chain, logistique, Demand Forecasting), procurement, ressources humaines, Sustainability… ;
  • Technologique : nos équipes apportent une prise de recul nécessaire pour recommander les bonnes solutions à leurs clients en fonction du contexte, de la maturité et de la constitution des équipes, ainsi que de leur écosystème technique ;
  • Organisationnel : en fonction de la taille de la culture et du modèle d’entreprise (centralisé ou décentralisé, répartition des activités entre les équipes core et les domaines métiers), nos experts aident les entreprises à structurer et agiliser leurs équipes Data Science : acculturation, montée en compétences, modèles de gouvernance, collaboration et interactions entre les équipes Business et IT… ;
  • Et d’accélérateur concrets : guides pratiques, démonstrateurs, supports de formations et kits prêts à l’emploi – comme notre Starter Kit MLOPS.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data ?

Rédigé par Alexander Mikheev, Manager Data Driven

Signes du dérèglement climatique, les conflits géopolitiques, catastrophes naturelles ou encore les difficultés d’approvisionnement de certaines denrées se multiplient. Ils semblent malheureusement nécessaire à la prise de conscience mondiale sur l’impact environnemental de nos activités, en tant que société et individu. En conséquence, les comportements évoluent : si nous sommes de plus en plus nombreux à ajuster nos comportements, ce changement de mentalité doit désormais s’appliquer à l’échelle de l’entreprise.

Cependant, réduire l’empreinte carbone d’une entreprise grâce à une meilleure gestion de sa consommation énergétique ou une optimisation de ses processus métiers n’est pas aussi simple qu’éteindre ses lumières, trier ses déchets ou limiter l’utilisation de sa voiture.

En conséquence, des réglementations sont mises en place pour aider les entreprises à mieux comprendre et maitriser leurs activités et faciliter le pilotage et l’optimisation de leur empreinte carbone. Depuis 2017, un grand nombre d’entreprises a pour obligation de communiquer sur leur performance RSE (responsabilité sociétale des entreprises), à l’appui d’un reporting extra-financier (remplaçant le rapport RSE).

Cette mesure n’est obligatoire que pour les entreprises de plus de 500 salariés et dont le chiffre d’affaires est supérieur à 40 millions d’euros pour les entreprises cotées en bourse ou 100 millions d’euros pour celles qui ne le sont pas. Toutefois, de nombreuses entreprises qui n’atteignent pas ces seuils font preuve d’initiative pour montrer l’image positive d’un groupe conscient et responsable auprès de ses clients et fournisseurs.

On ne peut que saluer ces initiatives : la conscience écologique doit être au cœur des stratégies des entreprises. Parce que les réglementations évoluent aussi vite que se dérègle le climat, ces mesures seront sans aucun doute appliquées à l’ensemble des entreprises dans les années à venir.

Comment la réglementation va-t-elle évoluer ?

Dès 2024, la CSRD – Corporate Sustainability Reporting Directive (remplaçant l’actuelle NFRD – Non Financial Reporting Directive) imposera la mise en place de nouveaux reporting extra-financiers. On estime qu’environ cinq fois plus d’entreprises seront concernées par cette nouvelle réglementation (par exemple les sociétés de plus de 250 salariés ou toutes les sociétés cotées en bourse).

Les entreprises doivent se préparer dès maintenant : c’est là que la Data entre en jeu. Afin de s’y préparer au mieux, les entreprises n’auront pas d’autres choix que de s’appuyer sur la donnée pour justifier leur conformité face au CSRD. On parle de Data Sustainability.

La Data Sustainability, un réel challenge pour les entreprises

Les lois se durcissent. Elles exigent la mise à disposition d’informations extra-financières, nécessitant plus de transparence dans le reporting et donc dans les données à identifier, collecter, préparer et diffuser. Là est la contradiction de ce système : diminuer l’empreinte carbone des entreprises tout en augmentant sa culture digitale et Data pour pouvoir y faire face.

L’hétérogénéité de la provenance des données, leur raffinement ou leur niveau de qualité est un casse-tête pour les entreprises. Cette complexité est associée à de grands challenges sous-jacents :

  • Le challenge réputationnel pour garantir des collaborations saines et durables auprès des fournisseurs, partenaires et clients, ainsi que des organismes de financement pour assurer les dépenses et la croissance de l’entreprise ;
  • Le challenge culturel de transformation de l’entreprise vers une stratégie digitale centrée sur la Data impliquant de nouvelles organisations pour répondre aux enjeux environnementaux de demain ;
  • Le challenge technologique d’implémentation de plateformes Data décentralisées en tirant parti d’une conception orientée produits, facilitant l’agilité dans la gestion, la maintenance et l’évolution des données.

Pour répondre à ces différents challenges, la mise en place d’une gestion robuste de la donnée est nécessaire. Elle doit être basée sur les 5 piliers de la gouvernance des données.

Les processus Data

Afin de garantir une maitrise des données tout au long de leur cycle de vie, il est indispensable de lancer des chantiers de cartographie des processus Data intégrant les sources internes et externes, des systèmes producteurs de données jusqu’aux systèmes consommateurs (dans l’exemple que nous prenons, jusqu’à l’utilisation des données dans les reportings extra-financiers).

La maitrise des processus Data garantit la traçabilité de la donnée, permet la mise en lumière d’éventuelles causes de non-qualité ou identifie les étapes de collectes manuelles en vue d’une industrialisation technologique.

L’organisation Data

La mise en place d’une organisation Data implique des rôles standardisés et partagés à l’ensemble de l’entreprise. À chaque rôle est affectée une fiche de poste caractérisée et reconnue en tant que position légitime par le management et les ressources humaines. Ces nouveaux rôles doivent être pilotés et accompagnés par un Data Office garant des instances de gouvernance pour assurer la cohérence et vision Data du groupe.

Cette organisation a pour objectif de faciliter les échanges entre les parties prenantes Data et garantir une collaboration étroite entre les domaines fonctionnels et la DSI coordonnée par le Data Office. Elle est indispensable à la mise sous contrôle du patrimoine de données.

La connaissance du patrimoine de données

Le patrimoine de données doit être intelligible et accessible à tous les collaborateurs de l’entreprise. Il assure la véracité et l’intégrité des données transmises lors des exercices extra-financiers. Il se décompose principalement en deux activités : le glossaire des données dans le lequel on retrouve un certain nombre d’attributs permettant de qualifier les objets métiers (définition, responsable, règle de gestion, etc). Il permet de définir un langage commun. Le dictionnaire des données, quant à lui, répertorie la localisation physique des données, les traitements associés et le type de collecte indispensable à la conception des processus Data.

Le catalogue de données apporte de nombreux bénéfices pour la capitalisation du patrimoine. Il a pour rôle d’améliorer la transparence des informations liées à la collecte des données de reporting et, dans notre contexte, prouver la traçabilité en cas d’audit.

La qualité des données

Les équipes Data sont responsables de la formation des collaborateurs aux grand principes de la qualité, aux dimensions suivies ou aux techniques de saisies de la Data. Ils sont indispensables à l’application des processus de qualité intégrant des plans d’actions correctifs et préventifs.

L’implémentation des plans de remédiation repose sur des processus de suivi itératifs à l’appui de tableaux de bord ou outils de gestion de la qualité. L’amélioration de la qualité des données passe par l’implémentation d’outils et de contrôles, mais surtout par la sensibilisation des équipes.

L’augmentation de la quantité, la diversité et la complexité des données des entreprises – dans notre cadre extra-financier où de nombreuses données sont collectées en provenance d’OTI (Organisme Tiers Indépendant) – rendent indispensable la mise en place d’une gestion rigoureuse de la qualité.

L’accessibilité des données

L’accessibilité des données se caractérise comme suit : d’une part elle requiert la définition d’un modèle documenté et partagé d’exploitation des données (Data Operating Model) ; d’autre part elle nécessite la mise à disposition de données qualifiées, dont l’intégrité et la disponibilité est assurée par des systèmes de gestion de la donnée adaptée et une mise en gouvernance robuste.

Le Data Operating Model, couplé à une infrastructure bien pensée, est essentiel dans l’équilibre de la gouvernance de données et favorise l’implémentation de nouveaux usages.

Les équipes de notre département Data vous accompagnent dans l’élaboration de stratégies liées à la Data Sustainability grâce à ses expertises techniques et méthodologiques. L’objectif : vous apporter des solutions Data clés en main répondant à des usages métiers spécifiques comme l’élaboration des reportings extra-financiers ou la mise sous gouvernance des données liées aux stratégies RSE.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data for Sustainability ?

Rédigé par Martin Éliard, Manager Data Driven

La Factory, notre département de designers et développeur·se·s, prend la parole pour vous : aujourd’hui, Julie, Motion Designer chez Saegus, nous présente une mission récemment menée auprès de notre client Ip Directions.

À partir de 2023, la loi française obligera tous les opérateurs à transmettre à leurs clients des appels et sms certifiés, c’est-à-dire non-usurpés. Cette législation est une réponse aux sollicitations intrusives par téléphone qui se sont multipliées au cours de la décennie.

Dans ce cadre, Ip Directions propose aux opérateurs un service de certification d’appels propres et certifiés. L’entreprise a développé un système automatisé pour sécuriser les appels en bloquant ceux qui ne sont pas validés en amont.

C’est dans ce contexte qu’Ip Directions a fait appel à Saegus. L’objectif : créer une vidéo de présentation de ce nouveau service pour adresser les opérateurs, informer les consommateurs et favoriser l’engagement sur les webinaires informatifs proposés par l’entreprise.

Le Motion Design pour communiquer sur une notion technique

Par nature, nos interlocuteurs principaux étaient ingénieurs de formation. Ils utilisaient donc un langage très technique, qu’il fallait rendre compréhensible à un large public. C’est là tout l’avantage du Motion Design : simplifier et illustrer une notion complexe pour faciliter la réception d’un message clé à une audience cible, à l’appui du storytelling.

Par ailleurs, la nécessité de créer deux vidéos s’est imposée pour adresser la diversité des publics cibles : une première présentant le contexte existant et les enjeux ; et une seconde plus technique sur le processus de la clarification de la donnée.

Après avoir défini le contexte, le processus de création de chaque vidéo a été découpé en plusieurs étapes :

  • Le script : il permet de choisir et valider les éléments écrits de la vidéo (wording, ton of voice). Le challenge était de traduire une terminologie technique en un langage compréhensif par le grand public ;
  • Le storyboard : ou la mise en image. C’est à cette étape que le propos est animé pour illustrer les propos complexes. Nous avons également choisi de faire intervenir un speaker pour favoriser la pédagogie et faciliter la compréhension du propos.
  • La musique de fond : le choix de musique intervient à cette étape car le tempo des animations est désormais défini ;
  • La voix-off : pour la cohérence de la vidéo, nous avons gardé une même voix pour l’ensemble de la vidéo ;
  • L’animation : soit la symbiose entre ce qui a été composé (illustrations, musique, voix-off) ;
  • Le sous-titrage : cette étape assure l’accessibilité de la vidéo.

Découvrez les livrables

Ce deuxième livrable mixe des compétences multiples (After Effects, Premiere Pro, Powerpoint…). Pour faciliter la co-édition des éléments de vocabulaire avec le client, nous avons choisi d’utiliser PowerPoint. Cette souplesse était d’autant plus nécessaire pour ce projet : parce que le contexte technique et les éléments de vocabulaire évoluent rapidement, notre client pourra mettre à jour la vidéo en autonomie dès qu’il le souhaitera.

Conclusion

Les formats que nous avons créés ont été visionnés plus de 8 000 fois et partagés une centaine de fois ; 130 personnes se sont inscrites sur l’ensemble des six webinaires. “C’est un plaisir de découvrir de nouveaux univers professionnels, comprendre les rouages d’un domaine pointu et ouvrir ces connaissances au grand public grâce à des méthodes d’écriture et des illustrations graphiques ludiques”, indique Julie, Motion Designer chez Saegus.

Vous souhaitez en savoir plus ou être accompagnés par nos équipes de la Factory ?