Ici archive

Le cerveau mémorise plus facilement un contenu lorsqu’il est illustré par un visuel et accompagné par du son : nous retenons 10% de ce que nous lisons, 20% de ce que nous entendons et 60% de ce que nous lisons et entendons simultanément.

Un format alliant ces deux éléments sera donc plus impactant. C’est là qu’intervient le motion design : l’art de mettre en mouvement des éléments (schémas, images, typographies, illustrations) synchronisés sur une musique, voire une voix-off. L’objectif : simplifier et illustrer une notion complexe pour faciliter la réception d’un message clé à une audience cible.

Il peut être diffusé sur tout support pouvant accueillir un format vidéo : réseaux sociaux, YouTube, télévision, cinéma, écran publicitaire… Il est donc particulièrement adapté pour :

  • Faire de la pédagogie : vulgariser un propos auprès du grand public ;
  • Une présentation produit : en montrant ses atouts et cas d’usage par exemple ;
  • Animer un live event : en s’appuyant sur une identité visuelle définie, les animations encadrent les différentes séquences (animer le logo, créer un carton pour les questions ou le nom de l’intervenant·e) d’une émission télévisée ou un webinaire par exemple ;
  • Brander une marque ou œuvre : on pense par exemple aux génériques de films, celui créé dans les années 1960 pour la série de films James Bond étant considéré comme le premier motion du cinéma.

Les entreprises utilisant la vidéo comme contenu marketing obtiennent un taux de clics et de conversion web étant respectivement 27% et 34% plus importants que celles qui ne l’utilisent pas (source : Vidyard). L’explication est simple : une présentation produit en motion design, plutôt qu’une image packshot, met l’accent sur l’émotion à l’appui du storytelling. Parce qu’il·elle pourra mieux se projeter dans l’utilisation du produit, le·la consommateur·rice sera plus enclin·e à passer à la phase d’achat.

Le format vidéo est aujourd’hui l’allié du référencement naturel (SEO) : par exemple, une vidéo publiée sur YouTube intégrée dans un site web générera plus de vues, les deux algorithmes travaillant ensemble pour créer de l’engagement.

Les étapes de création d’une vidéo en motion design

  • Le contexte : quel est le message clé de la vidéo ? Quelle est sa cible ? Où sera-t-elle diffusée ? Quelle est la direction artistique de la marque ? Quelle ambiance recherche-t-elle ? Une maison de luxe recherchera par exemple des transitions douces, alors qu’une marque d’art discount préférera des effets plus rapides ;
  • Le script : c’est ici que commence le storytelling. Uniquement écrit, le script définit le fil conducteur de la vidéo et les mots clés à introduire. Il est essentiel de verrouiller ici le « ton of voice » et les tournures de phrase avec les parties prenantes ;
  • Le storyboard : ou la mise en image. C’est à cette étape que le propos est illustré (animation, personnage…) en accord avec la charte graphique de la marque. Notre astuce : pour aider un client à se projeter, créez votre storyboard en haute fidélité sur Illustrator – la hiérarchisation des informations, les couleurs et les animations seront proches du rendu final ;
  • La musique de fond : le choix de musique intervient à cette étape car le tempo des animations est désormais défini ;
  • (Optionnel) La voix-off : pour trouver celle qui sera le mieux adaptée à une vidéo, enregistrez-en plusieurs aux timbres différents et testez-les ;
  • L’animation : soit la symbiose entre ce qui a été composé jusqu’ici (illustrations, musique, voix-off) ;
  • Le sous-titrage : cette étape assure l’accessibilité de la vidéo.
Exemple de storyboard

Les 5 principes du motion design

Voici quelques conseils non-exhaustifs que nous appliquons dans la création de nos vidéos :

  • Une vitesse de lecture confortable : le danger étant d’être trop rapide. À force de travailler sur une vidéo, nous finissons par en connaître le contenu par cœur. Ce n’est pas le cas du·de la spectateur·rice qui regarde la vidéo pour la première fois et essaie d’absorber le maximum d’informations. Tip : faites tester votre vidéo à différentes personnes ;
  • Choisir une typologie d’animations : à conserver tout au long de la vidéo pour créer de la linéarité et cohérence. Créez des points de repères avec des effets de répétition – par exemple, une typologie pour des questions. Choisissez des animations en accord avec la hiérarchisation des informations et évitez celles étant trop originales (par exemple, un titre apparaissant en tourbillon à l’écran) – sauf si c’est l’effet recherché ! ;
  • Pensez à l’accessibilité : en évitant les animations rapides et brusques pour les personnes épileptiques, les aplats de couleurs similaires pour les personnes daltoniennes… ;
  • Synchronisez : vos animations avec le tempo de la musique ;
  • Ne craignez pas le vide ! Favorisez un ensemble épuré et séquencez les mises en page.

Les logiciels couramment utilisés

Il existe de nombreux logiciels couramment utilisés pour les différentes étapes du motion design (Potoon, Animate…). Nous nous concentrerons sur Illustrator et After Effect, qui sont ceux que nous utilisons le plus chez Saegus.

Illustrator est particulièrement utile pour l’étape de création du storyboard. Il permet de travailler sur des formations vectorielles. Un bémol : les graphismes manquent parfois de texture, donnant un rendu un peu froid.

After Effect est un logiciel aux possibilités infinies pour la création d’animations sur-mesure. Le logiciel est régulièrement mis à jour et de nouvelles fonctionnalités sont proposées chaque année. La seule limite : votre créativité !

Un·e bon·ne motion designer saura…

  • Faire une veille pour connaître les bonnes pratiques, tendances, idées d’animations… ;
  • Comprendre et s’adapter au tone of voice d’une marque ;
  • Donner un mouvement fluide et naturel aux animations.

Les projets de motion design chez Saegus

Chez Saegus, nous travaillons principalement sur des projets d’animation de marques ou produits. En voici quelques exemples :

Hololens 2 : à travers un cas d’usage, cette vidéo montre le pain point que résout cette technologie et comment l’utiliser concrètement sur le terrain.

Accompagner l’adoption des outils de collaboration comme Office 365 : ce type de vidéo met en avant les nouveaux usages et les fonctionnalités des outils correspondants. Il est ici nécessaire de bien comprendre les besoins de chaque client et créer une vidéo qui leur est spécifique, selon leur niveau de maturité digitale.

Animer la marque Saegus : en illustrant notre positionnement, nos offres, nos événements…

Vous souhaitez être accompagnés par nos designers à la Factory ou en savoir plus ?

Rédigé par Julie Ramier, Designer à la Factory

TypeScript est un langage de programmation fortement typé qui s’appuie sur JavaScript, qu’il enrichit de nouvelles fonctionnalités.

Développé par Microsoft en 2012, TypeScript connaît une grande popularité dès 2017. À l’époque, Microsoft souhaite créer un langage de programmation pouvant assurer une meilleure gestion des projets à grande échelle. Jusqu’ici, JavaScript est utilisé seul car il l’est l’un des seuls langages acceptés par les navigateurs – mais il est mal adapté aux grands projets (trop complexe, pas de typage, pas d’interface…).

Comment TypeScript intervient-il dans le processus de codage ? Comment fonctionne-t-il ? Quels sont ses avantages ?

Qu’est-ce que TypeScript ?

TypeScript est transcompilé en JavaScript, c’est-à-dire qu’il traduit le code TypeScript vers du code JavaScript afin qu’il soit interprété par tous les navigateurs.

Le grand avantage de TypeScript, comme son nom l’indique, est qu’il permet de typer son code, soit d’attribuer un type aux éléments du code source (variables, fonctions…). En conséquence, chaque élément joue un rôle identifié.

Par exemple :

  • En TypeScript : sur la ligne de code “let count : number = 2”, il est indiqué que count est obligatoirement un nombre ;
  • En JavaScript : sur la ligne de code “let count = 2”, count peut être un autre type par la suite, puisqu’il n’est pas référencé comme nombre ;
  • Si l’on considère la ligne de code “count = “hello world”” : en TypeScript, cette ligne sera erronée (puisqu’elle ne correspond pas au typage précédemment effectué), ce qui ne sera pas le cas en JavaScript.

Ses points forts

Parmi ses autres avantages, nous pouvons citer :

  • L’autocomplétion : par exemple, si l’on souhaite créer un array, TypeScript suggère automatiquement les fonctions liées au type référencé en amont (filter, map, find…) ;
  • La documentation : même s’il est essentiel de documenter son code, pour soi-même comme un·e futur·e développeur·se qui reprendrait un projet, TypeScript permet d’éviter les commentaires à l’intérieur du code, comme “//version doit être nombre” ;
  • La propreté : JavaScript est souvent jugé permissif voire incohérent ; TypeScript pallie ce problème grâce aux détails qu’il est possible d’y ajouter, le rendant plus facile à lire et comprendre ;
  • La gestion d’erreurs : les erreurs commises en TypeScript, qui empêcheraient la compilation du code, sont signalées par un liseré rouge – ce qui n’est pas le cas en JavaScript. Jusqu’alors, ce travail était fait par des bibliothèques ou éditeurs de texte ;
  • La maintenabilité : puisque le code est typé, il est plus facilement maintenable. Les futures mises à jour seront plus simples et rapides, entraînant un gain de temps et d’argent.

TypeScript condense donc de multiples fonctionnalités en un seul outil.  À l’inverse, certain·e·s développeur·se·s estiment qu’il alourdit le code, puisqu’il l’alimente avec de nouvelles fonctionnalités – ce qui est compréhensible à l’échelle de petits projets.

Toutefois, nous pouvons considérer que TypeScript est adapté à tous les types et échelles de projets ; nombreux sont les petits projets qui prennent par la suite de l’ampleur !

Cas pratique

Conclusion

TypeScript a définitivement révolutionné la manière de coder. Il est de plus en plus adopté, pour les nouveaux comme les anciens projets – de nombreux sites ont mis à jour leur code avec TypeScript. Le choix revient bien sûr aux développeur·se·s d’utiliser ce langage, selon leurs habitudes et sensibilités personnelles, mais il ne fait aucun doute que TypeScript continuera son ascension : il est déjà aujourd’hui parmi les 10 langages de programmation les plus utilisés (source).

Vous souhaitez en savoir plus ?

Rédigé par Diesen Nwoumga, Consultant Factory

Le métavers est un réseau d’environnements graphiques virtuels en ligne, accessible grâce à des équipements de réalité virtuelle ou augmentée. Les utilisateurs sont plongés dans une expérience immersive au sein de laquelle ils ont la liberté d’être qui ils souhaitent et d’aller et de faire ce qu’ils veulent sans limite. Le film “Ready Player One” est un bon exemple pour illustrer le métavers – les personnages vivent dans l’Oasis, une société virtuelle accessible grâce aux mêmes technologies. La réalité a donc rattrapé la science-fiction : il est aujourd’hui possible de basculer dans ce monde parallèle…

L’intention de Mark Zuckerberg de transformer l’entreprise Facebook en un métavers est devenu un sujet incontournable pour les entrepreneurs, et plus particulièrement les acteurs du marketing. En effet, le monde virtuel offre des opportunités commerciales générant de la valeur : il est essentiel de s’y adapter rapidement ! L’exposition des marques et des produits dans le métavers est aujourd’hui la clé pour se positionner sur ce nouveau champ de bataille. Mais comment procéder ?

La publicité OOH virtuelle

L’espace de publicité est le modèle principal de sources de revenus du métavers (ex-Facebook, donc). Les designers et ingénieurs qui créent ces mondes virtuels travaillent ensemble pour permettre aux marketers et publicitaires de diffuser leurs annonces dans des espaces dédiés. À l’image des publicités out-of-home (OOH) que l’on retrouve sur les immeubles, les panneaux publicitaires ou dans les transports en commun, les annonces sont exposées sous des formats multiples non-contraints par les lois de la physique.

Les événements virtuels

En 2019, Marshmello réalisait pour la première fois un concert de musique électronique dans le jeu vidéo Fornite, rassemblant ainsi les joueurs autour d’une expérience musicale immersive. Ce concert a levé les contraintes logistiques et de capacité d’accueil pour laisser place à la créativité. Il a ouvert la porte à de nouvelles opportunités événementielles pour les marques comme l’organisation de défilés de mode, de premières de films ou d’évènements sportifs. Les possibilités sont infinies… sky is the limit !

Le placement de produit virtuel

Le métavers n’est pas qu’un lieu de jeu : il est possible d’y créer son avatar en lui donnant l’apparence et le style que l’on souhaite. Certaines marques de luxes comme Balenciaga et Gucci se sont déjà positionnées sur ce marché en intégrant leurs produits dans le monde virtuel : des boutiques offrent aux clients une nouvelle expérience, ayant pour objectif d’accroitre à terme les ventes dans la réalité.

L’avenir du placement de produit dans le métavers

Notre conviction est que les marques et organisations seront une partie intégrante du métavers dès lors que son usage sera mainstream. Ainsi, nous pouvons imaginer que les entreprises et marques loueront des espaces virtuels pour déployer leurs activités. Mercedes y lancera des véhicules virtuels, Starbucks offrira des espaces virtuels où se retrouver…

Saegus saisit l’opportunité de valoriser les données marketing du métavers pour augmenter les insights consommateur en fournissant un conseil en stratégie. Nos experts du data marketing vous accompagnent sur l’analyse des données du métavers (comportement utilisateur et médias digitaux), la mise en place de stratégie marketing dans le métavers et la réalisation de contenus créatifs digitaux. Le futur est déjà le présent : nous sommes prêts, et vous ?

Vous souhaitez en savoir plus ou être accompagnés par nos équipes Data ?

Rédigé par Tanasit Mahakittikun, Consultant Data

Maximiser l’efficience et l’efficacité opérationnelle dans un monde en constante évolution est un défi pour toutes les entreprises aujourd’hui, quel que soit leur secteur d’activité. Les challenges opérationnels sont de plus en plus nombreux et complexes : perturbation des chaînes d’approvisionnement, numérisation massive des modes de consommation, augmentation ininterrompue des exigences qualité et guerre concurrentielle pour offrir les meilleurs prix ne sont que quelques-uns d’entre eux. Dans ce contexte, les données de l’entreprise sont un asset qu’il n’est plus possible de ne pas exploiter et valoriser à sa juste valeur.

Martin Alteirac, Senior Manager en charge du secteur Industriel au sein de l’équipe Data Driven Business chez Saegus, répond à nos questions.

Comment les nouveaux usages de la data peuvent-ils contribuer à l’excellence opérationnelle ?

Avant d’être une démarche, l’excellence opérationnelle est un état d’esprit. Un des piliers de cet état d’esprit est à mon sens la faculté à objectiver les problèmes, à être pragmatique, à raisonner sur des faits et pas sur des idées préconçues ou des préjugés.

La data est donc un atout majeur dans la quête de cette excellence car elle permet de mettre en évidence de manière factuelle les points de faiblesses d’une organisation. Deux grands usages peuvent contribuer à l’excellence opérationnelle des entreprises :

  • L’analytics, par sa faculté à apporter à chaque collaborateur·rice une information personnalisée et actionnable et à faire rayonner dans l’entreprise une culture de la mesure de la performance ;
  • La data science, par sa capacité à optimiser et/ou automatiser certains processus métier complexes ou à aider à la conception de nouveaux produits ou services.

Le premier enjeu est d’identifier les fonctions d’une entreprise les plus à même de bénéficier de ces nouveaux usages de la data.

Quelles sont les fonctions de l’entreprises les plus propices au déploiement de ce type de démarche ?

Toutes les fonctions de l’entreprise peuvent bénéficier d’une démarche Data Driven Ops :

  • La production ou les opérations pour délivrer des produits ou services d’une qualité irréprochable tout en optimisant leur coût de production ;
  • La Supply Chain pour servir ses clients toujours plus vite en sollicitant le minimum de ressources ;
  • La maintenance pour garantir que les moyens de production soient les plus productifs possible ;
  • Le procurement où la transformation digitale permet d’acheter toujours mieux et au meilleur prix ;
  • Les ressources humaines pour booster l’efficacité des équipes ;
  • La recherche et le développement pour développer les produits et services de demain.

Bien évidemment l’intérêt de ces différentes fonctions dépend généralement du secteur d’activité concerné :

  • Le secteur du manufacturing sera intéressé par les cas d’usages autour de la valorisation des données issues des équipements ou des systèmes d’information liés à la production : optimisation des rendements, qualité ou maintenance prédictive, optimisation de la planification… ;
  • Le secteur de la distribution B2B ou B2C sera friand de cas d’usages autour de la supply chain, du procurement ou du pricing ;
  • Enfin le secteur énergétique sera concerné par la récupération et l’exploitation de données physiques mesurées par des capteurs posés au niveau des équipements de production et de consommation d’énergie pour prévoir la demande ou la production en temps réel.

D’autres cas d’usages existent (gestion des ressources humaines, des achats) ; chaque entreprise pourra également imaginer des cas d’usages spécifiques sur les problématiques qui lui sont propres. C’est souvent le cas lorsqu’on touche à des sujets de R&D ou d’innovation ayant pour objectif le développement de produits ou services visant à développer son activité.

Comment mettre en place une démarche Data Driven Ops ?

Les données de l’entreprise sont une mine d’or mais, comme pour l’or, les obstacles à franchir sont nombreux pour passer de leur découverte à leur valorisation.

Pour qu’une démarche Data Driven aboutisse il faut donc fédérer des acteurs à même d’apporter les expertises nécessaires :

  • Une expertise métier pour s’assurer que la démarche soit menée par la recherche de valeur ajoutée concrète, qu’elle soit technique, économique ou opérationnelle ;
  • Une expertise technique qui permette de sélectionner les bons outils et les bonnes technologies à mettre au service des métiers ;
  • Une expertise méthodologique sans laquelle les chances de voir la démarche aboutir s’amenuisent à cause des freins techniques, organisationnels ou culturels que ce type de démarche rencontrera à un moment ou à un autre.

Qu’est-ce qui fait de Saegus un partenaire de choix pour ce type de projet ?

Saegus est capable d’apporter à ses clients l’expertise et les ressources nécessaires pour initier, conduire et pérenniser une démarche Data Driven. D’une part, les directeurs et managers du cabinet ont conduit de vastes programmes de transformation au sein des plus grandes entreprises françaises ; d’autre part, ses consultant·e·s possèdent les expertises sectorielles, fonctionnelles et technologiques requises et sont continuellement formé·e·s aux nouvelles technologies et solutions du marché.

Mais plus que tout, nos équipes placent les utilisateurs et les usages au centre de la démarche Data Driven. Cela garantit la meilleure adéquation possible entre les choix technologiques et les besoins de l’entreprise et surtout l’adoption la plus large et durable possible des outils développés.

J’aurai l’occasion de vous parler de nos cas d’usages les plus emblématiques dans de futurs articles. Stay tuned !

Envie d’en savoir plus ou d’être accompagné·e·s par nos équipes Data ?

Un Design System est une bibliothèque de guides et références au service de la construction de standards d’expérience utilisateur de produits d’une marque. Il est propre à chaque marque et permet de garder une cohérence à travers les supports qu’elle développe. C’est une référence essentielle pour les parties prenantes d’un projet ou les membres chargés du développement d’un produit.

Constitué d’éléments qui se répondent les uns aux autres, le Design System doit être pensé comme un ensemble cohérent. Selon la méthode de l’atomic design théorisée par Brad Frost en 2015, les caractéristiques (forme, couleurs, typographie…) d’un premier élément (une “molécule”) définissent un style (l'”atome”) déclinable pour créer l’ensemble des composants. C’est en imbriquant ces composants que l’on peut créer des templates complexes (formulaires, menus…), jusqu’à la création complète d’une maquette.

S’il n’y a donc pas de règles précises à suivre pour la création d’un Design System, quelques étapes clés se dessinent :

  • Déterminer les enjeux et objectifs liés à la conception du Design System ;
  • Faire l’audit de l’existant (s’il y a un existant) ;
  • Concevoir le Style Guide : principes visuels de typographie, palettes des couleurs et règles associées, grilles de structuration des éléments ;
  • Définir les principes de communication de la marque, soit la charte éditoriale (langage, ton…) ;
  • Prioriser puis créer les composants de l’interface ;
  • Assurer la maintenabilité du Design System.

Se posent alors les questions : comment créer un bon Design System ? Quels en sont les avantages ? Comment le maintenir à travers le temps ?

Faire l’audit de l’existant (facultatif)

Lorsqu’une marque est bien implantée, son identité visuelle est souvent déjà existante. Il est alors nécessaire de faire l’inventaire de l’existant : si elle dispose d’une charte graphique – plus techniquement, d’un Style Guide –, quels sont les codes graphiques, les logos, les guidelines qui y sont inclus ? S’il n’y en a pas, quels sont les composants existants de l’identité visuelle de la marque ?

C’est en dressant cet inventaire qu’il est possible de déceler les incohérences et les manquements dans l’expérience utilisateur : par exemple des boutons d’actions, des styles de titres démultipliés ou des ombres qui ne seraient pas similaires. À partir de ce constat, il est possible de proposer des axes d’amélioration qui seront la base du Design System.

La définition des rôles et process

Si elle fait gagner du temps sur les projets développés par la suite, la création d’un Design System prend du temps et de la réflexion, en amont puis en production. Pour faciliter les nombreux échanges entre les parties prenantes, il est nécessaire de définir clairement les process et les rôles de chacun·e – cela favorisera la création d’un Design System pertinent et cohérent et donc, les interactions futures liées à la création d’une interface.

D’abord, en créant une nomenclature commune. Y a-t-il déjà un langage partagé et quelles en sont les définitions actuelles ? Varient-elles d’une BU à une autre ? Établir un langage commun facilitera la création des interfaces et évitera des potentielles confusions ou malentendus, les équipes étant mieux alignées. Il peut être nécessaire de définir des fondamentaux communs (par exemple, un banner = une bannière), puis de simplifier certains termes s’il y a lieu.

Par exemple : m-banner-hover
> M pour molécule (atome > molécule > organisme) ;
> Banner pour bannière, soit le type d’élément ;
> Hover pour l’état ou la variation de l’élément.

Cet exemple va faciliter le dialogue entre les designers et les développeurs, accélérant ainsi leur temps d’exécution. Ce gain de temps leur permet à terme d’affiner des détails poussés comme les micro-interactions. Enfin, une nomenclature commune permettra de vite identifier l’élément autant dans la maquette que dans le code source.

Concevoir le Style Guide

Avant tout, un Design System doit être composé d’un guide de style (Style Guide). Celui-ci se rapproche de la charte graphique d’un produit.

Le guide de style va permettre de recenser ce qu’on appelle les “perceptual patterns” qui font référence aux éléments suivants : couleurs, typographies, espaces, formes, icônes, illustrations, photographies, animations, sons.

Ces éléments vont être utilisés comme atomes dans la conception globale des composants.

Définir les principes de communication de la marque

La charte éditoriale est une composante clé du Design System. C’est le travail de l’UX Writer : en travaillant les éléments de langage (ton, mots-clés, informations…) en accord avec l’image de la marque, il·elle harmonise les principes de communication pour accompagner au mieux les utilisateur·rice·s tout au long de leur parcours. Par exemple : pour une interface médicale, il est préférable d’utiliser des mots simples à un vocabulaire scientifique – c’est ce que préconise Oxygen, le Design System de Doctolib.

Nous ne vous en disons pas plus, car vous pouvez retrouver notre article détaillé sur l’UX Writing ici !

Prioriser puis créer les composants

Quels sont les composants (header, bouton, card…) les plus fréquents dans l’interface développée ? Lesquels sont les plus utilisés ? Ce sont eux qu’il faudra développer en premier. Ensuite, il faudra se demander : quels sont les composants propres à l’entreprise ? Comment développer des micro-interactions cohérentes ?

Le milieu de l’UX étant en constante évolution, et les nouvelles tendances étant nombreuses, un Design System doit être holistique. Les composants doivent donc être adaptables et affichables sur différents devices – d’autant plus que ceux-ci sont de plus en plus variés et nombreux -, tout en conservant leurs caractéristiques et fonctionnalités. Ils doivent également s’articuler facilement entre eux. Le but ? Délivrer une expérience homogène mais unique sur chaque support. Pensé ainsi, le DS pourra répondre à un maximum d’usages, de besoins et de contraintes futurs. Lorsque les micro-interactions sont alignées, l’expérience utilisateur est cohérente, simple et facile – impactant à terme l’image d’une marque de manière positive.

Assurer la maintenabilité du Design System

Pour maintenir un Design System dans le temps, les parties prenantes de l’entreprise doivent être impliquées en étant au fait de la nomenclature choisie et des règles établies.

Montrer rapidement les résultats de ce qui a été conçu permet d’engager les équipes à travers des KPIs préalablement définis : a-t-on gagné en temps de production lorsque l’on sort un nouveau produit ? Le taux de rebond a-t-il diminué ?

Conclusion

Si le Design System a été conceptualisé il y a plus d’une dizaine d’années, il est de plus en plus intégré dans les projets. Ses bénéfices sont multiples, mais l’on peut toutefois retenir 3 points : une simplification de la relation designers/développeur·euse·s, un gain dans la rapidité d’exécution et donc, une constance dans l’expérience utilisateur qui sera plus détaillée et cohérente, comme la marque qu’elle représente.

Vous voulez en savoir plus ? Vous souhaitez être accompagné·e·s sur un projet ? Contactez nos équipes à la Factory !

Rédigé par Yasmine Morsi, Consultante Confirmée Factory

(1) https://airbnb.design/building-a-visual-language/

La business intelligence est aujourd’hui “drivée” par plusieurs éditeurs de logiciels – les principaux étant Microsoft avec Power BI, Tableau et Domo :

Ces outils fournissent des tableaux de bord opérationnels sur différents domaines à plusieurs niveaux hiérarchiques pouvant aller jusqu’au CODIR. Conscients des enjeux de cyber sécurité qu’implique ce type de projets, les architectes groupes réfléchissent aux solutions les plus adaptées.

Comment ces outils fonctionnent-ils ? Concrètement, dans une première démarche, un outil de BI stocke la donnée collectée dans ses propres bases de données dont le client ne peut souvent pas choisir le fournisseur et la localisation. Par exemple, un Power BI récupère de la donnée dans une base de données client chez Google Cloud et la stocke dans sa base de données Azure.

C’est ainsi que la plupart des outils de BI proposent à présent au moins deux modes de connexion : l’Import Query et le Direct Query.

Plusieurs défis se posent alors :

  • Est-ce un problème que ma donnée soit stockée dans deux bases de données différentes ? On pense par exemple à une donnée très sensible telle que la donnée financière ;
  • Les connecteurs Live Query sont-ils assez robustes pour interroger un très gros volume de données ?
  • Quels sont les coûts engendrés par le choix de l’architecture ?

Définition : Import Query et Direct Query

Tout d’abord, quelle est la différence entre ces deux notions, qui peuvent varier selon les outils de BI ?

Import Query : le fait de collecter la donnée stockée dans une database dédiée et qui appartient à l’outil de BI.

Direct Query : le fait de lire de la donnée en direct dans la database source sans la stocker ailleurs.

Import Query

La majorité des outils de BI propose ce mode de collecte de la donnée et ce, pour plusieurs raisons.

Mindset

Cela crée de la valeur pour l’outil en question. Évidemment, l’outil de BI garantit la sécurité de la donnée collectée (elle ne la diffusera ou ne la vendra pas), mais elle possède bien une donnée qui ne lui appartient pas et qui est importante aux yeux d’une entreprise. Cette dernière aura donc tendance à se fidéliser auprès de cet éditeur.

Bénéfices pour l’utilisateur

Une fois que la donnée est stockée, l’outil de BI propose aux éditeurs qui la traitent d’y apporter des transformations, comme des jointures avec d’autres bases de données. Il s’agit ici de transformer la donnée brute en une donnée qui répond parfaitement aux besoins de la visualisation dans un tableau de bord.

En matière de performance, la donnée étant stockée chez l’éditeur, les requêtes permettant d’afficher les visualisations lors d’un changement de page seront plus rapides.

Coût

Enfin, un dernier aspect non négligeable, le coût du tableau de bord. Généralement, lorsque vous souscrivez à un outil de BI, vous payez une licence qui vous donne le droit à un certain volume de stockage. Power BI est par exemple gratuit jusqu’à 1 go par jeu de données. Il faut passer sur une licence premium pour augmenter ce volume de stockage à 10 go ou plus. Vous payez donc un volume maximum.

Ainsi, vos frais relatifs à la donnée s’arrêtent là (exceptés donc les autres coûts liés par exemple aux accès utilisateurs). Peu importe le nombre de fois qu’un utilisateur requête une visualisation, votre coût sera fixe. À noter que l’entreprise paiera donc deux fois le stockage de sa donnée, une fois via l’outil de BI et une fois via le serveur où est stockée sa donnée source.

Direct Query

Une entreprise souhaitant stocker sa donnée à un seul endroit n’aura donc pas d’autre choix que d’utiliser ce mode de collecte. Le Direct Query est moins avantageux pour un éditeur d’outils de BI car il perd les points expliqués ci-dessus.

Mindset

La seule valeur ajoutée de l’outil de BI devient la visualisation.

Bénéfices pour l’utilisateur

  • Afficher la donnée la plus fraîche provenant de la base de données ;
  • Un seul point de stockage de la donnée (préférable si la donnée est sensible).

Inconvénients pour l’utilisateur

  • Avec le Direct Query, la majorité des outils de BI ne proposent plus la possibilité de faire des transformations. La donnée devra donc être traitée avant d’être collectée par l’outil de BI dans un BigQuery ou un Snowflake par exemple ;
  • La performance sera impactée en fonction du temps de réponse entre le serveur source et l’outil de BI, qui sera généralement plus long que la méthode Import. Sur un très gros volume de données, le temps d’affichage des visualisations sera trop long et deviendra un frein à l’adoption et la navigation.

Coût

En matière de coût, l’éditeur de l’outil de BI est le grand perdant. Le grand gagnant est en fait le fournisseur de base de données qui contient la donnée source. Par exemple, GCP facture à la requête, même dans un data studio qui appartient à Google, chaque nouvelle requête sur ce tableau de bord engendre des coûts d’utilisation au client. Plus la volumétrie est importante, plus les coûts le seront. Une architecture mal optimisée au sein de GCP sera vraiment coûteuse au quotidien, comme un Direct Query sur une vue classique faisant la jointure entre deux tables très volumineuses. Il sera important de porter une attention particulière à la performance et au nombre de requêtes effectuées. C’est le prix à payer pour avoir la main totale sur sa donnée et être maître de sa localisation.

Bonus : Hybrid Query

Chez certains éditeurs, notamment Power BI, il existe un troisième type nommé “Hybride”. Ce mode combine les modes import Query et Direct Query au sein d’une même table.

Concrètement, vous pouvez cibler une partie de votre table pour qu’elle vous renvoie la donnée en live query – comme les données du mois précédent, tandis que la donnée antérieure à ce mois sera récupérée via l’import Query.

Bénéfice pour l’utilisateur

Dans le cas où l’utilisateur requête une base de données avec une très grosse volumétrie, cela améliorera le temps d’affichage de son tableau de bord en lisant la plus grosse partie de la base (la donnée historique par exemple) via l’Import Query. Il pourra tout de même avoir de la donnée en temps réel (la donnée la plus fraîche par exemple) via le Direct Query sur une partie ciblée de la base de données.

Conclusion

La sensibilité de la donnée et le coût à terme sont deux points essentiels à considérer pour choisir une approche adaptée afin d’ingérer de la donnée dans des outils de BI pour réaliser un tableau de bord.

D’un point de vue relatif à la sécurité, une entreprise n’a pas intérêt à stocker sa donnée dans plusieurs base de données.

Cependant, un connecteur Direct Query n’est pas assez robuste sur des très gros volumes de données : nous l’avons vu, le temps de chargement sur une page sera un frein à la navigation sur le tableau de bord. En revanche, il est très efficace sur des petits volumes de données, si les tables alimentant les visualisations ont été factorisées en amont au sein de l’entrepôt de données. Il pourra également répondre au besoin d’afficher de la donnée en temps réel.

À ce jour, la solution la plus pertinente, notamment pour de gros volumes de données, est de choisir un même fournisseur pour stocker et lire la donnée. Par exemple, un Power BI ingérant de la donnée en Import Query depuis Azure la stocke également dans Azure – si le serveur est différent, il s’agit bien du même fournisseur.

Pour résumer :

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Maxime Rousseau, Consultant Senior Data

Sources
(1) https://www.qlik.com/fr-fr/gartner-magic-quadrant-business-intelligence

Depuis ces dernières années, les solutions low-code se multiplient : accessible à un plus large nombre de personnes appelées “citizen developers”, le low-code atténue la barrière entre IT et métiers.

Qu’est-ce que le low-code ?

Le low-code est un environnement qui permet de développer des applications avec peu de code, contrairement au développement traditionnel. Les solutions low-code mettent ainsi en avant une interface graphique user-friendly souvent accompagnée de modèles prédéfinis pour accélérer et faciliter les développements. On estime que les lignes “low-code” représentent 20% du nombre moyen de celles créées dans les process classiques de développement.

Il est souvent fait mention de “no-code”. Il s’agit ni plus ni moins d’une sous branche du low-code qui pousse le concept jusqu’au point où coder n’est plus nécessaire pour développer.

Le contexte

Ces dernières années ont été marquées par l’accélération de la transformation numérique au sein des entreprises, renforcée et précipitée par la pandémie du Covid-19. Face à cette situation, les Directions des Systèmes d’information (DSI) ont vu une augmentation des demandes et des besoins qu’elle n’arrive souvent pas à prendre en charge face à la multiplication des projets et du fait de ressources financières et humaines limitées. La pénurie de développeurs sur le marché renforce d’autant plus ce constat.

La mise en place de solutions low-code a été l’une des réponses à cette situation.

Parce qu’ils requièrent moins de compétences techniques, ces outils permettent aux utilisateurs métiers de gagner en indépendance en créant rapidement leurs propres applications (interface de saisie, requêtes métiers, rapports de pilotage simple…). Un nouveau profil a alors émergé dans les entreprises, le “citizen developer” : généralement un profil métier avec une forte appétence pour le digital qui devient le pont entre la DSI, les solutions low-code et les équipes métiers.

Le citizen developer facilite ainsi la création d’applications au plus proche des besoins métiers. De ce fait, le time to market se voit réduit. Mendix, un des acteurs clés du marché low-code, considère que le temps de développement est divisé par deux ou plus par rapport à un développement traditionnel. À noter que la mise en place de ces solutions est accompagnée par les DSI dont le rôle évolue, devenant de véritables partenaires des métiers.

Le marché du low-code

D’après une étude réalisée par Forrester, cabinet d’étude et de conseil, le marché des solutions low-code est estimé à 21,2 milliards de dollars en 2022, contre 3,8 milliards de dollars en 2017.

Gartner, société américaine de conseil et recherche, prédit quant à elle que le low-code représentera 65 % des applications développées en 2024. La société a également publié en août 2021 un magic quadrant positionnant les différents acteurs du low-code actuels selon 4 axes : les challengers, les leaders, les solutions de niches et les visionnaires.

Parmi les leaders du low-code, on remarque Mendix, ServiceNow, Salesforce ou encore Microsoft, dont l’offre Power Platform propose 4 solutions low-code complètes :

  • Power Apps : transformez vos idées en solutions professionnelles, en permettant à chacun de créer des applications personnalisées destinées à relever les défis de l’entreprise ;
  • Power BI : prenez des décisions professionnelles fiables et avisées en fournissant à chacun des informations exploitables fondées sur des données ;
  • Power Automate : dopez la productivité et l’efficacité de votre entreprise en donnant à chacun les moyens d’automatiser les processus organisationnels ;
  • Power Agent : créez facilement des chatbots pour converser avec vos clients et vos employés, sans aucun codage requis.

Le low-code a donc un bel avenir devant lui avec des acteurs et des offres en plein essor !

Plus que de révolutionner le développement, c’est une invitation à réfléchir aux rôles et interactions des différents services dans les organisations et aux avantages concurrentiels qu’ils peuvent procurer.

L’enjeu est de déterminer la bonne solution et les cas d’usages avec une gouvernance associée, permettant ainsi de rassurer aussi bien les métiers que l’IT et offrir ainsi une alternative au shadow IT.

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Claudio Anfuso, Consultant Senior Data

Product Writer, Copywriter, Content Strategist… les métiers dédiés aux contenus des interfaces utilisateurs sont nombreux. Parmi eux, le métier d’UX Writer, né au début des années 2010 aux États-Unis, s’impose peu à peu en Europe. Quels sont ses domaines d’action ? Comment intervient-il·elle dans le processus de conception global de l’expérience utilisateur ? Quelle est la valeur ajoutée de son expertise ?

Sa mission, centrée sur la rédaction de textes d’une interface utilisateur, est double :

  • accompagner les utilisateur·rice·s dans les différentes étapes de leur parcours, en clarifiant l’information et en réduisant les doutes, puis les faire passer à l’action ;
  • et ce, en accord avec le positionnement de la marque.

À l’instar de l’UX designer, l’UX Writer doit donc comprendre en détails les besoins, les habitudes et les motivations des utilisateur·ice·s. Comment vont-ils·elles comprendre les instructions qui sont mises à leur disposition ? Comment vont-ils·elles agir en conséquence ? Comment les accompagner jusqu’à l’étape de conversion ?

Clarifier l’information

En effet, un contenu rédactionnel maîtrisé dessine un tunnel de décision pour l’utilisateur : pour cela, l’information doit être claire et précise. Prenons un exemple : en Anglais, les mots « sign up » (s’inscrire) et « sign in » (se connecter) sont très proches – ce qui peut entraîner une confusion, d’autant plus auprès d’utilisateur·rice·s non-Anglophones. Il serait pertinent de proposer « create an account » (créer un compte) et « log in » (se connecter), dont les significations sont distinctes et donc, compréhensibles.

Le tone of voice

Le choix de mots de l’UX Writer se base également sur l’image de marque d’une entreprise. Comment ces mots mettent-ils en avant les forces et les différences de la marque ? Sont-ils en accord avec le discours global tenu par celle-ci ? L’enjeu est de créer et/ou de préserver la confiance des utilisateur·rice·s envers la marque en proposant un contenu rédactionnel adapté, s’intégrant s’il y a lieu à un écosystème déjà existant. Le tone of voice, ou la voix d’entreprise, est une opportunité unique de se connecter avec l’utilisateur·rice qui interagit avec les mots et le design sur son écran. Une marque ne dit pas à ses utilisateur·rice·s qu’elle est chaleureuse, fiable et de confiance : elle doit le montrer dans sa manière de communiquer, visuellement et textuellement.

Prenons comme exemple la page d’erreur 404 du site de Marvel, page que la plupart des sites respectant les bonnes pratiques du web proposent de nos jours. Si l’information clé est d’indiquer à l’utilisateur·rice qu’une erreur est survenue et qu’il·elle doit se diriger ailleurs, il y a différentes manières de le communiquer. Si l’on prend appui sur ce que Nielsen & Norman Group évoque dans sa vidéo sur les 4 dimensions de tone of voice, croisé avec l’hypothèse de ce que les fans du monde des Comics attendent (des clins d’œil, des références, un peu de fun), on pourrait obtenir ce cheminement :

  • Ton sérieux, formel et pragmatique : « Nous rencontrons un problème. Veuillez nous excuser ». Le message est simple et transmet l’information à l’utilisateur·rice ;
  • Ton plus familier : « Désolé, mais nous rencontrons un problème de notre côté ». Ce ton reste trop formel pour Marvel ;
  • Ton dynamique et enthousiaste : « Ah ! Désolé, nous rencontrons un problème de notre côté ! ;
  • Maintenant, ajoutons une petite touche « clin d’œil » pour les fans qui aidera à dédramatiser l’aspect négatif que représente une page 404 dans un parcours de navigation : « Erreur 404 page disparue. Hydra a dérobé cette page de la base de données du S.H.I.E.L.D. ! »

Quelles sont les qualités d’un·e bon·ne UX Writer ?

  • Avoir de l’empathie : pour connaître ses utilisateur·rice·s, il faut savoir les écouter et les comprendre, puis se mettre à leur place afin d’imaginer la solution la plus adaptée. Prenons l’exemple de Doctolib : l’utilisateur·ice prend rendez-vous, souvent pour la première fois, auprès d’un·e praticien·ne de santé. Cette situation peut être une source de stress, pouvant rapidement générer de l’incompréhension. Comme stipulé dans Oxygen, le Design System de Doctolib, l’UX Writer a choisi un ton chaleureux, dépourvu de jargons professionnels (médicaux comme informatiques) qui seraient trop complexes à appréhender. (1) Les phrases à tournure positive sont préférées à celles à tournure négative : par exemple, « Stay connected, don’t close this page » devient « Stay connected, keep this page open. » (2) Dans le même objectif, les informations présentées à l’écran sont les plus explicites possibles :
  • Comprendre : à la fois les attentes des utilisateur·ice·s et la ligne éditoriale de la marque. Il est nécessaire pour cela de poser un maximum de questions, sans juger ni interpréter les réponses reçues : quelles sont leurs habitudes, leurs frustrations, leurs attentes ? Quel est le ton employé par la marque ?
  • Prendre en compte le contexte : celui dans lequel une interface est créée. Faut-il tout créer ou doit-on partir de l’existant ? L’interface s’intègre-t-elle à un écosystème plus global ? Est-elle destinée à être traduite dans plusieurs langues ? Dans ce cas, l’UX Writer veillera à éviter les jeux de mots ou les formulations propres à chaque langage afin de faciliter le travail de traduction.
  • Résoudre : les problèmes liés au fonctionnement des interfaces. L’UX Writer doit d’abord savoir les identifier, puis proposer des pistes pertinentes en conséquence. Par exemple, pour partager un contenu : avant, « Pour partager, cliquez sur ce bouton » – après, « Cliquez sur ce bouton pour partager » (ici, on place l’action en premier dans la phrase).
  • Communiquer : pleinement intégré dans la démarche d’expérience utilisateur, l’UX Writer est complémentaire des autres métiers : si l’UX Designer crée le produit dans sa globalité, l’UX Writer en optimise le contenu. Ce travail d’équipe doit débuter dès les premières ébauches du projet.
  • Faire tester : les contenus doivent être testés par les utilisateurs finaux, afin que les hypothèses établies puissent être confirmées, sinon invalidées.
  • Fidéliser : il faut rassurer les utilisateurs, puis les faire passer à l’action, tout en leur transmettant des émotions liées à l’image de la marque.

Conclusion

Les entreprises convaincues de la nécessité des services d’un·e UX Writer au sein d’une équipe sont encore peu nombreuses – son expertise leur est pourtant indispensable car elle définit clairement la position d’une marque vis-à-vis de ses utilisateurs. Pleinement complémentaire au travail de l’équipe d’UX, le mode de rédaction qu’il·elle propose offre une nouvelle dimension à l’expérience client telle qu’on la connaît aujourd’hui.

Vous voulez en savoir plus ? Vous souhaitez être accompagné·e·s sur un projet ? Contactez nos équipes à la Factory !

Rédigé par Joseph Deffayet, Consultant Senior Factory

(1) « We write how people speak. For patients, we use everyday words that are easy to understand. We don’t use technical or corporate jargon, unfamiliar acronyms, or obscure words. » Source
(2) « We use positive language rater than negative language. One way to detect negative language is to look for words like can’t, don’t, haven’t, etc. » Source

Le déploiement de la gouvernance des données est indispensable pour assurer une transformation vers des modèles davantage centrés sur la donnée.

Si les organisations ont pris conscience de cet enjeu, nous constatons qu’elles font face à de grands challenges lorsqu’il s’agit de déployer la gouvernance de la donnée : une forte disparité des niveaux de maturité dans l’entreprise, des difficultés à identifier les cas d’usages prioritaires, à démontrer de la valeur à court terme et à maintenir la démarche dans le temps, une faible disponibilité des parties prenantes…

Comment vous est venue l’idée d’introduire l’agilité à la gouvernance de la donnée ?

Chez Saegus, nous avons dans notre ADN de centrer nos projets sur une vision axée sur l’usage et la valeur. Ce besoin se fait davantage ressentir lorsque l’on parle de data gouvernance, où les résultats ne sont pas toujours identifiés par tous ni partagés en amont lors des phases de déploiement.

Un des enjeux majeurs des initiatives de gouvernance de la donnée réside donc dans la capacité à montrer rapidement un retour sur investissement et à illustrer les premiers résultats de manière concrète. Cette preuve de valeur permet de communiquer les premiers résultats à travers l’organisation rapidement, tout en les inscrivant dans une démarche globale.

C’est dans ce contexte que nous avons fait progressivement évoluer notre approche vers une méthodologie reposant sur les concepts de l’agilité. L’objectif ? Offrir à nos clients des résultats rapides et cohérents garantis par une forte implication des utilisateurs. De plus, la mise en place d’un framework agile permet de faire face et de s’adapter aux évolutions structurelles et organisationnelles inhérentes au déploiement d’une gouvernance de la donnée à l’échelle de l’organisation.

Comment mettez-vous en place ce genre d’approche chez vos clients ?

Mettre en place un projet de gouvernance en se positionnant sur l’ensemble des axes organisation, processus et outils nécessite un effort initial considérable de l’ensemble des parties prenantes. En conséquence, les résultats tardent souvent à apparaître. Il est donc nécessaire d’impliquer les utilisateurs métiers en leur offrant des résultats concrets. La création d’un catalogue de données est un bon levier pour générer cet engagement.

Maitriser son patrimoine de données, c’est d’abord le connaitre. Pour construire un catalogue centré sur l’usage et la valeur, il est indispensable d’identifier et prioriser les cas d’usages à fort impact, ayant un retour sur investissement démontrable. Cette démarche s’oppose aux approches par fonctions, entités ou zones géographiques. La volumétrie d’information rend leur mise en place longue, et les bénéfices qu’elles génèrent sont souvent difficilement mesurables. La démarche de gouvernance de la donnée ne doit pas être calquée sur l’organigramme mais sur la valeur. Pour atteindre ce résultat, Il est indispensable de collaborer avec les métiers. Ce sont eux qui disposent de la connaissance de leur périmètre et qui ont donc la capacité de structurer la donnée avec le plus de valeur ajoutée.

Nous avons constaté que la capitalisation de cette connaissance est difficile et souvent chronophage, nécessitant de longues sessions d’ateliers. En conséquence, nous apportons un support significatif dans la consolidation du catalogue de données pour minimiser l’effort des métiers, tout en maximisant la valeur apportée au travail de cartographie.

Quels sont les bénéfices d’une telle démarche ?

Pour optimiser l’exercice de cartographie des données, nous avons mis en place une approche de travail agile fonctionnant par courtes itérations. Celles-ci permettent aux métiers de décrire de petits périmètres de données préalablement identifiés, puis modélisés dans l’outil de data cataloging.

Les longues sessions de travail en réunion ont ainsi laissé place à des points de partage fréquents, mais courts, qui garantissent l’alignement des acteurs sur la méthodologie. Elles génèrent également des échanges sur les points de divergence, permettent la validation en continu des informations du glossaire de termes métiers et assurent l’application des standards établis à l’échelle du groupe.

L’objectif de cette approche est d’implémenter l’information en quasi-temps réel dans le catalogue de données pour permettre à chacun de la visualiser et d’y accéder dès les premiers résultats.

Une telle approche présente un second bénéfice majeur : elle fait monter en maturité et en compétence les équipes métiers sur les sujets data. Une étape indispensable pour commencer à déployer une culture data dans l’organisation et pour préparer les acteurs de demain à leur futur rôle dans l’organisation (data owner, data steward, data custodian…).

Comment cette approche permet-elle d’adresser l’ensemble des composantes de la gouvernance de la donnée ?

Les travaux de cartographie permettent l’identification des référents métiers et IT et leur montée en compétence avant la formalisation de leur rôle dans l’organisation data de l’entreprise.

Cette phase amont permet l’identification des référents métiers avant la formalisation de leur rôle et également d’auditer l’architecture data sur différents axes (fiabilité, sécurité, accès). Un plan de progrès peut alors être établi avec une liste de projets associés.

Enfin, le déploiement d’initiatives localisées de cartographie de données étend le tissu de la gouvernance dans l’organisation, par et pour les métiers pour couvrir l’ensemble des périmètres prioritaires en accord avec l’ambition stratégique data de l’entreprise.

Grâce à notre savoir-faire et nos partenaires privilégiés, notre équipe Data Driven Business est en mesure de proposer des démarches de gouvernance de l’information tant organisationnelles qu’opérationnelles.

Retrouvez le replay notre table ronde exceptionnelle sur l’introduction de l’Agilité dans les processus de Data Gouvernance : https://bit.ly/3HzEvz9

Vous souhaitez être accompagnés par nos équipes Data ? Contactez-nous !

Rédigé par Marc Gabet, Consultant Data

Ces dernières années, de nombreuses entreprises ont décidé de mieux utiliser leurs données pour en faire un véritable atout concurrentiel. Cette culture Data Driven doit favoriser la maîtrise des cycles de décisions, de production, et d’approvisionnement, permettant la conception de produits plus en phase avec les attentes du marché…

Ce constat fait, plusieurs défis restent à relever :

  • L’identification et l’organisation des données ;
  • La captation de nouvelles sources ;
  • La priorisation des cas d’usage ;
  • Les choix de solutions, ou modernisation des socles existants ;
  • La création d’assets ou accélérateurs technologiques ;
  • La conformité règlementaire ;
  • La diffusion d’une culture « Data Driven » et la bonne utilisation des solutions mises à disposition.

Cette liste est non exhaustive, mais donne une indication d’un nombre conséquent de chantiers sensibles à mettre en œuvre.

À cela s’ajoute les particularités liées au niveau de maturité (des entreprises ou services) et au modèle d’organisation. Sans rentrer dans l’ensemble des cas, nous pouvons distinguer 2 typologies bien distinctes :

  • Les organisations centralisées, dont les fonctions IT ont la plupart du temps pour mission de gérer la donnée, de recueillir les besoins des directions métiers et d’offrir des « services » d’accès à l’information ; 
  • Les organisations décentralisées, dont les filiales ont plus d’autonomie et pour lesquelles les fonctions corporate ont un pouvoir de recommandation et de négociation face aux tierces parties, ainsi qu’un pouvoir de diffusion de bonnes pratiques.

Ce dernier cas est particulièrement intéressant en termes d’adoption car les filiales ont « le choix » : de fait, les techniques et bonnes pratiques utilisées dans ce contexte sont applicables à tout type d’organisation.

Diffuser une culture Data Driven

Notre conviction profonde est que plus la personne est proche du métier, plus elle sera efficace pour formaliser des indicateurs pertinents, manipuler l’information et itérer rapidement sur des analyses fonctionnelles. 

Encore faut-il lui donner les solutions, les bonnes pratiques, un accès à l’information simple et, si possible, des accélérateurs ou templates. 

Le message « Faites reposer vos décisions sur la data » reste souvent obscur pour les utilisateurs : comment puis-je accéder à la donnée ? Comment puis-je la retravailler ? Qu’est-ce qui de mon périmètre de responsabilité ou de celui de mon service IT ? 

Diffuser une culture Data Driven avec succès nécessite d’accomplir quelques devoirs :

  • La communication : diffuser des messages clairs expliquant la volonté et la stratégie de l’entreprise en termes d’accès à l’information ;
  • L’acculturation : sous forme de Data Literacy, de sessions de formation, de démonstrateurs, de showroom… permettant de faire découvrir l’étendu du possible et de diffuser un langage commun dans l’entreprise. Par exemple : qu’est-ce qu’un cycle de vie de la donnée, comment définir la data quality, proposer des ateliers de modélisation… ;
  • La présentation du « patrimoine » : elle peut se faire sous forme de cartographie des données accessibles par domaine métier, processus ou cas d’usage. Le but est de faire prendre conscience de la matière disponible et accessible, sinon d’identifier les manques et sources potentielles ;
  • Le coaching, ou la diffusion de bonne pratiques ou d’assets prêts à l’emploi : capitaliser sur les réussites, partager des retours d’expériences, des blocs techniques ;
  • Un processus de collaboration et d’échange : sous forme de communauté d’expertise/business ou de relais locaux pour les entreprises étendues ;
  • Un processus de gouvernance efficace : cela permettra de contrôler les assets partagés, de s’assurer de la bonne application des guidelines et d’identifier par la suite les réussites.

L’ordre d’application de ces « devoirs » peut être revu en fonction de la maturité des entreprises.

Quelle cible atteindre demain ?

L’objectif pour les directions business est de « libérer le potentiel des utilisateurs ».  Cette nouvelle catégorie d’utilisateurs, « éclairés » sur l’usage de la donnée, sont des « Business Scientist » ou « Business Analyst ». Il est alors nécessaire que chaque direction dispose d’un nombre suffisant de ces Data Leaders/Data Champions.

L’objectif pour les directions IT/Data est en effet de créer et d’offrir des services adaptés au cadre définit précédemment.

Ce bouquet de services peut être à géométrie variable en fonction des entreprises, mais l’on retrouve généralement :

  • Des services de stockages (cloud, solution de bases de données) ;
  • Des services d’extraction des données brutes et/ou de mise en qualité ;
  • Des services de transformation/préparation des data set (plus ou moins aboutis en fonction de l’autonomisation des utilisateurs) ;
  • Des services de monitoring et d’industrialisation des pipelines ;
  • Des services de gestion de référentiel ;
  • Des assets techniques (librairies d’algorithmes, d’api…).

Comment s’appuyer sur les instances de type « Data Factory/Data Lab » ?

Depuis plusieurs années, on assiste à une recrudescence de services : Data Factory, Data Lab, Data Foundry… Mais des questions reviennent souvent : faut-il scinder ces activités ? Si oui, comment les coordonner de manière efficace et agile ? Lesquelles dépendent de l’IT et du métier ? Lesquelles sont des entités autonomes ? 

Là encore, il n’existe pas de réponse absolue – il faut adapter la définition en fonction de la maturité des organisations. 

Par exemple, une organisation centralisée aura tendance à positionner la Factory sur les activités de Data Engineering et d’industrialisation, en gouvernant un ou plusieurs Data Lake/Data Store. Le Data Lab est dans ce cas souvent centralisé : les Domain Owners, en charge de la préparation des données et de leur valorisation, sont ici spécialisés par fonction Business. C’est dans cette structure que l’on retrouve les Data Scientists. 

Au contraire, une organisation décentralisée aura tendance à simplement fournir les outils et les assets, mais à reporter les processus d’engineering et d’analyses dans ses filiales ou divisions. Suivant leur taille, ces structures peuvent scinder leurs activités de Factory et de Lab, ou à l’inverse les regrouper dans une même instance. 

Proposer un modèle de capitalisation et de partage efficace

Pour que le système soit durable, il est indispensable de définir un processus de gouvernance partagé. Ce processus, lien entre les différentes parties prenantes, est l’un des moyens les plus sûrs d’atteindre un ROI rapide. Plus un asset ou un service sera partagé et réutilisé, plus son coût de création sera amorti et donc, la valeur dégagée élevée.

Repenser l’accès

L’accès à ces assets/informations doit lui aussi être repensé. Le contenu doit être adapté au profil de l’utilisateur (information, news, habilitation sur le contenu), puis mis à jour régulièrement avec des nouveautés afin de susciter un engagement croissant des utilisateurs.

Passer à l’action !

Comme souvent sur les projets de transformation, nous conseillons d’avancer par itération. Il est inutile d’avoir finalisé l’ensemble des éléments pour se lancer. 

Il est par contre indispensable d’avoir cadré la démarche, établi une vision claire de la trajectoire et de préparé une communication adaptée. La richesse de contenu sera ainsi auto-alimentée par la communauté adhérant au processus. 

Enfin, il faut surtout rester agile. L’équipe supervisant ce process « Data Driven » doit adopter une posture d’équipe produit : écouter les feedbacks et savoir pivoter si nécessaire selon son marché interne, en fonction du succès de l’adoption, de l’élévation de la maturité et de la prise d’autonomie.

Pour en savoir plus…

Notre équipe Data se tient à votre disposition pour partager ses retours d’expérience et vous aider à cadrer et développer votre modèle Data Driven.

Rédigé par Frédéric Brajon, Associé Co-fondateur de Saegus et Directeur du département Data