Ici archive

Pourquoi des Custom Viz ?

De manière usuelle, les utilisateurs métiers sont outillés par leur DSI avec des outils “groupe”, généralement sous licences et avec lesquelles ils doivent composer pour répondre à leurs besoins. Dans la plupart des cas, ces outils répondent à une majorité de cas d’usages et à 80% des besoins utilisateurs.

Cependant, il arrive fréquemment que ces outils soient trop limités ou ne peuvent simplement pas répondre à un besoin spécifique. Si cela concerne un processus métier essentiel, les directions IT recherchent alors des applications spécialisées construites pour ces usages. Malgré tout, certains processus sont tellement spécifiques (ou répondant à un nouvel usage), qu’aucun outil sur le marché ne peut y répondre totalement. 

Plusieurs cas sont alors rencontrés : 

  • Les utilisateurs “tordent” les outils qu’ils ont à leur disposition jusqu’à atteindre leurs derniers retranchements, ce qui rend l’exploitation et la maintenance du produit compliquée, voire dégrade les performances et donc in fine l’expérience utilisateur ;
  • Les utilisateurs combinent (quand cela s’avère possible) plusieurs outils pour arriver à leurs fins, ou décident de séparer différentes étapes de leur processus via différents outils. Cela peut complexifier le déroulement d’un processus, tout en apportant de la complexité technique.

Une solution alternative peut être de proposer des outils “custom” répondant au mieux aux besoins des utilisateurs, soit en développant des outils de bout en bout, soit en s’appuyant sur des solutions existantes sur le marché offrant des possibilités de personnalisation et de maintenance simplifiées. C’est dans ce contexte qu’intervient la notion de Custom Viz.

Quels en sont les principes ?

Si les coûts de licence sont généralement inexistants (framework open source), une Custom Viz engendre un coût plus élevé pour le développement, la maintenance et la gestion des évolutions ; le ROI réel est parfois difficilement mesurable. C’est souvent le frein majeur aux initiatives de ce type en parallèle de l’automatisation et l’industrialisation des processus qui tend à faire émerger des plateformes dédiées de data visualisation (type Power BI ou Tableau Software).

C’est également un défi technique car les blocs de construction de nos logiciels de visualisation de données sont généralement optimisés pour une forme ou l’autre. Il est donc important de s’appuyer sur une expertise combinée Data Viz et Technique afin de créer des composants permettant de répondre de manière pertinente et performante aux besoins, tout en s’assurant de sa maintenabilité dans le temps.

Il est en premier lieu important de challenger ce postulat (complexe, couteux, spécifique) et aussi de mettre en perspective ce qu’implique et signifie une Custom Viz.  

La définition standard est qu’une Custom Viz est développée dès lors qu’un outil du marché ne peut répondre à un besoin de visualisation demandé par un utilisateur métier. En l’état actuel des choses, la visualisation de données personnalisée est le plus souvent décrite comme tout ce que vous ne pouvez pas faire avec un outil standard, et si cette définition a l’avantage d’être techniquement précise et simple, elle n’est pas représentative.

En effet même si elle est personnalisée, une Custom Viz n’est pas forcément complexe. De multiples représentations sont déjà existantes ou sont des combinaisons de représentations communément utilisées.  

La personnalisation entre en jeu uniquement parce que l’on souhaite déployer une petite fonctionnalité qui n’est pas nativement présente et peut amener une vraie plus-value business.

On peut ainsi représenter 3 grandes catégories de Custom Viz :

  • Personnalisée ;
  • Combinatoire ;
  • Néo-Visualizations.

Ces catégories ne sont pas exhaustives mais permettent globalement de regrouper l’ensemble des cas d’usages des différents types de Custom Viz. 

Il faut néanmoins rappeler le but d’une visualisation : permettre de mettre en lumière une information pertinente – identifier des problèmes, aider à la prise de décision, faire apparaître des interactions… La mise en place de ces visualisations permet de dégager un ROI qui peut être mesuré de différentes manières. La première et la plus simple à appréhender consiste à se demander quels seraient les préjudices à ne pas faire (impact sur les prises de décisions, coûts).

La catégorie personnalisée regroupe des visualisations de données préexistantes auxquelles on rajoute certaines fonctionnalités ou éléments graphiques supplémentaires pour un cas d’usage particulier. Cette catégorie peut sembler simple avec l’ajout de nouvelles fonctions à une visualisation données, mais il est malgré tout nécessaire dans la plupart des cas de recréer l’ensemble de la visualisation pour une intégration parfaite des nouvelles fonctionnalités et une optimisation du rendu graphique.

À titre d’exemple, un histogramme peut très bien être redéveloppé au sein d’une application web, utilisant les librairies D3.js, Highcharts… simplement pour permettre une interaction métier avec le reste des fonctionnalités proposées dans l’application. Ainsi, nous pouvons imaginer qu’un clic sur une barre de l’histogramme ouvre un panneau de détail dans l’application afin de faire apparaître des informations détaillées sur la série en question.

La catégorie combinatoire est celle la plus usuelle en termes de customisation, car elle est plus facile à mettre en œuvre. Il s’agit dans ce cas de prendre plusieurs techniques de visualisation de données et de les intégrer en une seule et même visualisation. Une forme de visualisation combinatoire courante est la transition graphique de données affichées sous des formes différentes permettant de donner une lecture différente de l’information exposée, comme afficher des données sur une carte puis les transformer en graphiques à bulles. L’exemple ci-après illustre l’association de plusieurs types de représentations permettant d’analyser en un coup d’œil différents niveaux de granularités d’une même information. La combinaison de différentes visualisations peut être impactante en termes de story-telling, mais nécessite souvent un investissement important en termes de conception pour ne pas tomber dans l’excès et être contre-productif : la nouvelle visualisation doit aider à la compréhension de l’information.

La catégorie des néo-visualisations est la plus facile à appréhender, car elle regroupe la création de visuels de bout en bout à destination d’un usage particulier précis et le plus souvent spécifique. Elle est issue d’un besoin ad-hoc pour délivrer une visualisation impactante ou faciliter la prise de décision rapide. Les néo-visualizations prennent également en compte toutes les visualisations que nous pouvons retrouver dans l’infographie de manière générale. Si certaines peuvent être farfelues, d’autres ont le mérite d’être facilement lisible par n’importe quel profane tout en aidant le lecteur à la compréhension des informations qu’elle tente de présenter (peut être les prémices du data story telling ?).

Ces visualisations sont moins souvent présentes dans les outils traditionnels d’explorations et de présentation de données, voire inexistantes, ce qui peut sembler normal. Sans tomber dans l’extrême, certains processus métiers nécessitent l’implémentation spécifique de ce type de visualisations pour permettre une appréhension optimale des informations à présenter.  

La catégorie regroupe l’ensemble des créations sur mesure mais qui peut parfois être généralisée, réutilisée ou dérivée pour être finalement intégrée à d’autres applications ou usages similaires. 

C’est aussi de manière commune le cheminement de la création graphique, toute visualisation de données ayant été créée pour un usage particulier à un moment donné. 

On observe également un usage de plus en plus courant d’outils permettant une plus grande souplesse d’utilisation et d’ajout de visuels personnalisés. 

La séparation entre ces catégories permet de d’éclairer l’usage de Custom Viz et permettre une meilleure catégorisation et choix d’utilisation.  

Fournir aux métiers les outils d’analyse dont ils ont vraiment besoin

Les données de l’entreprise n’ont jamais eu autant de valeur ni jamais été aussi nombreuses et hétérogènes. Plus il y a de données, plus de valeur peut en être tirée et ainsi, faire émerger de nouveaux besoins métiers ou faire évoluer ceux déjà existants.  

Le plus souvent le traitement de ces données est assuré par les équipes BI de l’entreprise, permettant de faire ressortir certains KPI et fournir aux différentes directions métier les données et indicateurs leur permettant de prendre des décisions ou actions pertinentes.  

Aujourd’hui, les utilisateurs métier demandent de plus en plus d’autonomie pour appliquer/réaliser leurs propres analyses et présenter la valeur la plus désirable ou nécessaire pour répondre à leurs enjeux opérationnels et business. Dans le même temps, certains processus métier se sont complexifiés, spécialisés, expertisés, jusqu’au moment où les outils d’analyse traditionnels ou disponibles sur le marché, ne suffisent plus ce qui rend possible et presque inévitable, l’essor de ces Custom Viz et explique ce besoin croissant de spécialisation des reportings.  

Nous ne traiterons pas en profondeur la notion de coûts directs et indirects de la mise en place d’une solution incorporant des Custom Viz, mais sachez simplement qu’un arbitrage est souvent nécessaire entre développer une nouvelle visualisation au sein d’un outil existant le permettant ou développer une solution “crafted”. Les pivots de décisions sont souvent les mêmes selon les besoins métiers, mais voici d’ores et déjà quelques questions que vous pouvez vous poser si vous êtes confronté à ce type problématique :

  • Ai-je un outil supporté par un éditeur de renom, dont je paye déjà une licence qui pourrait intégrer mon besoin en termes de visualisation de données ? Si oui, ai-je les compétences au sein de mon entreprise pour réaliser ces développements ? L’éditeur propose-t-il une solution d’accompagnement (ou de réalisation) le cas échéant ? 
  • Est-ce que ce nouveau graphique s’ancre pour un besoin particulier ou sera-t-il amené à couvrir un scope plus large qu’actuellement ? Nécessitera-t-il d’une maintenance évolutive ?
  • Le besoin exprimé par le métier peut-il être amené à évoluer ? N’y-a-t-il pas intérêt à proposer une application dédiée pour ce besoin ? Y-a-t-il des chances pour que des interactions existent (un jour ?) entre le graphique et le reste du process métier ?
  • Ce besoin s’appuie-t-il sur un seul point de contact dans le processus métier ou est-ce un besoin flottant qui mériterait d’être approfondi et détaillé pour valider une solution technique plutôt qu’une autre ?

Ces questions ne sont pas exhaustives mais permettent de se faire une idée du type de solutions que vous pourriez proposer à vos utilisateurs métiers, et de fait, en déduire un coût de réalisation associé. 

En complément, nous recommandons fortement de mettre en place une équipe dédiée, pluridisciplinaire en mesure de répondre à ces besoins, aussi bien d’un point de vue technique (implémentation / développement), design (matérialisation des usages, hiérarchisation de l’informations et conception des interactions) que story-telling (expertise data-visualisation)  

La mise en place d’un tel dispositif, de type “centre d’excellence”, peut être un coût lors de sa création mais garanti un ROI à moyen et long terme, au vu des besoins de spécialisation de plus en plus répandus au sein des entreprises. Son but sera de mettre en place un ensemble de process et frameworks permettant d’agiliser la chaîne en s’appuyant sur une nouvelle typologie de profil : le “Data Viz Engineer” qui combine les aspects du triptyque “technique/design/story-telling”. 

Dans un prochain article, nous vous présenterons des exemples concrets et des illustrations des différentes catégories de Custom Viz ainsi que des aspects allant au-delà des problématiques d’analyses notamment des problématiques d’accessibilité qui font des Custom Viz un sujet de plus en plus important chez nos clients.

Vous souhaitez être accompagnés sur ce sujet par nos équipes Data ? Contactez-nous !

Rédigé par Julien Ayral, Senior Manager Data, et Sébastien Perrot, Manager Factory

Le 6 juillet s’est tenu le «  LumApps Users Exchange Europe 2021  », événement lors duquel notre partenaire  a donné la parole à ses clients et partenaires, et a également partagé la vision et la roadmap de la plateforme. Yvan Forestier, Directeur de la Factory chez Saegus a d’ailleurs eu l’immense honneur d’animer une table ronde sur l’engagement et les moyens fournis localement pour réussir au niveau global avec Airbus, Valéo, FM Logistic et DynamicScreen. 

Une édition riche en retours d’expériences clients et nouveautés plateforme avec un mot d’ordre principal : être au service d’une expérience employée, pour qu’elle soit la plus orientée possible usage terrain, et booster la valeur métier.

Au cours de cette édition, nous avons assisté à beaucoup de témoignages clients très intéressants, qui s’accordent autour de l’importance de considérer les usages métiers et le parcours terrain des collaborateurs pour proposer la meilleure expérience, à travers la plateforme LumApps.

Les sujets tels que la définition des personae et user journey, la mise en place d’une identité engageante, la construction d’une stratégie éditoriale pour un meilleur engagement, l’embarquement des populations clés, l’accompagnement dans une transformation globale qui peut parfois être culturelle… ont animé l’ensemble les témoignages.

La mise en place d’une expérience employée adaptée et réussie nécessite de :

  • Bien comprendre les besoins de vos collaborateurs et être dans une démarche inclusive qui implique par exemple des relais terrain. Cette inclusivité est particulièrement importante dans un contexte industriel où vous devez prendre en considération des populations de type « Frontline workers ». Cela permettra d’adapter les services de votre plateforme LumApps aux besoins et attentes métiers.

  • S’inscrire dans un programme de transformation avec une vision partagée centrée autour de la création de valeur métier.

  • Définir une gouvernance en considérant la plateforme LumApps comme étant un produit qui doit répondre en permanence aux besoins métiers de ses “clients” (employé·es). Cette gouvernance devra être bien évidemment évolutive en fonction des différentes phases du projet, depuis le démarrage jusqu’au lancement/déploiement et au run/évolution et adaptation.

  • Mettre en place une tactique d’adoption personnalisée en fonction des typologies de vos employé·es, leurs parcours, usages et cultures. Pour que l’engagement et l’adoption soient pérennisés, pensez à créer un réseau de relais/ambassadeurs comme véritables acteurs pour prêcher la bonne parole, remonter les besoins terrain qui évoluent constamment, et contribuer à l’engagement d’une manière locale.

  • Construire un centre de service permettant de maintenir une dynamique engageante autour de l’utilisation de la plateforme. L’objectif de ce centre de service est de répondre aux besoins spécifiques que les métiers peuvent exprimer, faire évoluer la plateforme dans un cadre d’amélioration continue et d’adaptation aux nouveaux besoins, et de suivre la roadmap produit LumApps qui évolue en permanence pour une meilleure expérience.

La vision produit de LumApps a été présentée avec des annonces qui vont dans le renforcement du positionnement de la plateforme comme point d’entrée unique pour une expérience employée globale, avec un « move from content à to journey à to experience. En bref “move frome a system of engagement to a system of empowerment” avec les axes d’améliorations suivants :  

  •  Renforcer les possibilités de personnalisation et d’adaptation en fonction des besoins de la population cible  

  • Créer une expérience plus immersive via des « insights » et plus intégrée à l’environnement applicatif métier (hub) 

  • Faire évoluer l’application mobile vers plus de d’inclusivité des « frontline workers » 

Pour plus d’informations rendez-vous en septembre 2021 ! Et d’ici là, restez connecté.e.s.

L’impact de la transformation digitale

La consommation de services numériques (particuliers et entreprises confondus) est en augmentation constante depuis plusieurs décennies. La crise sanitaire actuelle a favorisé et accéléré ce phénomène. Les entreprises ont massivement déployé des solutions de collaboration, accru leur consommation de données dans toutes leurs formes, et font appel à des solutions de traitement et de calculs toujours plus puissantes, notamment d’intelligence artificielle.

Il est vrai que l’enseignement de l’année 2020 a été qu’une utilisation massive du digital permet de réduire les déplacements physiques, y compris transcontinentaux ; reste à savoir si ce phénomène sera durable ou si la reprise d’une vie “normale” ne viendra pas juste s’ajouter à l’intensification de ces usages numériques maintenant “acquis”.

Plusieurs études montrent que l’empreinte du numérique est estimée, à l’horizon 2025, à 10% (contre 4% actuellement (1)) de la consommation électrique mondiale, soit celle d’un pays faisant 2 à 3 fois la taille de la France. La consommation d’énergie liée aux cryptomonnaies dans le monde équivaut à la consommation d’un pays tel que l’Égypte (2). Plus à notre échelle, une box internet de particulier consomme autant d’énergie qu’un grand réfrigérateur.

Il est extrêmement difficile de savoir si l’innovation technologique aura à terme un impact environnemental positif et négatif. Cet article n’a d’ailleurs pas l’ambition d’adresser ce problème de manière holistique, mais de s’intéresser plus particulièrement à l’impact (positif) que pourrait avoir le développement de services d’intelligence artificielle dédiés à l’optimisation d’une consommation énergétique plus environnementale.

L’IA ne résoudra pas la problématique de production d’une électricité décarbonnée : il s’agit là d’un enjeu planétaire, complexe, dont la résolution ne peut se faire qu’en alignant progrès technologique, volonté politique et équilibre économique.

Toutefois, nous pouvons envisager à court terme des impacts positifs pour l’environnement. Cela se traduirait notamment par l’utilisation de l’IA sur des cas d’usages appropriés, via une méthode de gestion de l’IA raisonnée.

Quels cas d’usage pour une IA vertueuse ?

L’utilisation d’algorithmes (base de machine learning ou deep learning) est efficace dans un très grand nombre de cas d’utilisation. Initialement éprouvés sur des axes marketing (segmentation, scoring, recommandation), bancaire (risques, fraudes, optimisations), recherche (élaboration de molécules, traitement d’image, diagnostics médicaux), industrie (opérations de maintenances, logistique), ces programmes peuvent également être “entraînés” sur des tâches à impact positif.

À titre d’exemple, nous pouvons citer de manière générale :

  • La lutte contre l’obsolescence programmée (recommandation d’utilisation de produits, détection de dysfonctionnement, maintenance prédictive) ;
  • La maîtrise de la consommation d’énergie (optimisation domotique : gestion de la lumière, de la chaleur), pour le particulier mais également à l’échelle d’une entreprise, d’une ville, d’un pays ;
  • La gestion des ressources naturelles (supervision de parcelles agricoles, détection de maladie sur base d’images, gestion des espaces forestiers, analyse de l’air, de l’eau, impact du réchauffement, érosion des côtes) ;
  • Les impacts de phénomènes climatiques extrêmes (prédictions de dégâts, inondations) ;
  • L’optimisation de la supply chain – les traitements sont actuellement orientés sur le rendement, mais ils pourraient inclurent une composante “impact environnemental” dans le calcul d’optimisation.

Cette liste n’est évidemment pas exhaustive, mais illustre qu’il existe énormément de possibilités, peu ou pas explorées à date.

Une gouvernance mondiale “raisonnée” est-elle possible ?

Comme indiqué précédemment, la consommation énergétique liée aux services numériques est très élevée. Il en est bien sûr de même pour l’IA qui nécessite de très grand volumes de données et de fortes puissances de calcul.

La gestion des infrastructures et de l’énergie sous-jacente n’est évidemment pas un levier à la main des équipes de développement, et ne l’est qu’en partie pour les grandes entreprises.

Il existe cependant d’autres leviers de rationalisation :

  • La gestion et le partage de l’information : pour répondre aux besoins applicatifs la donnée a toujours été dupliquée, copiée, redondée, que ce soit dans des bases de données, systèmes de fichiers ou applications. Les facilités offertes par le Cloud et la baisse du coût de stockage ont encore accéléré ce phénomène. Le premier levier à l’échelle de l’entreprise est de gérer cette information comme un capital, de limiter les duplications en gérant mieux la description et le partage. Cela s’opère par une gouvernance adaptée mais également par des modèles d’architecture et d’urbanisation des données (gestion des méta-données, apisation, industrialisation des datalayers) ;
  • La gestion des algorithmes : c’est un sujet encore assez neuf, dont peu d’entreprises se sont saisies. La première vague a visé à démultiplier les initiatives et les expérimentations pour en prouver la valeur. La seconde vague, actuelle, a pour objectif l’automatisation et l’industrialisation. La troisième vague pourrait être celle de la réutilisation et du partage ;
  • À l’échelle de l’entreprise, cela signifie la mise en place d’une gouvernance algorithmique, permettant de cartographier les assets existants, de mutualiser les phases d’entraînement et de mise au point, et de démultiplier l’usage des algorithmes (sans repasser par de la recréation, de la duplication de données, de la multiplication fastidieuse de phase d’optimisation). L’objectif final serait la création d’une librairie d’algorithmes prêts à l’emploi ;
  • Au-delà du cadre de l’entreprise, cela pourrait prendre la forme d’une “Algo Market Place” au sein de laquelle les entreprises pourraient monétiser la mise à disposition d’algorithmes performants et pré-entraînés – sur le même modèle que les Data Market Place.

Enfin, il convient de faire appel à ces technologies de manière raisonnée. Dans de nombreux cas, des traitements plus simples, statistiques ou règles donnent des résultats tout aussi fiables avec un bilan efficacité/consommation de ressources beaucoup plus efficient.

Notre mission, au sein du cabinet Saegus, est autant d’identifier et de mettre en œuvre des services d’IA sur des cas d’usages à impact sociaux-environnemental positifs, que d’aider les entreprises à renforcer ou établir des règles de gouvernance efficaces et responsables.

Rédigé par Frédéric Brajon, Associé et Co-fondateur, et Clément Moutard, Manager Data

Sources :
(1) Agence de la Transition Écologique : https://bit.ly/3waPB7V
(2) Cambridge Bitcoin Electricity Consumption Index : https://cbeci.org