Ici archive

Depuis ces dernières années, les solutions low-code se multiplient : accessible à un plus large nombre de personnes appelées “citizen developers”, le low-code atténue la barrière entre IT et métiers.

Qu’est-ce que le low-code ?

Le low-code est un environnement qui permet de développer des applications avec peu de code, contrairement au développement traditionnel. Les solutions low-code mettent ainsi en avant une interface graphique user-friendly souvent accompagnée de modèles prédéfinis pour accélérer et faciliter les développements. On estime que les lignes “low-code” représentent 20% du nombre moyen de celles créées dans les process classiques de développement.

Il est souvent fait mention de “no-code”. Il s’agit ni plus ni moins d’une sous branche du low-code qui pousse le concept jusqu’au point où coder n’est plus nécessaire pour développer.

Le contexte

Ces dernières années ont été marquées par l’accélération de la transformation numérique au sein des entreprises, renforcée et précipitée par la pandémie du Covid-19. Face à cette situation, les Directions des Systèmes d’information (DSI) ont vu une augmentation des demandes et des besoins qu’elle n’arrive souvent pas à prendre en charge face à la multiplication des projets et du fait de ressources financières et humaines limitées. La pénurie de développeurs sur le marché renforce d’autant plus ce constat.

La mise en place de solutions low-code a été l’une des réponses à cette situation.

Parce qu’ils requièrent moins de compétences techniques, ces outils permettent aux utilisateurs métiers de gagner en indépendance en créant rapidement leurs propres applications (interface de saisie, requêtes métiers, rapports de pilotage simple…). Un nouveau profil a alors émergé dans les entreprises, le “citizen developer” : généralement un profil métier avec une forte appétence pour le digital qui devient le pont entre la DSI, les solutions low-code et les équipes métiers.

Le citizen developer facilite ainsi la création d’applications au plus proche des besoins métiers. De ce fait, le time to market se voit réduit. Mendix, un des acteurs clés du marché low-code, considère que le temps de développement est divisé par deux ou plus par rapport à un développement traditionnel. À noter que la mise en place de ces solutions est accompagnée par les DSI dont le rôle évolue, devenant de véritables partenaires des métiers.

Le marché du low-code

D’après une étude réalisée par Forrester, cabinet d’étude et de conseil, le marché des solutions low-code est estimé à 21,2 milliards de dollars en 2022, contre 3,8 milliards de dollars en 2017.

Gartner, société américaine de conseil et recherche, prédit quant à elle que le low-code représentera 65 % des applications développées en 2024. La société a également publié en août 2021 un magic quadrant positionnant les différents acteurs du low-code actuels selon 4 axes : les challengers, les leaders, les solutions de niches et les visionnaires.

Parmi les leaders du low-code, on remarque Mendix, ServiceNow, Salesforce ou encore Microsoft, dont l’offre Power Platform propose 4 solutions low-code complètes :

  • Power Apps : transformez vos idées en solutions professionnelles, en permettant à chacun de créer des applications personnalisées destinées à relever les défis de l’entreprise ;
  • Power BI : prenez des décisions professionnelles fiables et avisées en fournissant à chacun des informations exploitables fondées sur des données ;
  • Power Automate : dopez la productivité et l’efficacité de votre entreprise en donnant à chacun les moyens d’automatiser les processus organisationnels ;
  • Power Agent : créez facilement des chatbots pour converser avec vos clients et vos employés, sans aucun codage requis.

Le low-code a donc un bel avenir devant lui avec des acteurs et des offres en plein essor !

Plus que de révolutionner le développement, c’est une invitation à réfléchir aux rôles et interactions des différents services dans les organisations et aux avantages concurrentiels qu’ils peuvent procurer.

L’enjeu est de déterminer la bonne solution et les cas d’usages avec une gouvernance associée, permettant ainsi de rassurer aussi bien les métiers que l’IT et offrir ainsi une alternative au shadow IT.

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Claudio Anfuso, Consultant Senior Data

Le déploiement de la gouvernance des données est indispensable pour assurer une transformation vers des modèles davantage centrés sur la donnée.

Si les organisations ont pris conscience de cet enjeu, nous constatons qu’elles font face à de grands challenges lorsqu’il s’agit de déployer la gouvernance de la donnée : une forte disparité des niveaux de maturité dans l’entreprise, des difficultés à identifier les cas d’usages prioritaires, à démontrer de la valeur à court terme et à maintenir la démarche dans le temps, une faible disponibilité des parties prenantes…

Comment vous est venue l’idée d’introduire l’agilité à la gouvernance de la donnée ?

Chez Saegus, nous avons dans notre ADN de centrer nos projets sur une vision axée sur l’usage et la valeur. Ce besoin se fait davantage ressentir lorsque l’on parle de data gouvernance, où les résultats ne sont pas toujours identifiés par tous ni partagés en amont lors des phases de déploiement.

Un des enjeux majeurs des initiatives de gouvernance de la donnée réside donc dans la capacité à montrer rapidement un retour sur investissement et à illustrer les premiers résultats de manière concrète. Cette preuve de valeur permet de communiquer les premiers résultats à travers l’organisation rapidement, tout en les inscrivant dans une démarche globale.

C’est dans ce contexte que nous avons fait progressivement évoluer notre approche vers une méthodologie reposant sur les concepts de l’agilité. L’objectif ? Offrir à nos clients des résultats rapides et cohérents garantis par une forte implication des utilisateurs. De plus, la mise en place d’un framework agile permet de faire face et de s’adapter aux évolutions structurelles et organisationnelles inhérentes au déploiement d’une gouvernance de la donnée à l’échelle de l’organisation.

Comment mettez-vous en place ce genre d’approche chez vos clients ?

Mettre en place un projet de gouvernance en se positionnant sur l’ensemble des axes organisation, processus et outils nécessite un effort initial considérable de l’ensemble des parties prenantes. En conséquence, les résultats tardent souvent à apparaître. Il est donc nécessaire d’impliquer les utilisateurs métiers en leur offrant des résultats concrets. La création d’un catalogue de données est un bon levier pour générer cet engagement.

Maitriser son patrimoine de données, c’est d’abord le connaitre. Pour construire un catalogue centré sur l’usage et la valeur, il est indispensable d’identifier et prioriser les cas d’usages à fort impact, ayant un retour sur investissement démontrable. Cette démarche s’oppose aux approches par fonctions, entités ou zones géographiques. La volumétrie d’information rend leur mise en place longue, et les bénéfices qu’elles génèrent sont souvent difficilement mesurables. La démarche de gouvernance de la donnée ne doit pas être calquée sur l’organigramme mais sur la valeur. Pour atteindre ce résultat, Il est indispensable de collaborer avec les métiers. Ce sont eux qui disposent de la connaissance de leur périmètre et qui ont donc la capacité de structurer la donnée avec le plus de valeur ajoutée.

Nous avons constaté que la capitalisation de cette connaissance est difficile et souvent chronophage, nécessitant de longues sessions d’ateliers. En conséquence, nous apportons un support significatif dans la consolidation du catalogue de données pour minimiser l’effort des métiers, tout en maximisant la valeur apportée au travail de cartographie.

Quels sont les bénéfices d’une telle démarche ?

Pour optimiser l’exercice de cartographie des données, nous avons mis en place une approche de travail agile fonctionnant par courtes itérations. Celles-ci permettent aux métiers de décrire de petits périmètres de données préalablement identifiés, puis modélisés dans l’outil de data cataloging.

Les longues sessions de travail en réunion ont ainsi laissé place à des points de partage fréquents, mais courts, qui garantissent l’alignement des acteurs sur la méthodologie. Elles génèrent également des échanges sur les points de divergence, permettent la validation en continu des informations du glossaire de termes métiers et assurent l’application des standards établis à l’échelle du groupe.

L’objectif de cette approche est d’implémenter l’information en quasi-temps réel dans le catalogue de données pour permettre à chacun de la visualiser et d’y accéder dès les premiers résultats.

Une telle approche présente un second bénéfice majeur : elle fait monter en maturité et en compétence les équipes métiers sur les sujets data. Une étape indispensable pour commencer à déployer une culture data dans l’organisation et pour préparer les acteurs de demain à leur futur rôle dans l’organisation (data owner, data steward, data custodian…).

Comment cette approche permet-elle d’adresser l’ensemble des composantes de la gouvernance de la donnée ?

Les travaux de cartographie permettent l’identification des référents métiers et IT et leur montée en compétence avant la formalisation de leur rôle dans l’organisation data de l’entreprise.

Cette phase amont permet l’identification des référents métiers avant la formalisation de leur rôle et également d’auditer l’architecture data sur différents axes (fiabilité, sécurité, accès). Un plan de progrès peut alors être établi avec une liste de projets associés.

Enfin, le déploiement d’initiatives localisées de cartographie de données étend le tissu de la gouvernance dans l’organisation, par et pour les métiers pour couvrir l’ensemble des périmètres prioritaires en accord avec l’ambition stratégique data de l’entreprise.

Grâce à notre savoir-faire et nos partenaires privilégiés, notre équipe Data Driven Business est en mesure de proposer des démarches de gouvernance de l’information tant organisationnelles qu’opérationnelles.

Retrouvez le replay notre table ronde exceptionnelle sur l’introduction de l’Agilité dans les processus de Data Gouvernance : https://bit.ly/3HzEvz9

Vous souhaitez être accompagnés par nos équipes Data ? Contactez-nous !

Rédigé par Marc Gabet, Consultant Data

Ces dernières années, de nombreuses entreprises ont décidé de mieux utiliser leurs données pour en faire un véritable atout concurrentiel. Cette culture Data Driven doit favoriser la maîtrise des cycles de décisions, de production, et d’approvisionnement, permettant la conception de produits plus en phase avec les attentes du marché…

Ce constat fait, plusieurs défis restent à relever :

  • L’identification et l’organisation des données ;
  • La captation de nouvelles sources ;
  • La priorisation des cas d’usage ;
  • Les choix de solutions, ou modernisation des socles existants ;
  • La création d’assets ou accélérateurs technologiques ;
  • La conformité règlementaire ;
  • La diffusion d’une culture « Data Driven » et la bonne utilisation des solutions mises à disposition.

Cette liste est non exhaustive, mais donne une indication d’un nombre conséquent de chantiers sensibles à mettre en œuvre.

À cela s’ajoute les particularités liées au niveau de maturité (des entreprises ou services) et au modèle d’organisation. Sans rentrer dans l’ensemble des cas, nous pouvons distinguer 2 typologies bien distinctes :

  • Les organisations centralisées, dont les fonctions IT ont la plupart du temps pour mission de gérer la donnée, de recueillir les besoins des directions métiers et d’offrir des « services » d’accès à l’information ; 
  • Les organisations décentralisées, dont les filiales ont plus d’autonomie et pour lesquelles les fonctions corporate ont un pouvoir de recommandation et de négociation face aux tierces parties, ainsi qu’un pouvoir de diffusion de bonnes pratiques.

Ce dernier cas est particulièrement intéressant en termes d’adoption car les filiales ont « le choix » : de fait, les techniques et bonnes pratiques utilisées dans ce contexte sont applicables à tout type d’organisation.

Diffuser une culture Data Driven

Notre conviction profonde est que plus la personne est proche du métier, plus elle sera efficace pour formaliser des indicateurs pertinents, manipuler l’information et itérer rapidement sur des analyses fonctionnelles. 

Encore faut-il lui donner les solutions, les bonnes pratiques, un accès à l’information simple et, si possible, des accélérateurs ou templates. 

Le message « Faites reposer vos décisions sur la data » reste souvent obscur pour les utilisateurs : comment puis-je accéder à la donnée ? Comment puis-je la retravailler ? Qu’est-ce qui de mon périmètre de responsabilité ou de celui de mon service IT ? 

Diffuser une culture Data Driven avec succès nécessite d’accomplir quelques devoirs :

  • La communication : diffuser des messages clairs expliquant la volonté et la stratégie de l’entreprise en termes d’accès à l’information ;
  • L’acculturation : sous forme de Data Literacy, de sessions de formation, de démonstrateurs, de showroom… permettant de faire découvrir l’étendu du possible et de diffuser un langage commun dans l’entreprise. Par exemple : qu’est-ce qu’un cycle de vie de la donnée, comment définir la data quality, proposer des ateliers de modélisation… ;
  • La présentation du « patrimoine » : elle peut se faire sous forme de cartographie des données accessibles par domaine métier, processus ou cas d’usage. Le but est de faire prendre conscience de la matière disponible et accessible, sinon d’identifier les manques et sources potentielles ;
  • Le coaching, ou la diffusion de bonne pratiques ou d’assets prêts à l’emploi : capitaliser sur les réussites, partager des retours d’expériences, des blocs techniques ;
  • Un processus de collaboration et d’échange : sous forme de communauté d’expertise/business ou de relais locaux pour les entreprises étendues ;
  • Un processus de gouvernance efficace : cela permettra de contrôler les assets partagés, de s’assurer de la bonne application des guidelines et d’identifier par la suite les réussites.

L’ordre d’application de ces « devoirs » peut être revu en fonction de la maturité des entreprises.

Quelle cible atteindre demain ?

L’objectif pour les directions business est de « libérer le potentiel des utilisateurs ».  Cette nouvelle catégorie d’utilisateurs, « éclairés » sur l’usage de la donnée, sont des « Business Scientist » ou « Business Analyst ». Il est alors nécessaire que chaque direction dispose d’un nombre suffisant de ces Data Leaders/Data Champions.

L’objectif pour les directions IT/Data est en effet de créer et d’offrir des services adaptés au cadre définit précédemment.

Ce bouquet de services peut être à géométrie variable en fonction des entreprises, mais l’on retrouve généralement :

  • Des services de stockages (cloud, solution de bases de données) ;
  • Des services d’extraction des données brutes et/ou de mise en qualité ;
  • Des services de transformation/préparation des data set (plus ou moins aboutis en fonction de l’autonomisation des utilisateurs) ;
  • Des services de monitoring et d’industrialisation des pipelines ;
  • Des services de gestion de référentiel ;
  • Des assets techniques (librairies d’algorithmes, d’api…).

Comment s’appuyer sur les instances de type « Data Factory/Data Lab » ?

Depuis plusieurs années, on assiste à une recrudescence de services : Data Factory, Data Lab, Data Foundry… Mais des questions reviennent souvent : faut-il scinder ces activités ? Si oui, comment les coordonner de manière efficace et agile ? Lesquelles dépendent de l’IT et du métier ? Lesquelles sont des entités autonomes ? 

Là encore, il n’existe pas de réponse absolue – il faut adapter la définition en fonction de la maturité des organisations. 

Par exemple, une organisation centralisée aura tendance à positionner la Factory sur les activités de Data Engineering et d’industrialisation, en gouvernant un ou plusieurs Data Lake/Data Store. Le Data Lab est dans ce cas souvent centralisé : les Domain Owners, en charge de la préparation des données et de leur valorisation, sont ici spécialisés par fonction Business. C’est dans cette structure que l’on retrouve les Data Scientists. 

Au contraire, une organisation décentralisée aura tendance à simplement fournir les outils et les assets, mais à reporter les processus d’engineering et d’analyses dans ses filiales ou divisions. Suivant leur taille, ces structures peuvent scinder leurs activités de Factory et de Lab, ou à l’inverse les regrouper dans une même instance. 

Proposer un modèle de capitalisation et de partage efficace

Pour que le système soit durable, il est indispensable de définir un processus de gouvernance partagé. Ce processus, lien entre les différentes parties prenantes, est l’un des moyens les plus sûrs d’atteindre un ROI rapide. Plus un asset ou un service sera partagé et réutilisé, plus son coût de création sera amorti et donc, la valeur dégagée élevée.

Repenser l’accès

L’accès à ces assets/informations doit lui aussi être repensé. Le contenu doit être adapté au profil de l’utilisateur (information, news, habilitation sur le contenu), puis mis à jour régulièrement avec des nouveautés afin de susciter un engagement croissant des utilisateurs.

Passer à l’action !

Comme souvent sur les projets de transformation, nous conseillons d’avancer par itération. Il est inutile d’avoir finalisé l’ensemble des éléments pour se lancer. 

Il est par contre indispensable d’avoir cadré la démarche, établi une vision claire de la trajectoire et de préparé une communication adaptée. La richesse de contenu sera ainsi auto-alimentée par la communauté adhérant au processus. 

Enfin, il faut surtout rester agile. L’équipe supervisant ce process « Data Driven » doit adopter une posture d’équipe produit : écouter les feedbacks et savoir pivoter si nécessaire selon son marché interne, en fonction du succès de l’adoption, de l’élévation de la maturité et de la prise d’autonomie.

Pour en savoir plus…

Notre équipe Data se tient à votre disposition pour partager ses retours d’expérience et vous aider à cadrer et développer votre modèle Data Driven.

Rédigé par Frédéric Brajon, Associé Co-fondateur de Saegus et Directeur du département Data

Pourquoi des Custom Viz ?

De manière usuelle, les utilisateurs métiers sont outillés par leur DSI avec des outils “groupe”, généralement sous licences et avec lesquelles ils doivent composer pour répondre à leurs besoins. Dans la plupart des cas, ces outils répondent à une majorité de cas d’usages et à 80% des besoins utilisateurs.

Cependant, il arrive fréquemment que ces outils soient trop limités ou ne peuvent simplement pas répondre à un besoin spécifique. Si cela concerne un processus métier essentiel, les directions IT recherchent alors des applications spécialisées construites pour ces usages. Malgré tout, certains processus sont tellement spécifiques (ou répondant à un nouvel usage), qu’aucun outil sur le marché ne peut y répondre totalement. 

Plusieurs cas sont alors rencontrés : 

  • Les utilisateurs “tordent” les outils qu’ils ont à leur disposition jusqu’à atteindre leurs derniers retranchements, ce qui rend l’exploitation et la maintenance du produit compliquée, voire dégrade les performances et donc in fine l’expérience utilisateur ;
  • Les utilisateurs combinent (quand cela s’avère possible) plusieurs outils pour arriver à leurs fins, ou décident de séparer différentes étapes de leur processus via différents outils. Cela peut complexifier le déroulement d’un processus, tout en apportant de la complexité technique.

Une solution alternative peut être de proposer des outils “custom” répondant au mieux aux besoins des utilisateurs, soit en développant des outils de bout en bout, soit en s’appuyant sur des solutions existantes sur le marché offrant des possibilités de personnalisation et de maintenance simplifiées. C’est dans ce contexte qu’intervient la notion de Custom Viz.

Quels en sont les principes ?

Si les coûts de licence sont généralement inexistants (framework open source), une Custom Viz engendre un coût plus élevé pour le développement, la maintenance et la gestion des évolutions ; le ROI réel est parfois difficilement mesurable. C’est souvent le frein majeur aux initiatives de ce type en parallèle de l’automatisation et l’industrialisation des processus qui tend à faire émerger des plateformes dédiées de data visualisation (type Power BI ou Tableau Software).

C’est également un défi technique car les blocs de construction de nos logiciels de visualisation de données sont généralement optimisés pour une forme ou l’autre. Il est donc important de s’appuyer sur une expertise combinée Data Viz et Technique afin de créer des composants permettant de répondre de manière pertinente et performante aux besoins, tout en s’assurant de sa maintenabilité dans le temps.

Il est en premier lieu important de challenger ce postulat (complexe, couteux, spécifique) et aussi de mettre en perspective ce qu’implique et signifie une Custom Viz.  

La définition standard est qu’une Custom Viz est développée dès lors qu’un outil du marché ne peut répondre à un besoin de visualisation demandé par un utilisateur métier. En l’état actuel des choses, la visualisation de données personnalisée est le plus souvent décrite comme tout ce que vous ne pouvez pas faire avec un outil standard, et si cette définition a l’avantage d’être techniquement précise et simple, elle n’est pas représentative.

En effet même si elle est personnalisée, une Custom Viz n’est pas forcément complexe. De multiples représentations sont déjà existantes ou sont des combinaisons de représentations communément utilisées.  

La personnalisation entre en jeu uniquement parce que l’on souhaite déployer une petite fonctionnalité qui n’est pas nativement présente et peut amener une vraie plus-value business.

On peut ainsi représenter 3 grandes catégories de Custom Viz :

  • Personnalisée ;
  • Combinatoire ;
  • Néo-Visualizations.

Ces catégories ne sont pas exhaustives mais permettent globalement de regrouper l’ensemble des cas d’usages des différents types de Custom Viz. 

Il faut néanmoins rappeler le but d’une visualisation : permettre de mettre en lumière une information pertinente – identifier des problèmes, aider à la prise de décision, faire apparaître des interactions… La mise en place de ces visualisations permet de dégager un ROI qui peut être mesuré de différentes manières. La première et la plus simple à appréhender consiste à se demander quels seraient les préjudices à ne pas faire (impact sur les prises de décisions, coûts).

La catégorie personnalisée regroupe des visualisations de données préexistantes auxquelles on rajoute certaines fonctionnalités ou éléments graphiques supplémentaires pour un cas d’usage particulier. Cette catégorie peut sembler simple avec l’ajout de nouvelles fonctions à une visualisation données, mais il est malgré tout nécessaire dans la plupart des cas de recréer l’ensemble de la visualisation pour une intégration parfaite des nouvelles fonctionnalités et une optimisation du rendu graphique.

À titre d’exemple, un histogramme peut très bien être redéveloppé au sein d’une application web, utilisant les librairies D3.js, Highcharts… simplement pour permettre une interaction métier avec le reste des fonctionnalités proposées dans l’application. Ainsi, nous pouvons imaginer qu’un clic sur une barre de l’histogramme ouvre un panneau de détail dans l’application afin de faire apparaître des informations détaillées sur la série en question.

La catégorie combinatoire est celle la plus usuelle en termes de customisation, car elle est plus facile à mettre en œuvre. Il s’agit dans ce cas de prendre plusieurs techniques de visualisation de données et de les intégrer en une seule et même visualisation. Une forme de visualisation combinatoire courante est la transition graphique de données affichées sous des formes différentes permettant de donner une lecture différente de l’information exposée, comme afficher des données sur une carte puis les transformer en graphiques à bulles. L’exemple ci-après illustre l’association de plusieurs types de représentations permettant d’analyser en un coup d’œil différents niveaux de granularités d’une même information. La combinaison de différentes visualisations peut être impactante en termes de story-telling, mais nécessite souvent un investissement important en termes de conception pour ne pas tomber dans l’excès et être contre-productif : la nouvelle visualisation doit aider à la compréhension de l’information.

La catégorie des néo-visualisations est la plus facile à appréhender, car elle regroupe la création de visuels de bout en bout à destination d’un usage particulier précis et le plus souvent spécifique. Elle est issue d’un besoin ad-hoc pour délivrer une visualisation impactante ou faciliter la prise de décision rapide. Les néo-visualizations prennent également en compte toutes les visualisations que nous pouvons retrouver dans l’infographie de manière générale. Si certaines peuvent être farfelues, d’autres ont le mérite d’être facilement lisible par n’importe quel profane tout en aidant le lecteur à la compréhension des informations qu’elle tente de présenter (peut être les prémices du data story telling ?).

Ces visualisations sont moins souvent présentes dans les outils traditionnels d’explorations et de présentation de données, voire inexistantes, ce qui peut sembler normal. Sans tomber dans l’extrême, certains processus métiers nécessitent l’implémentation spécifique de ce type de visualisations pour permettre une appréhension optimale des informations à présenter.  

La catégorie regroupe l’ensemble des créations sur mesure mais qui peut parfois être généralisée, réutilisée ou dérivée pour être finalement intégrée à d’autres applications ou usages similaires. 

C’est aussi de manière commune le cheminement de la création graphique, toute visualisation de données ayant été créée pour un usage particulier à un moment donné. 

On observe également un usage de plus en plus courant d’outils permettant une plus grande souplesse d’utilisation et d’ajout de visuels personnalisés. 

La séparation entre ces catégories permet de d’éclairer l’usage de Custom Viz et permettre une meilleure catégorisation et choix d’utilisation.  

Fournir aux métiers les outils d’analyse dont ils ont vraiment besoin

Les données de l’entreprise n’ont jamais eu autant de valeur ni jamais été aussi nombreuses et hétérogènes. Plus il y a de données, plus de valeur peut en être tirée et ainsi, faire émerger de nouveaux besoins métiers ou faire évoluer ceux déjà existants.  

Le plus souvent le traitement de ces données est assuré par les équipes BI de l’entreprise, permettant de faire ressortir certains KPI et fournir aux différentes directions métier les données et indicateurs leur permettant de prendre des décisions ou actions pertinentes.  

Aujourd’hui, les utilisateurs métier demandent de plus en plus d’autonomie pour appliquer/réaliser leurs propres analyses et présenter la valeur la plus désirable ou nécessaire pour répondre à leurs enjeux opérationnels et business. Dans le même temps, certains processus métier se sont complexifiés, spécialisés, expertisés, jusqu’au moment où les outils d’analyse traditionnels ou disponibles sur le marché, ne suffisent plus ce qui rend possible et presque inévitable, l’essor de ces Custom Viz et explique ce besoin croissant de spécialisation des reportings.  

Nous ne traiterons pas en profondeur la notion de coûts directs et indirects de la mise en place d’une solution incorporant des Custom Viz, mais sachez simplement qu’un arbitrage est souvent nécessaire entre développer une nouvelle visualisation au sein d’un outil existant le permettant ou développer une solution “crafted”. Les pivots de décisions sont souvent les mêmes selon les besoins métiers, mais voici d’ores et déjà quelques questions que vous pouvez vous poser si vous êtes confronté à ce type problématique :

  • Ai-je un outil supporté par un éditeur de renom, dont je paye déjà une licence qui pourrait intégrer mon besoin en termes de visualisation de données ? Si oui, ai-je les compétences au sein de mon entreprise pour réaliser ces développements ? L’éditeur propose-t-il une solution d’accompagnement (ou de réalisation) le cas échéant ? 
  • Est-ce que ce nouveau graphique s’ancre pour un besoin particulier ou sera-t-il amené à couvrir un scope plus large qu’actuellement ? Nécessitera-t-il d’une maintenance évolutive ?
  • Le besoin exprimé par le métier peut-il être amené à évoluer ? N’y-a-t-il pas intérêt à proposer une application dédiée pour ce besoin ? Y-a-t-il des chances pour que des interactions existent (un jour ?) entre le graphique et le reste du process métier ?
  • Ce besoin s’appuie-t-il sur un seul point de contact dans le processus métier ou est-ce un besoin flottant qui mériterait d’être approfondi et détaillé pour valider une solution technique plutôt qu’une autre ?

Ces questions ne sont pas exhaustives mais permettent de se faire une idée du type de solutions que vous pourriez proposer à vos utilisateurs métiers, et de fait, en déduire un coût de réalisation associé. 

En complément, nous recommandons fortement de mettre en place une équipe dédiée, pluridisciplinaire en mesure de répondre à ces besoins, aussi bien d’un point de vue technique (implémentation / développement), design (matérialisation des usages, hiérarchisation de l’informations et conception des interactions) que story-telling (expertise data-visualisation)  

La mise en place d’un tel dispositif, de type “centre d’excellence”, peut être un coût lors de sa création mais garanti un ROI à moyen et long terme, au vu des besoins de spécialisation de plus en plus répandus au sein des entreprises. Son but sera de mettre en place un ensemble de process et frameworks permettant d’agiliser la chaîne en s’appuyant sur une nouvelle typologie de profil : le “Data Viz Engineer” qui combine les aspects du triptyque “technique/design/story-telling”. 

Dans un prochain article, nous vous présenterons des exemples concrets et des illustrations des différentes catégories de Custom Viz ainsi que des aspects allant au-delà des problématiques d’analyses notamment des problématiques d’accessibilité qui font des Custom Viz un sujet de plus en plus important chez nos clients.

Vous souhaitez être accompagnés sur ce sujet par nos équipes Data ? Contactez-nous !

Rédigé par Julien Ayral, Senior Manager Data, et Sébastien Perrot, Manager Factory

La quantité et la complexité des données n’ont jamais été aussi importantes. Les évolutions technologiques ont cependant rendu la mise à disposition des données dans l’entreprise beaucoup plus simple et rapide. Le développement de l’utilisation des technologies IoT, du cloud, de la Business Intelligence ou encore de l’intelligence artificielle génère et consomme une quantité de données transformées de manière croissante dans l’entreprise.

En parallèle, le contexte règlementaire ne cesse de se renforcer. Nous pouvons par exemple citer l’entrée en vigueur, depuis 2018, du Règlement Général sur la Protection des Données (RGPD) qui impose un cadre sur la gestion des données personnelles des ressortissants de l’Union Européenne. Les sanctions encourues en cas de non-respect de cette réglementation sont colossales, avec des amendes s’élevant jusqu’à 4% du chiffre d’affaires annuel de l’entreprise contrevenante.

Pour répondre à ces nouveaux challenges et parce que la donnée est un asset stratégique, les entreprises s’organisent pour trouver de nouveaux modèles et valoriser au mieux cet actif. Pour atteindre cet objectif, il est nécessaire de connaître, comprendre et contrôler son patrimoine de données et c’est là qu’intervient la gouvernance des données.

Elle consiste à définir un ensemble d’activités au sein desquelles les équipes métiers et IT travaillent ensemble pour harmoniser, nettoyer, diffuser et contrôler les données partagées au sein de l’organisation. La donnée doit être managée et sa gestion professionnalisée. L’émergence des data offices permet la création de nouveaux rôles dans l’entreprise tels que les Data Owner, Data Steward ou encore Data Custodians. La gouvernance vise donc à assurer la cohérence, la fiabilité, et la sécurité du patrimoine de données.

Quels bénéfices pour les entreprises ?

Le déploiement de la gouvernance de la donnée est un levier de contextualisation de l’information, notamment à travers la création d’un catalogue de données. En associant une vision transverse des sources d’information de l’entreprise à un glossaire de termes métiers, il augmente la confiance dans l’information mise à disposition et réduit le risque d’erreurs en facilitant la compréhension transversale de la signification des données et en alignant l’ensemble des collaborateurs autour d’un langage commun. Ainsi, la gouvernance de la donnée est la fondation indispensable au Data Litteracy et à l’exploitation de la donnée pour en extraire toute sa valeur.

Maîtriser son patrimoine c’est également avoir une vision complète du cycle de vie des données depuis les systèmes de production jusqu’à la multiplicité des usages en documentant l’ensemble des traitements qui leur sont appliqués. Comprendre ce cycle de vie est à la fois primordial pour pouvoir garantir l’accès aux données dans les outils d’aide à la décision (Business Intelligence) mais encore encourager l’interprétabilité des modèles d’intelligence artificielle, indispensable pour répondre aux requis règlementaires de plus en plus importants.

Enfin, déployer la gouvernance de la donnée c’est également mettre en place une organisation, des rôles et des processus autour des données qui garantissent la qualité du patrimoine dans le temps.  En définissant les responsabilités de chacun vis-à-vis des données, on diffuse cette culture data centric.

La gouvernance des données est aujourd’hui une réponse à un grand nombre d’enjeux rencontrés par les entreprises. Elle est catalysée par des évolutions technologiques majeures, par le développement des solutions techniques de gouvernance et par le besoin de réussir le virage de la transformation digitale.

Les principaux bénéfices :

  • Assurer le contrôle au sein de l’entreprise
    • Fournir une organisation, des politiques partagées & des processus clés
    • Améliorer le contrôle sur l’ensemble du cycle de vie de la donnée
    • Définir des responsabilités sur un ensemble de processus data
    • Standardiser les référentiels de données
  • Encourager & faciliter l’accès au patrimoine
    • Documenter les données pour les rendre compréhensibles et exploitables par un grand nombre d’utilisateurs
    • Augmenter la confiance des utilisateurs dans les systèmes d’analyse
    • Améliorer l’accessibilité à des données standardisées et des sources fiables
  • Favoriser la collaboration au sein d’une organisation
    • Encourager une collaboration plus forte entre les équipes
    • Responsabiliser les utilisateurs à l’usage des données et au partage des données
    • Responsabiliser les utilisateurs à l’usage des données et au partage des données
  • Permettre la réalisation de nouveaux cas d’usage
    • Permettre la réalisation de cas d’usage utilisant des données avec un impact maximal sur la top line (maximiser les revenus, améliorer l’expérience client) et/ou la bottom line (améliorer l’efficacité opérationnelle)
  • Sécuriser les investissements IT
    • Fluidifier les transitions vers de nouveaux systèmes/ applications IT (e.g. transition vers de nouveaux systèmes business, agrégation de sources de données disparates dans un Data Lake) et évaluer les impacts en termes de production et génération de données

Chez Saegus nous accompagnons nos clients dans le déploiement d’activités de gouvernance de la donnée. Grâce à notre savoir-faire et nos partenaires privilégiés Data Galaxy et Microsoft Purview, nous sommes en mesure de proposer des démarches tant organisationnelles qu’opérationnelles reposant sur une méthodologie agile.

Retrouvez notre table ronde exceptionnelle sur l’introduction de l’Agilité dans les processus de Data Gouvernance le jeudi 7 octobre à 18h, en ligne. Inscriptions : https://bit.ly/3lx0Unn.

Et vous souhaitez être accompagnés par nos équipes Data ? Contactez-nous !

Rédigé par Martin Éliard, Manager Data, et Marc Gabet, Consultant Data

Saegus est heureux de vous annoncer que vous pouvez dès à présent retrouver les expertises de nos experts Data sur Médium. De nombreux sujets vous attendent : Data ops, Machine Learning, Visualization et bien plus encore…

 

 

Vous pouvez également télécharger notre dossier sur le Deep Learning ! 

 

Très bonne lecture !

Notre DG, Frédéric, est de retour ce mois-ci pour parler des données personnelles et de leur exploitation par les sites e-commerce. Devons-nous y prêter davantage d’attention ? Quel type d’experience personnalisée pouvons-nous attendre ? Qu’en dit la loi française ?

Pour tout savoir, vous pouvez revoir l’émission ici

Vous pouvez également télécharger ici l’étude faite avec notre partenaire Odoxa

En Mars 2017, Saegus est invité à réagir autour du sujet passionnant de l’Intelligence Artificielle. 

Frédéric Brajon, Directeur Général, détaille nos convictions : approche pragmatique, micro services et liens avec la Data Science.

Pour regarder l’émission dans on intégralité, cliquez ici

Pour en savoir davantage sur nos expertises dont la Data Science, cliquez ici