Ici archive

À peine quatre mois après sa disponibilité auprès du grand public, Chat GPT 3 publié par Open AI a occasionné un fantastique coup de projecteur sur un champ particulier de l’intelligence artificielle : l’IA générative.

Martin Alteirac, Manager en charge des activités d’intelligence artificielle chez Saegus, dresse le bilan de ces derniers mois et dessine les premières perspectives concrètes en termes d’usages en entreprise de ces technologies.

4 mois après la présentation de Chat GPT par Open AI, qu’en retiens-tu ?

Tout d’abord, il est très intéressant de voir comment OpenAI a réussi, sur la base de différentes briques technologies préexistantes sur lesquelles de nombreuses autres sociétés tech travaillent, à créer un service disruptif qui génère à très court terme un engouement et une adoption massive.

ChatGPT a atteint les 100 millions d’utilisateurs mensuels actifs à peine 2 mois après sa publication, là ou Instagram a mis 2 ans et demi et TikTok presque un an pour atteindre un tel niveau d’adoption.

Cette réussite tient évidemment à la performance des différentes briques technologiques, mais surtout à mon sens à leur intégration dans une interface simple d’utilisation dont tout un chacun peut se saisir pour des usages du quotidien.

Il est également intéressant de voir à quel point cette large adoption a permis à ces technologies d’être utilisées dans des contextes et pour des usages que même ses créateurs n’avaient pas imaginés. C’est cette adoption à grande échelle qui permet de mesurer à quel point les LLM (Large Language Models) peuvent réaliser des tâches complexes et diverses à condition qu’on sache comment les utiliser.

Comment vois-tu la propagation de ces technologies dans notre quotidien ?

Je pense que trois grands types d’usages vont se démocratiser dans les prochains mois :

  • Le premier type d’usage est l’usage grand public : dans les mois à venir, il est probable qu’OpenAI parvienne à entrainer des modèles toujours plus grands sur des données toujours plus récentes, et que ce type de technologie parvienne à faciliter et accélérer la recherche et la création de contenus à partir de données publiques et typiquement remplacer à terme les moteurs de recherche,
  • Le deuxième type d’usage me semble être plutôt “bureautique” : il est quasiment certain que les capacités de synthèse et de génération de texte de ces IA vont devenir les meilleurs alliées de nos tâches récurrentes du quotidien – gestion des emails, création de contenu corporate ( présentations powerpoint, documents word… ) ;
  • Enfin, de nouveaux cas d’usages vont émerger : des cas d’usages où les équipes Data vont s’emparer des différentes briques technologiques qui constituent un outil comme Chat GPT pour développer de nouveaux cas d’usages internes. Il faudra pour ces cas d’usages apprendre à compléter le « savoir » de Chat GPT pour que ses réponses soient pertinentes dans un contexte d’entreprise, tout en préservant la confidentialité des données utilisées.

C’est sur ce troisième type d’usage que nos équipes travaillent aujourd’hui principalement.

À propos de ces usages spécifiques, peux-tu nous en dire plus sur les travaux en cours ?

Notre premier axe est centré sur la formation de nos équipes et la préparation de plusieurs démonstrateurs permettant de faciliter l’évaluation de la capacité de ces technologies à répondre à des problématiques dans un contexte d’entreprise. Ces démonstrateurs illustrent la performance de ces IA génératives en combinant plusieurs options :

  • Utilisation de données structurées au sein de systèmes d’information ou utilisation de données non-structurées (fichiers PDF ou word…) ;
  • Enrichissement du contexte d’une requête ou fine-tuning des modèles existants grâce aux données récoltées.

En se basant sur ces techniques, il devient possible d’utiliser un chatbot pour des usages internes sans partager de données sensibles avec OpenAI, notamment dans le domaine de l’analyse de contenus texte volumineux :

  • Avis clients sur une plateforme e-commerce ;
  • Verbatims envoyés à un service client pour demander du support ;
  • Documentation interne sous forme de procédures ou contrats, par exemple.

Le deuxième axe est plutôt destiné à compléter notre expertise en développement de produits et solutions d’intelligence artificielle grâce à l’utilisation de modèles pré-entrainés. C’est le deuxième changement majeur induit par ces nouveaux acteurs : la tendance de plus en plus répandue à ne pas systématiquement développer et entrainer des algorithmes custom mais à utiliser des modèles prédéveloppés.

Ce nouveau pan de l’intelligence artificielle va ouvrir la voie à une pratique plus collaborative de l’intelligence artificielle grâce à laquelle des communautés vont collaborer pour mettre à disposition du public des modèles généralistes très performants mais dont on va devoir apprendre à compléter l’apprentissage pour l’adapter à un contexte d’entreprise précis.

Vous souhaitez en savoir plus ?

Alors que les entreprises tentent de s’organiser pour répondre aux nouvelles exigences règlementaires en matière de reporting environnemental, la donnée est au cœur de cet enjeu. Savoir l’utiliser est crucial pour mesurer finement son empreinte environnementale, construire et appliquer une stratégie de diminution de cette empreinte, puis vérifier l’efficacité des initiatives mises en œuvre.

Martin Alteirac, responsable de l’offre Data for Sustainability de Saegus, et Édouard Neuville, Head of Academics d’Albert School, nous proposent leur vision de ce qui s’annonce comme un métier d’avenir : Emission Data Analyst.

Comment définir simplement le métier d’Emission Data Analyst ?

Édouard Neuville : l’Emission Data Analyst, c’est celui ou celle qui est capable de mesurer l’impact environnemental d’une fonction de l’entreprise et d’identifier des leviers d’actions pour réduire cette empreinte. Grâce à la puissance de la data, il·elle le fait plus précisément et rapidement. L’Emission Data Analyst est le principal enabler de la croissance durable de l’entreprise.

L’Emission Data Analyst est-il un Data Analyst comme les autres ?

Martin Alteirac : non ! Là où la mission d’un·e Data Analyst polyvalent·e consiste en général à implémenter des règles définies par les métiers pour construire des indicateurs dont la définition varie en fonction des entreprises, secteurs ou fonctions, l’Emission Data Analyst tient compte d’un cadre règlementaire plus contraint.

Toutes les entreprises vont devoir ces prochaines années avoir la capacité de mesurer de plus en plus précisément leur impact environnemental. Pour ce faire, elles vont devoir choisir d’utiliser un protocole ou standard de mesure auquel l’Emission Data Analyst devra se référer.

Quels sont les postes d’émission à mesurer ? Comment les mesurer ? Quelles données de référence utiliser ? Savoir répondre à ces questions permettra à l’Emission Data Analyst de participer à l’évaluation de l’impact environnemental d’une entreprise tout en garantissant la conformité des calculs et analyses effectués avec la règlementation en vigueur et les standards applicables.

De quelles compétences spécifiques va-t-il falloir doter ces Emission Data Analysts pour qu’ils·elles puissent opérer ?

Édouard Neuville : l’Emission Data Analyst est l’incarnation du métier hybride à un triple égard :

  • Data : être à l’aise avec la manipulation de données (ex : savoir coder), de la constitution d’un modèle unifié de données jusqu’aux Data Sciences exploratoires et modélisation avancées de machine learning ;
  • Business : saisir les enjeux business de l’entreprise et identifier en particulier les leviers opérationnels à activer pour réduire les émissions sans dévaloriser le P&L (Profit&Loss) ni nuire au modèle opérationnel ;
  • Durabilité : maîtriser le cadre règlementaire, comprendre les facteurs d’émission et les frameworks de mesure d’empreinte.

C’est aujourd’hui un métier très data, mais amené à évoluer davantage vers un métier IA.

Quelles seront les missions de ces Emission Data Analysts en entreprise ?

Édouard Neuville : les missions de l’Emission Data Analyst varieront essentiellement en fonction de la taille de l’entreprise, et de sa maturité sur les sujets environnementaux. Elles ont toutes pour dénominateurs communs :

  • La mesure : imaginer et mettre en œuvre les modèles de calcul d’émission à l’échelle de l’entreprise, de la collecte de la donnée jusqu’au reporting de KPIs ;
  • La réduction : contribuer à l’élaboration d’une stratégie de durabilité, en particulier en matière de décarbonation, en mettant en œuvre des modélisations d’impact grâce à la data et à l’IA.

Martin Alteirac : tout à fait ! Pour donner quelques exemples concrets, voici les missions les plus fréquentes chez nos clients :

  • À propos de la mesure : le bilan carbone tel qu’il est généralement réalisé aujourd’hui est une photographie de l’empreinte environnementale à un instant T – pas encore un outil de travail du quotidien permettant à l’ensemble des acteurs de l’entreprise de prendre en compte les critères de durabilité dans leur quotidien. Digitaliser et automatiser ce reporting en déployant des solutions spécialisées dans l’analyse des données environnementales est une attente répandue chez nos clients.
  • À propos de la réduction : la modélisation d’impact est un domaine dans lequel nous sommes régulièrement sollicités, particulièrement dans le secteur énergétique. Une fois une stratégie d’efficacité énergétique mise en place, mesurer son impact en distinguant dans les évolutions de consommation ce qui relève des actions mises en œuvre de ce qui relève de causes extérieures (aléas climatiques, évolutions opérationnelles…) fait appel à un savoir-faire algorithmique très particulier.

Vous souhaitez vous former au métier d’Emission Data Analyst ? Saegus recrute des Emission Data Analysts en alternance, en partenariat avec le master Data for Sustainability d’Albert School.

Pour découvrir notre offre d’alternance : https://bit.ly/3lYMpfZ

Les analystes marketing s’appuient sur les données depuis longtemps pour gérer leurs campagnes, étudier les comportements clients ou proposer des services de fidélisation.

Mais plusieurs changements majeurs, sociétaux et technologiques les amènent à repenser leur stratégie et adapter leur organisation. En effet, la crise du COVID a fait prendre conscience aux entreprises de la nécessité de s’adapter très vite à de nouveaux usages (digitalisation des échanges, développement du e-commerce, changement brutal des habitudes de consommation, renforcement de l’influence des média sociaux…) pour capter une nouvelle clientèle et fidéliser l’historique.

Cela a contribué au développement rapide de nouvelles solutions à même de capter les tendances (digital consumer intelligence) ou de toucher la bonne cible au bon moment, sur le bon canal, avec le bon produit (programmatic advertising).

La difficulté grandissante est de capter le bon moment, de plus en plus volatile et fortement dépendant du canal ; encore complexifié par l’émergence perpétuelle de nouvelles technologies (Web 3.0, métavers) auxquelles il faut s’adapter.

L’analyse statistique ne suffit plus. Le succès des opérations marketing repose sur la rapidité d’exécution, voire l’anticipation et la prédiction des comportements d’achats avec un recours de plus en plus massif à l’intelligence artificielle – et pourtant, selon un baromètre mené par le cabinet Accenture en 2022, seules 12% des entreprises ont atteint un niveau de maturité suffisant sur l’IA pour accélérer leur croissance, alors que 60% n’en sont qu’à un stade expérimental. (source : IT for Business)

Quels sont les obstacles ?

De prime abord, la première complexité est de comprendre comment utiliser ces nouvelles technologies dans le riche écosystème du marketeur : identifier les nouveaux usages, leur associer le bon levier – “à quoi peut me servir Chat GPT ?” “Comment intégrer de l’IA prédictive sur les comportements d’achats ?” – et les mettre en œuvre.

Une analyse plus approfondie amène souvent au même constat : avant d’être “IA ready”, êtes-vous “data ready” ?

Renforcer les fondements stratégiques de la data

En effet, utiliser des composants innovants comme l’intelligence artificielle nécessite au préalable de maîtriser le cycle de vie de ses données : de l’acquisition (de plus en plus en temps réel), la mise en qualité (data quality management), l’identification et la cartographie des données utilisables ou nécessaires (data cataloging), à l’exposition et la mise à disposition industrialisée de ces données pour des solutions consommatrices internes ou tierces (analyse de sentiment, gestion de campagnes, real-time advertising…).

Comment gérer plus de 100 activités marketing en temps réel ?

C’est tout simplement impossible. Les approches traditionnelles ne sont plus suffisantes. Les campagnes devant être de plus en plus personnalisées (à l’individu, au canal, produit ou marché…) et le temps propice à la conversion en acte d’achat de plus en plus cours, il est indispensable de réagir en quasi-temps réel, voire de devancer l’acte d’achat par des campagnes innovantes.

Sur ces usages avancés, l’intelligence artificielle peut être utilisée pour automatiser la génération de campagnes ultra-personnalisées ayant un impact significatif sur le taux de conversion.

Nos retours d’expériences et connaissance des leviers technologiques à mettre en œuvre nous amène à évaluer et accompagner la transformation data marketing de nos clients sur quatre domaines clés :

  • Campaign intelligence : pour améliorer votre taux de conversion ;
  • E-boutique intelligence : pour améliorer votre CPA (cost per action) ;
  • Product intelligence : pour améliorer votre CSAT, NPS et réduire le churn ;
  • Consumer intelligence : pour optimiser votre CLV.

Vous souhaitez comprendre votre état de maturité et opter pour la bonne stratégie Data Marketing ? Rencontrez notre expert qui vous aidera à établir une démarche appropriée pour gérer vos données, identifier les cas d’usages prioritaires et réussir l’intégration de solutions d’intelligence artificielle.

Rédigé par Tanasit Mahakittikun, Responsable Data Marketing au sein de notre département Data Driven

Quels que soient leurs tailles et domaines d’activités, quasiment toutes les entreprises ont placé l’utilisation de la donnée au cœur de leur stratégie. Pourtant, très peu d’entre elles ont réussi à faire le lien entre la définition d’une stratégie “Data-Driven” théorique et sa mise en application concrète sur le terrain.

Dans un précédent article (accessible via ce lien), nous avions décrit les freins à l’épanouissement des usages de la donnée dans les organisations et mis en évidence que ces derniers étaient principalement d’ordre culturel. Cet état de fait, aux côtés de nos différents retours d’expérience, ont forgé notre conviction qu’il est nécessaire d’intégrer une démarche inclusive dans la mise en place de projets Data.

Pour ce faire, nous avons développé un framework particulièrement performant pour satisfaire cette inclusivité : le Data Thinking. S’inspirant du Design Thinking – méthodologie présentée dans la section suivante, le Data Thinking est détaillé dans cet article, notamment son principe, ses objectifs, ses avantages, ses méthodologies et ses outils.

Qu’est-ce que le Design Thinking ?

Le Design Thinking est une méthode de gestion de l’innovation développée par Rolf Faste dans les années 1980. Il place l’utilisateur au centre des réflexions – selon une approche “user-centric” –, qui sont menées par des équipes représentant la diversité des disciplines mobilisées par la problématique étudiée.

Suivant une succession d’étapes et d’ateliers, l’objectif est d’aboutir rapidement à un prototype reflétant la priorisation des idées générées collectivement. Les principaux ingrédients du Design Thinking sont : l’empathie, la créativité, la co-création, l’itération, le prototypage, le bon sens et surtout l’intelligence collective.

Qu’est-ce que le Data Thinking ?

Le Data Thinking repose sur de jeunes notions. Le terme apparait pour la première fois en 2013 dans un ouvrage de Mario Faria et Rogrio Panigassi. Son ambition est de conjuguer la valorisation des données et les réflexions sur l’expérience utilisateur portées par le Design Thinking. Cette méthodologie se déploie dans un cadre Data holistique – c’est-à-dire à multi-dimensions et échelles.

Nous l’avons évoqué, les valeurs du Design Thinking sont particulièrement pertinentes pour adresser les freins culturels à l’adoption à échelle de la Data. De fait, le Data Thinking permet de co-construire des trajectoires créatives intégrant de nouvelles technologies et/ou de nouveaux usages s’appuyant sur les données et l’intelligence collective.

Selon une approche globale (métier, organisationnelle et technique), elle met les consommateurs et problématiques business au cœur de la Data pour accélérer la valorisation des données (à l’appui de la gouvernance de la donnée, de la business intelligence, de la data science…).

Les objectifs du Data Thinking

Le Data Thinking peut se décliner en une série d’objectifs couvrant les dimensions qu’il recouvre :

  • Identifier les processus business pouvant bénéficier d’une valorisation des données et renforcer ainsi l’empreinte fonctionnelle des solutions envisagées s’appuyant sur des leviers techniques ;
  • Détecter et qualifier les périmètres de données exploitables (accessibilité, représentativité, fiabilité, complétude…) ;
  • Anticiper et adresser les éventuels freins techniques sur la collecte et le traitement des données, et l’éventuelle phase de modélisation ;
  • Explorer les assets Data pour préciser d’éventuelles intuitions business ;
  • Définir dès le début d’un projet les KPIs qui permettront de valider l’approche et mesurer l’impact associé ;
  • Décrire les décisions et actions qui peuvent être menées consécutivement dans le prolongement de la démarche ;
  • Faciliter et planifier le cycle de vie des projets, depuis la phase initiale d’idéation et de cadrage (s’appuyant sur le Data Thinking) jusqu’à l’exploitation durable de produits.

Comme précédemment évoqué, il faut insister ici sur l’importance d’adopter une approche holistique, au-delà des seuls aspects techniques et fonctionnels. Les enjeux du business, des données, des technologies et des algorithmes y seront discutés, aux côtés des enjeux de stratégie et de leadership, des compétences et des rôles, de la culture et des méthodes de travail, des modèles opérationnels et des processus associés (coordination, communication, interfaces, etc.), des gestions de communautés…

C’est l’écosystème qu’il faut considérer dans son ensemble pour garantir des fondations solides aux projets qui émergeront de cette démarche.

Les avantages du Data Thinking

Voici une liste non-exhaustive des principaux bénéfices notables du Data Thinking :

  • Contribue à la définition d’une vision globale et éventuellement d’une roadmap ;
  • Améliore la satisfaction des utilisateurs de données et de l’utilisateur final ;
  • Réunit les parties prenantes, leurs compétences et les composantes d’un projet Data dès les prémices de projets ;
  • Concrétise rapidement les projets, permettant de tester les résultats et obtenir des feedbacks dans des délais courts ;
  • Sécurise la démarche à moindres risques (investissement sur des temps courts) via une approche  systématique et standardisée pour couvrir un maximum de problématiques et réduire les angles morts ;
  • Couvre tant des enjeux qualitatifs, notamment via le processus d’idéation stimulant l’innovation, que quantitatifs grâce à des chiffrages viabilisant les perspectives ;
  • Met en place une logique d’amélioration continue pour l’exploitation des données d’une entreprise grâce à la capitalisation de ses précédentes tentatives à un niveau transversal ;
  • Crée des données “intelligentes” et “intelligibles” en combinant les enrichissements qu’apportent la machine avec l’entendement humain.

Ensemble réunis, ces éléments contribuent au renforcement de l’adoption de la culture Data au sein des organisations et favorise la réussite des projets de valorisation de données.

La méthodologie et les outils du Data Thinking

Notre méthodologie de Data Thinking s’appuie sur sept étapes qui ont naturellement des points communs avec celles du Design Thinking. Elles prennent la forme d’une succession d’ateliers accueillant les représentants de toutes les parties prenantes, selon l’ordre suivant :

Comprendre

Il s’agit de comprendre le contexte business dans lequel s’inscrit la démarche. Comment ? En collectant les retours des parties prenantes, en réalisant des ateliers d’analyses (espoirs et craintes, carte des intervenants, cartes de l’empathie des personaes, recherche et parcours utilisateur) ou en vulgarisant le rôle et les usages de la Data auprès des participants non-techniciens. L’objectif est d’aligner la compréhension des problématiques métiers envisagées avec de nouvelles perspectives et des leviers Data activables dans l’absolu.

Observer

Les différentes ressources disponibles voire non-disponibles mais nécessaires sont explorées au cours de cette phase. Pour les données par exemple, cela peut prendre la forme d’un atelier de cartographie ou d’une étude des solutions clé-en-main disponibles sur le marché. Les éléments contextuels découlant de la phase « Comprendre » et « Observer » alimentent la Carte Environnement.

Idéer

Cette étape est critique : l’objectif est de « brainstormer » pour produire des idées à l’aide de techniques d’idéations inspirées de l’existant, de l’état de l’art, de l’expertise des « Data practitioners » et de notre accompagnement.

Prioriser

Il s’agit de faciliter le processus de priorisation de la solution en s’appuyant sur des critères de désirabilité, faisabilité et viabilité. Pour cela, notre Matrice de Priorisation permet d’identifier visuellement les opportunités à privilégier selon ces critères.

Définir

Une fois la solution identifiée, il faut définir les briques qui la constitueront. Par exemple, il est possible de réaliser un proto-data model représentant les données exploitées au long des traitements et le lineage correspondant. Il est également nécessaire d’identifier les KPIs qui permettront de mesurer le succès de la démarche et suivre les résultats (procéder si nécessaire à une analyse de coût bénéfice). Tous les composants sont référencés dans le template de Fiche d’Identité Solution.

Prototyper

Grâce à la précision des constituants de la solution, il s’agit de créer un prototype de celle-ci pour décrire explicitement à quoi correspondrait un MVP. La question des interfaces est particulièrement importante dans cette démarche (tableau de bord, data viz…). L’implémentation du prototype se fait dans une démarche lean et peut être complétée d’un story board.

Tester

En s’appuyant sur le prototype, il s’agit de simuler l’exploitation de la solution devant conduire à des prises de décisions et actions s’inscrivant dans des scénarios. Cette étape consiste aussi à projeter l’exploitation des KPIs et le pilotage de la solution. Les tests sont réalisés avec les parties prenantes cibles pour qu’elles puissent s’approprier la solution et formuler des retours. Le livrable type est un portefeuille de scénarios d’usages et une grille de retours des testeurs.

Pour garantir le succès de ce parcours pragmatique et prolifique, nous avons mis en place des outils standardisés permettant de structurer qualitativement et accélérer efficacement son déroulement. Notre méthodologie est adaptable à tout contexte, et selon les particularités de l’écosystème concerné il est possible de réduire comme d’augmenter tout ou partie du programme. Par exemple, les étapes de prototypage et de testing peuvent être omises dans la démarche de Data Thinking pour être plutôt envisagées dans une démarche en aval, au sein d’une méthodologie Lean Data dans le cadre d’un PoC.

Intégrer le Data Thinking dans une démarche globale

Puisqu’elle permet d’identifier de nouvelles opportunités de valorisation de données, au sein d’une démarche inclusive, cette méthodologie doit s’inscrire dans une dynamique macroscopique décrivant le cycle de vie des projets ou produits, ainsi que la gestion globale de ces assets au niveau de l’organisation. L’adoption à l’échelle d’une culture Data et de ses artefacts n’en est que renforcée.

Le Data Thinking permet de formaliser et prioriser des opportunités ; il faut ensuite les convertir en produits. Il est important d’aborder cette phase avec de la rigueur et des éléments structurants, en mettant en place une démarche de Product Thinking par exemple. Cette séquence sera elle-même suivie d’une phase d’industrialisation répondant aux enjeux opérationnels (DevOps, DataOps, MLOps…).

Une vision translationnelle garantit donc le succès des projets Data ; c’est l’une des valeurs constituant le cœur de l’accompagnement que Saegus propose à ses clients. À ce titre, cette démarche s’applique parfaitement au contexte du Data Marketing, ce qui nous a permis de formaliser une offre dédiée à ses enjeux.

Vous souhaitez en savoir plus ?

Rédigé par Clément Moutard, Manager au sein de notre département Data Driven

Saegus a l’honneur d’annoncer en ce début d’année 2023 un nouveau partenariat avec l’un des principaux acteurs du cloud : Google Cloud.

Martin Alteirac, Responsable des offres Intelligence artificielle chez Saegus, nous présente les coulisses de la mise en place de ce partenariat et les nouvelles perspectives qu’il offre à Saegus et ses clients.

Pourquoi conclure un partenariat avec Google Cloud aujourd’hui ?

Ce partenariat avec Google Cloud acte la montée en compétences, entamée il y a plusieurs années déjà, de nos équipes sur les technologies Google Cloud. Nos data engineers, data scientists et data analysts accompagnent au quotidien nos clients sur les technologies Google Cloud. Il était donc naturel pour nous de chercher à concrétiser nos expertises technologiques par un partenariat.

Comment se matérialise ce partenariat ?

Nous allons amplifier la dynamique de certification de nos équipes : notre objectif est évidemment de continuer à faire monter en compétences les plus experts d’entre eux sur les technologies les plus pointues mais aussi d’augmenter la part de nos équipes formées aux produits Google Cloud, pour accroître nos capacités à répondre aux besoins de nos clients et ceux de Google.

Nous adaptons également notre portefeuille d’offres à l’environnement Google Cloud pour permettre aux clients de Google de profiter de nos expertises techniques (modernisation de stacks technologiques data, gouvernance des données ou intelligence artificielle) et de notre expérience en gestion de projets plus stratégiques comme l’optimisation des opérations, la monétisation des données ou le data marketing.

Quelles sont les perspectives à plus long terme ?

Notre objectif à long terme est d’aider nos clients à concilier deux tendances de fond qui peuvent sembler contradictoires au premier abord :

  • L’accélération des usages de l’IA, comme en témoigne l’intérêt grandissant des entreprises pour l’IA générative (ChatGPT…) ou les avancées régulières et significatives dans le domaine de l’informatique quantique ;
  • L’urgence écologique qui nous presse à engager la transformation des entreprises vers un modèle plus durable et nous oblige collectivement à nous poser la question de l’empreinte écologique de ces technologies.

Nous sommes persuadés que le cloud est un outil indispensable pour concilier l’augmentation de la consommation de technologies tout en optimisant l’empreinte écologique des entreprises, notamment celles s’étant engagées dans un plan de mesure et réduction de leurs émissions de gaz à effet de serre.

En tant qu’acteur de référence sur la data, ce partenariat avec Google Cloud acte de notre capacité à accompagner un nombre grandissant d’entreprises à relever leurs défis d’aujourd’hui et de demain.

Vous souhaitez en savoir plus sur notre capacité à accompagner vos projets stratégiques sur Google Cloud ?

Rédigé par Martin Alteirac, Responsable Intelligence artificielle au sein de notre département Data Driven

Alors que la crise COVID perturbe encore l’économie mondiale, notamment en Chine qui continue à imposer régulièrement des confinements, la crise ukrainienne a déclenché une forte tension et envolée des prix sur les marchés de l’énergie. Dans un même temps, la lutte contre le réchauffement climatique devient une préoccupation majeure de la société, comme l’illustre la multiplication des règlementations sur le sujet.

Un secteur est particulièrement touché car souvent électro-intensif : l’industrie. Pour les industriels, disposer d’une énergie fiable et bon marché est une impérieuse nécessité. Dans un contexte où la disponibilité du parc nucléaire français est mise à mal par des problématiques de maintenance, le prix élevé de l’énergie et risque de pénurie fait peser sur lui une menace importante.

Martin Alteirac, Responsable Data for Sustainability chez Saegus, nous explique comment les industriels peuvent adopter une démarche data driven pour optimiser leur consommation énergétique, réduire leurs émissions de gaz à effet de serre et in fine assurer leur performance économique.

Quel est l’impact de la crise énergétique en cours sur l’industrie ?

Son impact est massif car cette crise, liée à la baisse de l’offre dans un contexte de reprise mondiale de la demande, a pour effet d’augmenter les prix de l’énergie et faire peser sur les entreprises le risque de coupures.

Tout d’abord, il faut se rendre compte que les prix de gros sur les marchés de l’électricité ont été multipliés par 10 entre le premier trimestre 2019 et le dernier trimestre 2022. Évidemment, il est probable que cette hausse massive ne soit qu’un pic à passer, mais les analystes prédisent que les prix de l’énergie resteront durablement à des niveaux élevés : il est probable que le monde post COVID soit un monde ou l’énergie restera près de quatre fois plus chère qu’elle ne l’était auparavant.

Pour l’industrie, un chiffre suffit à mesurer l’impact de cette hausse : pour un industriel dont l’énergie constituait 20% du coût de production avant la crise, cette même énergie représentera demain 50% de son coût de production, engendrant une augmentation de 60% de celui-ci.

Ensuite, sur la disponibilité : alors que les premières températures négatives sont annoncées et que le gouvernement annonce que des plans de délestage (de coupures) sont à l’étude, il est évident que la hausse des prix ne permettra même pas de garantir la disponibilité de l’énergie. C’est une contrainte insurmontable pour un pan de l’industrie qui a besoin de fonctionner en continu pour des raisons de process industriel (aciérie, verrerie…) ou de contraintes en matière de respect de la chaine du froid (industrie agroalimentaire et pharmaceutique).

Pour faire face à ces deux difficultés, la sobriété énergétique est une réponse efficace car elle permet de limiter le risque de pénurie et l’impact économique de cette hausse des tarifs.

Pourquoi sobriété énergétique et décarbonation sont-ils souvent abordés de concert ?

La première raison est mathématique : l’énergie représente (en moyenne) plus de 50% de l’empreinte carbone de l’industrie. Optimiser sa consommation énergétique est donc un moyen très efficace de diminuer son empreinte carbone. L’impact d’une démarche de réduction de consommation énergétique sur l’empreinte carbone dépend néanmoins du mix énergétique de l’industrie concernée.

Son impact est maximal lorsque l’énergie utilisée est majoritairement d’origine fossile : gaz évidemment, mais aussi pétrole même si celui-ci se fait (heureusement) de plus en plus rare. Lorsque l’énergie utilisée est majoritairement électrique, l’impact dépendra alors de l’intensité carbone de l’électricité. Sur cet aspect des disparités importantes existent au niveau mondial et européen.

En France sur les 12 derniers mois, l’intensité carbone était de 117g de CO2 par kwh d’électricité, que l’on peut comparer à quelques autres pays :

  • L’Allemagne : 513g/kwh
  • La Pologne : 875g/kwh
  • La Suède : 21g/kwh
  • Les États Unis : 522g/kwh
  • La Chine : 766g/kwh

En fonction de l’énergie utilisée et de la localisation de la production, l’impact d’une réduction de la consommation énergétique sur l’empreinte carbone sera donc à quantifier précisément.

Une autre raison poussant les entreprises à mutualiser ce type d’initiatives tient à l’autre inflation, règlementaire cette fois, qui demande aux industriels des efforts sur leur consommation énergétique mais également sur leurs émissions de gaz à effet de serre.

La stratégie nationale bas carbone prévoit une diminution des émissions de gaz à effet de serre de près de 35% à l’horizon 2030, ce qui nécessite de réduire tous les ans ces émissions de 3,5%.

Enfin, la dernière raison qui pousse fréquemment à travailler ces sujets de concert tient aux dispositifs de financement permettant d’optimiser le retour sur investissement de projets d’optimisation de la consommation énergétique industrielle. Des fonds sont mis à disposition par l’État dans le cadre du plan France Relance pour décarboner l’industrie, fond qui sert souvent à financer des projets de réduction de la consommation énergétique.

Comment la data peut-elle permettre de réduire sa consommation énergétique et ses émissions de gaz à effet de serre ?

Mesurer la consommation énergétique d’un site industriel avec la finesse nécessaire pour identifier des pistes d’optimisation concrètes et activables n’est pas aisé. Une grande partie des équipements industriels ne sont pas encore connectés voire ne produisent aucune donnée. Il faut donc commencer par identifier les données disponibles et mettre en place ou moderniser les systèmes de récupération, stockage et valorisation de ces données.

Ce dispositif de mesure permet d’abord d’objectiver le point de départ. Une fois cette étape franchie, il devient alors possible d’identifier les postes et les types de production les plus consommateurs. Deux types d’actions peuvent être mises en place :

  • Modernisation ou remplacement de certains équipements du process de production ;
  • Optimisation du process de production : une modification de la stratégie d’ordonnancement ou du réglage du process.

Plus largement, une mesure granulaire en temps réel permettra d’intégrer le critère énergétique, voire le critère carbone, dans l’organisation des opérations.

Enfin, ce dispositif de mesure est essentiel pour mesurer l’impact réel des actions mises en place en permettant de comparer rapidement la réalité des économies réalisées par rapport à celles espérées. Cette mesure est essentielle pour mettre en place une amélioration continue de la performance énergétique, dynamique indispensable pour atteindre chaque année l’objectif de 3,5% d’économies d’énergie fixé par les pouvoirs publics.

Vous souhaitez découvrir comment la data peut vous permettre de mesurer et réduire votre consommation énergétique et vos émissions de gaz à effet de serre ?

Visionnez notre dernier webinar sur le sujet :

Rédigé par Martin Alteirac, Responsable Data for Sustainability au sein de notre département Data Driven

La recherche de valeur, le but ultime

Nouveau paradigme pour les architectures de données, le Data Mesh bouscule les modèles inventés et mis en œuvre ces dernières années qui reposent sur une approche fédératrice et centralisée des données.

Cette recherche de centralisation a pour objectif de casser les silos et stocker dans un espace commun les données pour en tirer un maximum de valeur et permettre de croiser des informations issues de différents domaines métiers. Elle a ainsi conduit à la création de Data Warehouses ou plus récemment de Data Lakes afin de rassembler les données de l’entreprise au sein d’une structure unifiée.

Le Data Mesh introduit une nouvelle approche et une rupture avec le modèle de centralisation, en tirant parti des silos et en s’appuyant sur une organisation distribuée en réponse aux enjeux Data à l’échelle de l’entreprise.

Dans la mise en place d’une stratégie Data-Driven, les freins majeurs rencontrés par les entreprises pour passer à l’échelle sont souvent liés à une maturité Data hétérogène et à une organisation complexifiant les échanges. La recherche de centralisation au sein d’une architecture de type Data Warehouse ou Data Lake devient alors un goulet d’étranglement.

Le Data Mesh répond aux problématiques courantes liées à ces architectures, à savoir :

  • Le manque de connaissance métier au sein des équipes IT qui gèrent les données, ce qui entrainent parfois des incompréhensions et souvent des échanges multiples avec les équipes métiers, ralentissant fortement les processus ;
  • Un manque de flexibilité des plateformes de données centralisées qui conduit parfois à des solutions technologiques complexes ne pouvant répondre parfaitement à l’ensemble des spécificités ;
  • Une complexité et une latence forte dans la gestion des flux de données, chaque demande métiers nécessitant l’intégration des données dans l’architecture centralisée, rigidifiant cette dernière afin de répercuter les changements à tous les niveaux de la chaine de traitement.

La réponse ordinaire de centraliser pour mieux traiter n’est finalement pas la meilleure solution. Le Data Mesh apporte une nouvelle approche : ne pas lutter contre les silos mais s’appuyer dessus pour en tirer parti. Le but n’est pas de revenir à une vision complètement décentralisée mais d’adopter une approche fédérée pour conserver la maitrise du patrimoine informationnel de l’entreprise.

Le Data Mesh en quelques mots

Le Data Mesh repose donc sur une approche décentralisée ou distribuée équivalente à l’approche microservices dans l’architecture logicielle.

La notion de Data Mesh a été évoqué pour la première fois par Zhamak Dehghani (Monolithic Data Lake to a distributed Data Mesh) et a évolué pour devenir un concept établi. Il a fait l’objet d’une publication de référence en début d’année (Data Mesh, O’Reilly).

Logical architecture of Data Mesh Approach (martinfowler.com)

Le Data Mesh ne se résume pas à un concept technique ni à l’implémentation de briques technologiques. Il couvre l’étendue du spectre du Data Management et ses composantes, à savoir : organisation, compétences, méthodologies, gouvernance, architecture… Le Data Mesh se compose d’ensembles d’éléments appelés domaines de données. L’interconnexion de ces domaines formant ainsi le maillage (mesh) permet de donner une vision d’ensemble des informations métiers.

La notion de passage à l’échelle est un élément central et fournit un cadre de réponse aux freins pouvant être rencontrés. Par son approche globale, le Data Mesh constitue donc une approche adaptée pour répondre aux besoins de la stratégie Data-Driven :

  • Les réponses aux demandes de changement doivent être rapides : les modèles de données doivent pouvoir être modifiés rapidement et s’adapter aux besoins d’évolutions ;
  • Le nombre de producteurs de données est en évolution constante : nouvelles applications, nouvelles API…
  • Le nombre de consommateurs de données est en augmentation constante : nouvelles initiatives Data, nouveaux besoins métiers, augmentation des usages IA…

Le Data Mesh repose ainsi sur quatre grands piliers : Domaine, Produit, Plateforme et Gouvernance.

Les quatre piliers du Data Mesh
  • Data Domain : la connaissance est distribuée dans les différents domaines de données (dérivé du Domain Driven Design (DDD) d’Eric Evans). Les métiers, responsables des domaines, sont autonomes et responsables du pilotage de leurs initiatives Data ;
  • Data as a product : la donnée est gérée au sein des domaines comme un produit (Data Product). Avec le Data Mesh, les données deviennent le produit. Il revient à chaque domaine de données de mettre à disposition des produits tenant compte de leurs utilisateurs, leurs caractéristiques spécifiques et leur roadmap de développement. Ces produits sont fournis sous un format standardisé pour être utilisés à travers l’organisation ;
  • Self-service Data Infrastructure as a Platform : une infrastructure self-service est mise en place pour gérer ces Data Products. Le Data Mesh nécessite la gestion d’une plateforme interopérable pour l’ensemble des domaines de données. Cette mutualisation vise à permettre aux différents domaines de provisionner des ressources techniques à la demande pour la création des Data Products. L’objectif recherché est de rationaliser le socle technique et les technologies utilisées à travers l’organisation ;
  • Federated Data Governance : une gouvernance fédérée autour de la donnée est mise en œuvre : la gouvernance des données porte de nombreux enjeux et particulièrement l’interopérabilité entre les domaines. La gouvernance permet de gérer les normes réglementaires et de sécurité de l’information, ainsi que le dictionnaire des données. Les domaines ont pour responsabilité de documenter les données et produits mis à disposition. La gouvernance est donc pilotée de manière hybride avec des responsabilités distribuées et fédérées.

Le Data Mesh redistribue les rôles et responsabilités au sein des entreprises

Le Data Mesh intègre en son sein aussi bien les sujets d’architecture, d’organisation, de méthodologie et de gouvernance dans un but commun : intégrer les composantes et acteurs de l’entreprise sur les enjeux de valorisation des données en tant qu’actif stratégique. Il repose sur une organisation Data distribuée et fédérée et nécessite l’implication de l’ensemble de l’organisation avec un sponsoring fort de la Direction et des directions métiers et fonctionnelles (y compris IT).

Pour les métiers, l’approche Data Mesh leur permet d’acquérir autonomie, agilité et responsabilité dans la création de leurs produits Data, la gestion de leur cycle de vie et la gouvernance des données.

Pour la DSI, sa transformation opérée ces dernières années en tant que fournisseur de services IT se renforceavec la responsabilitéde fournir et opérer une plateforme modulaire, interopérable permettant la mise à disposition d’assets communs. Dans cet approche les solutions cloud et de virtualisation des données constituent des approches d’architecture particulièrement adaptées au Data Mesh. La DSI joue donc un rôle essentiel en étant garant de la modernisation, l’agilisation du SI et de l’apport des innovations technologiques (apportées notamment par les solutions Cloud).

Pour le Data Office, il joue un rôle central d’animation, d’acculturation et de fédération des initiatives Data. Il accompagne la démarche de mutualisation des données, la coordination des actions et la mise en oeuvre de la gouvernance. Le Data Office est donc la tour de contrôle de la fonction Data transverse de l’entreprise et en charge du maintien de la cohérence globale.

Le Data Mesh, une rupture fédératrice

Le Data Mesh apporte une rupture totale avec le dogme Data-Centric qui a porté les réflexions d’architecture et d’organisation Data ces dernières années, mais à laquelle les entreprises se heurtent avec l’explosion des données et les limites en termes de création de valeur et de passage à l’échelle.

Le Data Mesh apporte une approche globale au service de l’entreprise Data-Driven, contrairement aux approches purement technologiques. L’agilité dans la création de produits Data et leur mutualisation donne l’opportunité de raccourcir le time-to-market pour les métiers et leur permet de répondre plus rapidement aux exigences internes ou du marché.

Le Data Mesh réunit donc les éléments nécessaires pour une stratégie Data-Driven réussie :

  • Une approche globale (méthodologie, technologie, architecture…) ;
  • Une répartition et une gestion des compétences Data dans les différents Data domaines ;
  • Une plus grande autonomie des métiers pour la gestion et la valorisation de leurs données.

L’ensemble de ces éléments réunit autour des quatre piliers du Data Mesh :

  • Une organisation en Data Domain métiers ;
  • La création de Data Products ;
  • La mise en place d’une plateforme technologique fédérée ;
  • Une gouvernance des données distribuée et fédérée.

Ils font écho à l’approche de Saegus et sa proposition de valeur sur la modernisation de plateforme de données sur l’ensemble de ces composantes techniques, méthodologiques et organisationnelles. N’hésitez pas à nous contacter pour en savoir plus.

Rédigé par Julien Ayral, Directeur Data Driven

En dehors de quelques start-ups ou spécialistes de la tech, les usages de l’intelligence artificielle se sont développés de façon moins spectaculaire que ce qui était attendu il y a quelques années. On constate une prise de conscience générale sur le fait que l’intelligence artificielle n’est pas une solution magique : l’investissement est relativement couteux pour un ROI qui n’est pas toujours au rendez-vous. Transformer une entreprise Data Driven tient plus en sa capacité à disposer de données fiables (mise en qualité), partagées (gouvernance et catalogue) et utilisées par le plus grand nombre (accessibilité et acculturation) que de sa capacité à réaliser des expérimentations de Deep Learning ou Machine Learning.

Faut-il toujours croire au développement de l’intelligence artificielle dans les entreprises ?

Oui, bien sûr. Bien utilisée, l’intelligence artificielle est un accélérateur puissant pour résoudre des problématiques complexes ou générer plus d’efficacité. Toutefois, l’offre existante sur le marché n’est pas toujours lisible : faut-il aller sur des outils packagés avec des modèles pré-entrainés, choisir du sur-mesure ou utiliser des plateformes de développement dédiées aux Data Scientists comme Dataiku ? Les entreprises hésitent aussi bien sur les solutions à retenir que sur les organisations à mettre en place.

Existe-t-il des freins spécifiques à l’intelligence artificielle ?

Le point prioritaire reste la mise à disposition des données : elles doivent être accessibles, qualitatives et représentatives des phénomènes étudiés. Ce prérequis étant franchi, il reste deux autres problèmes à résoudre qui sont souvent sous-estimés :

  • L’automatisation et l’industrialisation : ou comment sortir du cadre de l’expérimentation pour mettre les services d’intelligence artificielle en production. Il convient de s’inspirer du DevOps et du Software Engineering en mettant en place un cadre MLOps et une chaîne d’intégration continue. Sans ces piliers, il est inenvisageable de faire de l’intelligence artificielle un pilier de croissance des entreprises ;
  • L’intelligence artificielle de confiance : dès lors que la finalité est opérée dans un cadre règlementaire ou éthique (RH par exemple), il est indispensable de « superviser » les modèles d’intelligence artificielle afin de les rendre transparents (mise en évidence du poids des variables dans la décision de l’algorithme). La bonne pratique à adopter – qui est notre conviction – est d’aller encore plus loin en ne se limitant pas à l’explicabilité du modèle. Il est nécessaire de superviser l’ensemble de la chaîne, notamment la représentativité des jeux d’entraînements (un algorithme qui apprend sur un jeu de données comportant des biais aura tendance à les reproduire).

Trouver les bons leviers pour maximiser l’apport de l’intelligence artificielle

La mission que s’est donnée Saegus est simple : « maximiser l’impact de l’intelligence artificielle dans les entreprises ». Comment ? À l’appui de supports :

  • Méthodologiques : la difficulté n’est pas de trouver des cas d’usages, mais de trouver les bons. Pour cela, nos équipes identifient les « Deep Use Cases » ayant un impact mesurable sur les fonctions de l’entreprise : opérations (Supply Chain, logistique, Demand Forecasting), procurement, ressources humaines, Sustainability… ;
  • Technologique : nos équipes apportent une prise de recul nécessaire pour recommander les bonnes solutions à leurs clients en fonction du contexte, de la maturité et de la constitution des équipes, ainsi que de leur écosystème technique ;
  • Organisationnel : en fonction de la taille de la culture et du modèle d’entreprise (centralisé ou décentralisé, répartition des activités entre les équipes core et les domaines métiers), nos experts aident les entreprises à structurer et agiliser leurs équipes Data Science : acculturation, montée en compétences, modèles de gouvernance, collaboration et interactions entre les équipes Business et IT… ;
  • Et d’accélérateur concrets : guides pratiques, démonstrateurs, supports de formations et kits prêts à l’emploi – comme notre Starter Kit MLOPS.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data ?

Rédigé par Alexander Mikheev, Manager Data Driven

Signes du dérèglement climatique, les conflits géopolitiques, catastrophes naturelles ou encore les difficultés d’approvisionnement de certaines denrées se multiplient. Ils semblent malheureusement nécessaire à la prise de conscience mondiale sur l’impact environnemental de nos activités, en tant que société et individu. En conséquence, les comportements évoluent : si nous sommes de plus en plus nombreux à ajuster nos comportements, ce changement de mentalité doit désormais s’appliquer à l’échelle de l’entreprise.

Cependant, réduire l’empreinte carbone d’une entreprise grâce à une meilleure gestion de sa consommation énergétique ou une optimisation de ses processus métiers n’est pas aussi simple qu’éteindre ses lumières, trier ses déchets ou limiter l’utilisation de sa voiture.

En conséquence, des réglementations sont mises en place pour aider les entreprises à mieux comprendre et maitriser leurs activités et faciliter le pilotage et l’optimisation de leur empreinte carbone. Depuis 2017, un grand nombre d’entreprises a pour obligation de communiquer sur leur performance RSE (responsabilité sociétale des entreprises), à l’appui d’un reporting extra-financier (remplaçant le rapport RSE).

Cette mesure n’est obligatoire que pour les entreprises de plus de 500 salariés et dont le chiffre d’affaires est supérieur à 40 millions d’euros pour les entreprises cotées en bourse ou 100 millions d’euros pour celles qui ne le sont pas. Toutefois, de nombreuses entreprises qui n’atteignent pas ces seuils font preuve d’initiative pour montrer l’image positive d’un groupe conscient et responsable auprès de ses clients et fournisseurs.

On ne peut que saluer ces initiatives : la conscience écologique doit être au cœur des stratégies des entreprises. Parce que les réglementations évoluent aussi vite que se dérègle le climat, ces mesures seront sans aucun doute appliquées à l’ensemble des entreprises dans les années à venir.

Comment la réglementation va-t-elle évoluer ?

Dès 2024, la CSRD – Corporate Sustainability Reporting Directive (remplaçant l’actuelle NFRD – Non Financial Reporting Directive) imposera la mise en place de nouveaux reporting extra-financiers. On estime qu’environ cinq fois plus d’entreprises seront concernées par cette nouvelle réglementation (par exemple les sociétés de plus de 250 salariés ou toutes les sociétés cotées en bourse).

Les entreprises doivent se préparer dès maintenant : c’est là que la Data entre en jeu. Afin de s’y préparer au mieux, les entreprises n’auront pas d’autres choix que de s’appuyer sur la donnée pour justifier leur conformité face au CSRD. On parle de Data Sustainability.

La Data Sustainability, un réel challenge pour les entreprises

Les lois se durcissent. Elles exigent la mise à disposition d’informations extra-financières, nécessitant plus de transparence dans le reporting et donc dans les données à identifier, collecter, préparer et diffuser. Là est la contradiction de ce système : diminuer l’empreinte carbone des entreprises tout en augmentant sa culture digitale et Data pour pouvoir y faire face.

L’hétérogénéité de la provenance des données, leur raffinement ou leur niveau de qualité est un casse-tête pour les entreprises. Cette complexité est associée à de grands challenges sous-jacents :

  • Le challenge réputationnel pour garantir des collaborations saines et durables auprès des fournisseurs, partenaires et clients, ainsi que des organismes de financement pour assurer les dépenses et la croissance de l’entreprise ;
  • Le challenge culturel de transformation de l’entreprise vers une stratégie digitale centrée sur la Data impliquant de nouvelles organisations pour répondre aux enjeux environnementaux de demain ;
  • Le challenge technologique d’implémentation de plateformes Data décentralisées en tirant parti d’une conception orientée produits, facilitant l’agilité dans la gestion, la maintenance et l’évolution des données.

Pour répondre à ces différents challenges, la mise en place d’une gestion robuste de la donnée est nécessaire. Elle doit être basée sur les 5 piliers de la gouvernance des données.

Les processus Data

Afin de garantir une maitrise des données tout au long de leur cycle de vie, il est indispensable de lancer des chantiers de cartographie des processus Data intégrant les sources internes et externes, des systèmes producteurs de données jusqu’aux systèmes consommateurs (dans l’exemple que nous prenons, jusqu’à l’utilisation des données dans les reportings extra-financiers).

La maitrise des processus Data garantit la traçabilité de la donnée, permet la mise en lumière d’éventuelles causes de non-qualité ou identifie les étapes de collectes manuelles en vue d’une industrialisation technologique.

L’organisation Data

La mise en place d’une organisation Data implique des rôles standardisés et partagés à l’ensemble de l’entreprise. À chaque rôle est affectée une fiche de poste caractérisée et reconnue en tant que position légitime par le management et les ressources humaines. Ces nouveaux rôles doivent être pilotés et accompagnés par un Data Office garant des instances de gouvernance pour assurer la cohérence et vision Data du groupe.

Cette organisation a pour objectif de faciliter les échanges entre les parties prenantes Data et garantir une collaboration étroite entre les domaines fonctionnels et la DSI coordonnée par le Data Office. Elle est indispensable à la mise sous contrôle du patrimoine de données.

La connaissance du patrimoine de données

Le patrimoine de données doit être intelligible et accessible à tous les collaborateurs de l’entreprise. Il assure la véracité et l’intégrité des données transmises lors des exercices extra-financiers. Il se décompose principalement en deux activités : le glossaire des données dans le lequel on retrouve un certain nombre d’attributs permettant de qualifier les objets métiers (définition, responsable, règle de gestion, etc). Il permet de définir un langage commun. Le dictionnaire des données, quant à lui, répertorie la localisation physique des données, les traitements associés et le type de collecte indispensable à la conception des processus Data.

Le catalogue de données apporte de nombreux bénéfices pour la capitalisation du patrimoine. Il a pour rôle d’améliorer la transparence des informations liées à la collecte des données de reporting et, dans notre contexte, prouver la traçabilité en cas d’audit.

La qualité des données

Les équipes Data sont responsables de la formation des collaborateurs aux grand principes de la qualité, aux dimensions suivies ou aux techniques de saisies de la Data. Ils sont indispensables à l’application des processus de qualité intégrant des plans d’actions correctifs et préventifs.

L’implémentation des plans de remédiation repose sur des processus de suivi itératifs à l’appui de tableaux de bord ou outils de gestion de la qualité. L’amélioration de la qualité des données passe par l’implémentation d’outils et de contrôles, mais surtout par la sensibilisation des équipes.

L’augmentation de la quantité, la diversité et la complexité des données des entreprises – dans notre cadre extra-financier où de nombreuses données sont collectées en provenance d’OTI (Organisme Tiers Indépendant) – rendent indispensable la mise en place d’une gestion rigoureuse de la qualité.

L’accessibilité des données

L’accessibilité des données se caractérise comme suit : d’une part elle requiert la définition d’un modèle documenté et partagé d’exploitation des données (Data Operating Model) ; d’autre part elle nécessite la mise à disposition de données qualifiées, dont l’intégrité et la disponibilité est assurée par des systèmes de gestion de la donnée adaptée et une mise en gouvernance robuste.

Le Data Operating Model, couplé à une infrastructure bien pensée, est essentiel dans l’équilibre de la gouvernance de données et favorise l’implémentation de nouveaux usages.

Les équipes de notre département Data vous accompagnent dans l’élaboration de stratégies liées à la Data Sustainability grâce à ses expertises techniques et méthodologiques. L’objectif : vous apporter des solutions Data clés en main répondant à des usages métiers spécifiques comme l’élaboration des reportings extra-financiers ou la mise sous gouvernance des données liées aux stratégies RSE.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data for Sustainability ?

Rédigé par Martin Éliard, Manager Data Driven

Cette rentrée 2022 est marquée par une série d’annonces montrant que le rôle de la data dans les initiatives RSE – et en premier lieu celles destinées à lutter contre le réchauffement climatique – est en passe d’être reconnu essentiel par tous les acteurs du secteur.

Martin Alteirac, Senior Manager au sein de notre département Data Driven et en charge de notre offre Data for Sustainability, nous présente la plus impactante d’entre elles : la présentation des conclusions du forum 2022 du Cercle de Giverny.

Qu’est-ce que le Cercle de Giverny ?

Le Cercle de Giverny est un laboratoire d’idées hybride agissant en faveur du déploiement opérationnel de la RSE systémique. Il a dévoilé cette semaine 30 nouvelles propositions pour accélérer la transformation écologique et sociale de notre pays. Parmi ces propositions, 6 d’entre elles témoignent du rôle crucial de la data dans cette transformation.

Le groupe de travail du Cercle de Giverny, co-présidé par Come Perpère (Directeur du développement durable Microsoft France) et Rim Tehraoui (Chief Data Officer BNP Paribas), rappelle quelques chiffres :

  • 9% des entreprises évaluent leur impact environnemental de manière précise et complète, c’est-à-dire en mesurant les scopes 1, 2 et 3. En moyenne, le taux d’erreur dans leurs mesures d’émissions est de 30 % à 40 %. (Source : Rapport « Carbon Measurement Survey » 2021 de BCG Gamma)
  • Dans le monde, seulement 7% des entreprises ont combiné leur stratégie tech, RSE et business. 18% d’entre elles n’ont pas de politique de numérique responsable ou en appliquent les principes basiques. (Source : “Uniting Technology And Sustainability”, Accenture, 2022)

Pour dépasser ce constat, le groupe de travail formule 6 recommandations qui sont des leviers pour rendre actionnables les données nécessaires à la mise à l’échelle du développement durable.

En quoi consiste ces recommandations ?

Ces recommandations constituent les 6 grands axes à travailler au cours des prochaines années pour faciliter la collecte, la valorisation et l’échange des données qui doivent permettre aux entreprises et à la société de diminuer son empreinte environnementale :

  • Créer des consortiums sectoriels multi-parties prenantes pour normaliser les indicateurs d’impact environnemental,
  • Inclure dans le standard CSRD (développé par l’EFRAG) les indicateurs liés à l’empreinte environnementale des produits,
  • Améliorer l’interopérabilité et le partage des données environnementales (ex. : biodiversité et carbone) pour favoriser leur échange,
  • Assurer la qualité et la clarté de la donnée,
  • Rendre le processus de contribution au sourcing et à la gouvernance de la data attrayant pour tous les acteurs de la chaine de valeur,
  • Considérer la data comme un levier pour mesurer et modéliser l’impact extra-financier d’un projet à but social ou environnemental.

Ces grands axes sont ensuite complétés par une série de déclinaisons opérationnelles dont certaines me paraissent particulièrement intéressantes :

  • Imposer aux entreprises européennes la publication de leur empreinte environnementale pour une part croissantes des produits commercialisés : il est essentiel de permettre aux entreprises (comme aux particuliers) de prendre en compte ce critère lorsqu’elles comparent leurs fournisseurs. Comment y arriver si celles-ci ne se plient pas à l’exercice pour leurs propres produits ? Ce premier point commence à être pris en compte dans de plus en plus de solutions technologiques de mesure et réduction d’impact carbone, comme celle de la plateforme Sweep. Cette solution permet à ses clients d’engager leurs fournisseurs dans la démarche en leur permettant de saisir ou d’injecter automatiquement leurs données dans la plateforme. Cette possibilité fournit ainsi une solution de mesure des émissions de Scope 3 efficace et transparente à ses clients.
  • Créer un protocole d’interopérabilité d’échange des données incluant un modèle de données standard qui pourra servir de base à des APIs (Application programming interfaces) et promouvoir l’interopérabilité́ des plateformes inter-médiatrices (plateformes dédiées carbone, plateformes règlementaires) : interopérabilité et automatisation sont des enjeux clés pour déployer la mesure d’impact environnemental à l’échelle. La société Kabaun propose déjà une partie de la solution avec une plateforme entièrement APIsée permettant cette automatisation.
  • Le rôle crucial de la data gouvernance est souligné : la création de dictionnaires et référentiels ad-hoc, la mise en place de contrôle de qualité et d’explicabilité des variations tout comme la mise en place de rôles et responsabilités définis sont des facteurs de succès incontournables.

Comment appliquer concrètement ces recommandations ?

En commençant par prendre conscience de l’importance que vont prendre les données liées à ces sujets au cours des prochaines années, voire mois tant l’urgence à agir sur ces sujets se fait sentir.

Une fois cette prise de conscience effectuée, vient le temps de l’action et la constitution d’équipes réunissant les expertises nécessaires :

  • L’expertise carbone, afin de garantir la qualité et la compliance des analyses effectuées,
  • L’expertise technique indispensable au sourcing, au processing et à la valorisation des données récoltées, qu’il s’agisse de données internes ou de facteurs d’émission,
  • L’expertise méthodologique pour gérer ce type de projets à l’échelle dans des organisations complexes.

Ce tryptique d’expertise est à mon sens la clé pour garantir le fait que les enjeux sur ces sujets, parfaitement résumés par le Cercle de Giverny, puissent être pris en compte.

Vous souhaitez en savoir plus ou être accompagné·e·s par notre équipe Data for Sustainability ?

Rédigé par Martin Alteirac, Senior Manager Data Driven