Ici archive

À la fin du mois d’août, la start-up d’IA Hugging Face levait 235 millions de dollars auprès de Google, Amazon, Nvidia et autres géants de la tech. Spécialisée dans l’IA open source, la start-up a plus que doublé sa valorisation, passant de 2 à 4,5 milliards de dollars. Comment cette entreprise franco-américaine est-elle devenue incontournable en quelques années seulement ?

La levée de fonds

Hugging Face a su attirer plusieurs géants du numérique et de la tech en pleine période d’emballement pour l’intelligence artificielle. C’est un round « écosystème » qui montre l’engouement des grands acteurs de la tech pour exposer des algorithmes d’intelligence artificielle au plus grand nombre et ainsi en favoriser l’usage.

Hugging Face propose aux entreprises des modèles d’intelligence artificielle prêts à l’emploi pour leur permettre de facilement débuter ou accélérer leurs projets d’IA.

Ces services sont ouverts et accessibles à tous ; la plateforme propose toutefois des solutions payantes dédiées à ses clients professionnels comme Training Cluster fait avec la coopération avec Nvidia ou l’extension du service Spaces pour héberger un front-end ou un travail collaboratif. Il est également possible d’héberger l’inférence de modèles via un API.

GitHub de l’IA

Si l’on devait résumer le positionnement de Hugging Face en quelques mots, nous dirions qu’il s’agit du “GitHub de l’IA“. On y retrouve les caractéristiques spécifiques au domaine comme le leaderboard et le regroupement des modèles par classe de tâches.

La plateforme permet de centraliser les ressources ouvertes à tous, les rendant ainsi plus accessibles.

C’est grâce à ce positionnement “ouvert” que l’on peut retrouver les modèles hébergés sur HuggingFace dans la majorité des cloud providers, mais également dans les nombreux projets open source. On y voit aussi l’intégration de modèles HuggingFace avec les outils d’analyse. Snowflake le propose désormais avec Snowpark ML

Perspectives

Chez Saegus, nous sommes convaincus que la transparence et la traçabilité sont des éléments clés pour accélérer l’adoption des outils d’intelligence artificielle dans les entreprises ; un positionnement unique confirmé par la dernière phase de levée de fonds de la nouvelle licorne franco-américaine.

Vous souhaitez en savoir plus ou développer les usages de l’IA dans votre entreprise ? Contactez nos expert·es.

Rédigé par Alexander Mikheev, Tech Lead au sein de notre département Data Driven

Martin Alteirac, en charge des activités d’Intelligence Artificielle chez Saegus, et Brice Lavigne, expert en gouvernance Data et IA nous expliquent comment ils accompagnent leurs clients à l’arrivée de l’AI Act. 

Pouvez-vous nous rappeler rapidement ce qu’est l’IA Act en quelques mots ?

L’AI Act est une proposition de réglementation de l’Union européenne (UE) visant à réguler les systèmes d’intelligence artificielle (IA) au sein de l’UE. Le projet de loi a été présenté par la Commission européenne en avril 2021 et vise à établir des règles spécifiques de l’utilisation de l’IA dans ce cadre. L’AI Act classe les catégories d’intelligence artificielle selon des systèmes allant du haut risque (comme les dispositifs médicaux ou les véhicules autonomes) au moindre risque.

Il impose des obligations telles que la transparence, la traçabilité, la documentation et l’assurance de la conformité aux règles de sécurité établies. Il interdit également certaines applications d’IA considérées comme dangereuses, comme par exemple la manipulation de comportements humains de manière trompeuse. 

Pour en savoir plus, n’hésitez pas à consulter notre premier article sur le sujet : L’AI ACT : une opportunité à saisir pour développer sa stratégie AI Driven.

Comment mettre en place une gouvernance IA ?

Lorsqu’une entreprise décide de mettre en place une gouvernance de l’IA, une approche méthodique est essentielle pour garantir son succès. Elle peut être déclinée selon les étapes suivantes.

Première priorité : acculturer et sensibiliser aux risques de l’IA

La première étape consiste à sensibiliser l’ensemble de l’organisation aux risques associés à l’IA. Il est essentiel que tous les acteurs comprennent les conséquences potentielles des décisions liées à son utilisation, notamment sur la réputation, la conformité légale et les opérations de l’entreprise. Cette prise de conscience permet d’obtenir un soutien et une adhésion plus forts à la gouvernance IA. Notre équipe propose des programmes de formation et sensibilisation ciblés pour mettre en lumière ces risques, que ce soit pour les décideurs à haut niveau, product owners, chefs de projets ou praticiens de l’IA en entreprise.

Après la sensibilisation, nous mettons en œuvre une méthodologie structurée pour guider nos clients dans le processus de gouvernance IA :

  • Diagnostic, analyse de risques et Gap Analysis : nous débutons par un diagnostic approfondi de l’environnement actuel de l’IA au sein de l’entreprise, en mettant l’accent sur les risques potentiels. La Gap Analysis identifie les écarts entre la gestion actuelle des risques liés à l’IA et les normes souhaitées en matière de gouvernance et de conformité ;
  • Plan d’action : sur la base des résultats de la Gap Analysis, nous élaborons un plan d’action précis qui détaille les étapes nécessaires pour atténuer les risques identifiés. Ce plan comprend des échéanciers, des responsabilités claires et des objectifs mesurables ;
  • Implémentation des processus : nous aidons nos clients à mettre en œuvre le plan d’action en créant des équipes dédiées, en mettant en place des politiques et des procédures adéquates, et en communiquant efficacement les changements au sein de l’organisation. Une attention particulière est portée à la gestion des risques tout au long de cette phase ;
  • Implémentation technique : enfin, nous nous assurons que les aspects techniques de la gouvernance IA sont en place, en veillant à ce que les technologies sous-jacentes respectent les principes de transparence, d’équité et de confidentialité des données.

En suivant cette approche méthodique, nos clients sont mieux préparés à gérer les risques associés à l’IA tout en maintenant un contrôle efficace sur leurs initiatives. La gouvernance de l’IA devient ainsi un moyen essentiel de préserver la réputation, de garantir la conformité et de sécuriser les opérations de l’entreprise.

Une fois la gouvernance en place, comment s’assurer de son efficacité sur le long terme ?

La mise en place d’une gouvernance de l’IA est une étape cruciale, mais son succès à long terme repose sur une logique itérative d’amélioration continue. Nous proposons la logique d’amélioration continue suivante :

  • Inspection : la première étape consiste à effectuer des inspections, à la fois aléatoires et planifiées, de l’application de la gouvernance de l’IA. Ces inspections visent à détecter les vulnérabilités potentielles dans le processus de gouvernance. Les inspections aléatoires permettent de repérer des problèmes imprévus, tandis que les inspections planifiées suivent un calendrier défini. Cette étape nous aide à maintenir une surveillance proactive et à identifier les zones qui nécessitent une attention particulière.
  • Gap Analysis : une fois les vulnérabilités détectées, nous les présentons aux parties prenantes de l’entreprise, qu’il s’agisse du conseil d’administration, de l’équipe de direction ou d’autres intervenants clés. Ces vulnérabilités sont examinées en détail et une analyse des écarts est réalisée pour comprendre pourquoi elles sont apparues. Cette étape permet d’impliquer activement les parties prenantes dans le processus de gouvernance et de les préparer à corriger les écarts de manière la plus autonome possible.
  • Mise à jour de la gouvernance de l’IA : suite à la conclusion de l’analyse des écarts, des mesures correctives sont définies en collaboration avec les parties prenantes. Ces mesures visent à résoudre les vulnérabilités identifiées et à renforcer la gouvernance de l’IA. Il peut s’agir de mettre à jour les politiques, les procédures, les outils ou même de former le personnel. Cette phase garantit que les leçons tirées des inspections sont appliquées de manière proactive.
  • Suivi et Hypercare : enfin, une surveillance spécifique est mise en place pour confirmer l’efficacité des mesures correctives. Cela implique un suivi rigoureux pour s’assurer que les vulnérabilités identifiées ne réapparaissent pas et que la gouvernance de l’IA fonctionne comme prévu. L’hypercare consiste à accorder une attention accrue aux processus de gouvernance récemment mis à jour pour s’assurer de leur adaptation en continu.

Cette logique itérative d’amélioration continue garantit que la gouvernance de l’IA reste pertinente, efficace et résiliente face aux défis en constante évolution de l’IA et aux besoins changeants de l’entreprise. Elle permet d’assurer une gestion proactive des risques et de maintenir une conformité continue aux normes et aux réglementations en vigueur.

Vous souhaitez en savoir plus ? Contactez nos expert·es.

Rédigé par Brice Lavigne et Martin Alteirac, Managers Data Gouvernance au sein de notre département Data Driven

Au cours des 10 dernière années, l’intelligence artificielle s’est imposée comme la 4e révolution technologique de notre époque. Aujourd’hui, elle est un levier stratégique pour les entreprises, puisque 44% d’entre elles ont déjà investi dans l’IA et 9 sur 10 d’entre elles ont inclus des projets d’IA dans leur trajectoire de développement (source : NewVantage).

Aux prémices de l’intégration de l’IA dans les processus métiers/stratégies d’entreprise, se trouvent les start-up – aujourd’hui, on compte en France 500 start-up développant des solutions d’IA. En s’appuyant sur des chercheurs et laboratoires, elles ont beaucoup innové sur ces usages en se concentrant sur la disruption des process. Pendant plusieurs années, les grandes entreprises ont ainsi pu avoir un regard privilégié sur les avancées de cette technologie – cependant, si ce modèle réduit le risque pour les entreprises, il augmente le time-to-market de solutions pour le métier.

Depuis quelques années, ce modèle de développement est en train de changer. L’évolution des systèmes cloud, des calculs distribués et l’avènement des AI platforms – comme Vertex AI, Databricks ou Dataiku par exemple – facilite le développement, le déploiement et la maintenance de solutions d’IA. Il devient aujourd’hui simple de passer à l’échelle la production d’applications IA et donc de développer en interne des solutions sur-mesure métiers avec des équipes spécialisées et restreintes.

Cela change le paradigme de l’application IA : elle n’est plus un sujet de R&D – technologie différenciante sur le marché – mais devient un produit développé par les métiers. Les enjeux métiers et la stratégie de l’entreprise s’alignent alors sur la production d’applications IA : nous entrons dans le modèle des entreprises AI Driven.

Plusieurs questions se posent alors sous différents aspects :

  • De sécurité : l’AI Driven est la continuité du Data Driven, puisqu’il s’agit de prendre des décisions à partir des données analysées par des outils d’IA. Dans ce cadre, la question de l’explicabilité de l’IA se pose rapidement. Comment comprendre une décision de l’IA ? Comment la rendre transparente afin qu’elle puisse être sûre ? ;
  • De responsabilité environnementale : les calculs d’IA sont aujourd’hui très consommateurs en énergie. Dans l’inclination qu’on les entreprises pour réduire leur impact carbone, constatable par exemple au travers du reporting ESG, la mise à l’échelle des applications d’IA soulève une seconde question d’une IA responsable et écologique ;
  • D’éthique : quand des prévisions annoncent qu’en 2025, 90% des messages marketing passeront par des outils d’IA pour optimiser les campagnes en qualifiant plus précisément les cibles, une troisième question se pose sur l’impact social positif des solutions d’IA ;
  • D’économie : le développement de l’IA relève aussi d’enjeux économiques internationaux. La sous-exploitation du potentiel de l’IA et des applications développées par les entreprises pourrait faire perdre un avantage concurrentiel à ces dernières et mener ainsi à une stagnation économique. C’est pour cela que la France a investi 2,22 milliards d’euros dans le plan France 2030, avec l’objectif ambitieux de capter 15% du marché mondiale sur l’IA embarquée.

Pour adresser ces problématiques et piloter l’arbitrage de l’IA au sein de notre société, la Commission Européenne a proposé en avril 2021 un cadre réglementaire pour les applications d’intelligence artificielle en Europe : l’« AI ACT ».

Il vise à classer et analyser les risques directs ou indirects présents pour les utilisateurs en veillant à ce que les systèmes d’IA utilisés au sein de l’UE soient sûrs, transparents, traçables, non-discriminatoires et respectueux de l’environnement. Le 14 juin, les députés ont adopté une position sur le cadre de la loi ; un accord devrait être trouvé d’ici décembre 2023.

Quelles sont les projets visés dans cette analyse de risque ?

L’analyse de risque doit être appliquée à des solutions d’IA qui entrent dans deux catégories.

La première concerne les « risques inacceptables ». Elle comprend les cas d’utilisation qui implique un danger pour les individus ou la société. Cela inclut :

  • La manipulation cognitivo-comportementale de personnes vulnérables : par exemple, l’usage de l’IA à l’intérieur de jouets pour enfants ;
  • Le score social basé sur des caractéristiques personnelles : par exemple, la validation d’une attribution de prêt selon un comportement social ;
  • La reconnaissance faciale en temps réel à distance : auprès d’individus lambdas dans une gare ou un centre commercial par exemple. Il existe une exception dans le cadre d’enquêtes criminelles majeures, sous l’approbation d’un tribunal.

Toutes les applications se trouvant dans cet ensemble de risque sont interdites.

La seconde catégorie englobe les cas d’usage représentant un « risque élevé » pour les droits fondamentaux ou la sécurité. Ils sont répartis en deux ensembles.

Le premier, l’IA appliquée aux produits relevant de la sécurité des individus : jouets, aviation, voitures, dispositifs médicaux ou ascenseurs, par exemple. Les entreprises qui développent des produits d’IA dans ces domaines, que ce soit dans le processus de recherche, de développement ou de production, devront justifier d’une analyse de risque et d’une traçabilité pour chaque solution développée.

Le second, l’usage de l’IA appliquée aux domaines ci-dessous devra être référencé et répondre aux aspects réglementaires précédemment cités :

  • L’identification biométrique et la catégorisation des personnes physiques.
  • La gestion et l’exploitation des infrastructures critiques
  • L’éducation et la formation professionnelle
  • L’emploi, la gestion des travailleurs et l’accès au travail indépendant
  • L’accès et la jouissance des services privés essentiels et des services et avantages publics
  • Les forces de l’ordre
  • La gestion de la migration, de l’asile et du contrôle des frontières
  • L’aide à l’interprétation juridique et à l’application de la loi.

Le reste des applications rentreront dans la catégorie des risques limités, signifiant que tout ce qui est généré par une IA doit être notifié à son utilisateur.  

Un règlement s’applique spécialement aux applications utilisant de l’IA générative, comme ChatGPT ou MidJourney. Les modèles devront être configurés de sorte à ne pas générer de contenu illégal ou publier des données protégées par le droit d’auteur.

Comment se préparer à la législation sur l’IA ?

Mettre en place un système réglementaire peut être long et couteux, surtout quand il s’agit de l’appliquer à des solutions d’intelligence artificielle dont la documentation et l’historique n’est pas à jour. Afin d’utiliser la structure de l’AI ACT comme une opportunité plutôt que comme une contrainte, il est important de construire dès maintenant et progressivement un système qui répond aux attentes de la réglementation.

 La collaboration sans couture entre les parties actives du projet de développement de la solution IA est une première piste à aborder. Elle concerne plusieurs parties prenantes :

  • Tout d’abord, la stratégie venant du pôle digital ou de la direction donnera l’impulsion et la direction pour atteindre le but défini. Elle peut s’aider d’un comité pour évaluer l’éthique des projets concernés, en accord avec les métiers ;
  • Ensuite, ceux qui développe la solution, qui se trouve à la limite entre la DSI et le data/digital office. Leur but est de s’assurer que toutes les guidelines techniques du projet répondent à l’explicabilité et à la transparence attendue par la règlementation. Ils sont les garants de la documentation et de l’évolution du projet qui, développé avec des méthodologies agiles, peut le pivoter au fur et à mesure de l’implémentation ;
  • Enfin, la partie réglementaire qui a la responsabilité de valider la présence des livrables et de relancer les métiers si besoin.

La réussite de cette collaboration peut se faire par le biais de deux couches qui doivent fonctionner simultanément. Tout d’abord, la gouvernance de l’IA, vise à designer les processus, établir le format des ateliers, instaurer les règles, évangéliser et former les parties prenantes sur l’importance d’une culture IA responsable. Elle permet également d’attribuer les rôles et actions à chaque collaborateur. Elle facilite ainsi le changement.

La seconde couche est de mettre en place une architecture logicielle fiable et les outils nécessaires qui permettent la collaboration de chacun des parties prenantes du projet. Certains défis techniques sont liés à ces outils – on pense par exemple au versioning des data sets, de la justification de leur qualité à l’explication des décisions prises au cours du projet.

L’enjeu est double : mettre en place une solution technique fiable, tout en réduisant la gestion administrative du projet, mais aussi éviter une dette technique qui pourrait ne pas répondre aux attentes d’efficacité, de robustesse et de complexité auxquels doivent répondre ces plateformes.

Remarque : les pénalités qui pourront s’appliquer auprès des entreprises seront sur du même ordre de grandeur que celui de la RGPD, soit 2 à 6% du chiffre d’affaires. Il existera un plafond pour les jeunes entreprises. Il est donc essentiel de se faire accompagner par des experts aussi bien sur les aspects technologiques que ceux de gouvernance.

En résumé

L’intelligence artificielle apporte des opportunités considérables pour les entreprises, mais sa mise en œuvre et son passage à l’échelle nécessite une approche réfléchie et responsable. L’AI ACT est un cadre qui permet de construire des solutions plus pérennes basées sur la sécurité et la protection des utilisateurs finaux. En adoptant une intégration progressive et proactive tout en construisant sur des outils robustes et de confiance, les entreprises peuvent gagner du temps afin de se préparer au mieux aux enjeux concurrentiels et économiques de demain.

Vous souhaitez découvrir comment l’AI ACT peut transformer votre entreprise en un acteur responsable et compétitif de demain ? Contactez nos expert·es.

Rédigé par Brice Lavigne, Manager Data Gouvernance au sein de notre département Data Driven

Développée au début des années 2010 par Daniel Pidcock, chercheur spécialisé en UX Design, l’Atomic Research ne cesse depuis de gagner en popularité. Inspirée par l’Atomic Design, permet d’organiser les données issues de la recherche utilisateur de façon à mettre en lumière l’interconnexion des informations récoltées. Le but ? Que chaque membre d’une équipe puisse les utiliser, les comprendre et les mettre à profit. Nous vous proposons dans cet article d’explorer les pans, avantages et objectifs de cette approche innovante – mais avant cela, revenons ensemble sur les bases de la recherche utilisateur pour mieux en comprendre les tenants et aboutissants.

Qu’est-ce que la recherche utilisateur ?

L’UX research est un processus essentiel pour les organisations qui cherchent à développer des produits et services centrés sur les besoins des utilisateurs. Cette démarche vise à recueillir des informations sur les comportements, attentes et préférences des utilisateurs afin d’orienter la conception et l’amélioration des produits. Elle englobe un large éventail de méthodes et d’outils comme les entretiens, les enquêtes, les tests utilisateurs et l’analyse des données.

Est-ce que l’Atomic Research apporte une réponse à ses problèmes ? Comment ?

La recherche utilisateur présente plusieurs défis pour les équipes qui la mettent en œuvre : on peut citer la gestion de la complexité des données, la difficulté à synthétiser et à interpréter les informations recueillies, ou le manque de collaboration entre les différentes parties prenantes, réduisant de facto l’impact de leurs travaux. De plus, les processus et les outils de recherche utilisateur traditionnels peuvent s’avérer moins efficaces pour traiter par exemple la capitalisation et le suivi du retour des utilisateurs lorsqu’il s’agit de produits complexes.

Quels sont les principaux problèmes auxquels on se heurte dans la recherche utilisateurs ?

La méthodologie de l’Atomic Research entend bien répondre à ces problématiques.

Pour ce faire, elle s’appuie sur le recueil, la centralisation et la capitalisation des données issues de la recherche utilisateur qui sont organisés selon un processus et une structure prédéfinis.

L’objectif : faciliter le processus de recherche utilisateur, faire émerger les insights clés et justifier les choix décisionnels.

Cette approche innovante est ainsi particulièrement adaptée aux produits complexes car elle permet d’aborder les problématiques de l’UX Research de manière itérative et systématique, sur l’ensemble du cycle de vie du produit.

Quelles sont les différentes phases de l’Atomic Research ?

  • Expériences : les expériences correspondent aux données récoltées grâce aux méthode de recherche utilisateur comme les entretiens, questionnaires ou tests utilisateurs ;
  • Faits : les faits sont des informations neutres et objectives tirées des expériences. Par exemple, “80% des utilisateurs ne cliquent pas sur le bouton rouge” ;
  • Insights : les insights sont des suppositions ou interprétations basées sur les faits, qui permettent de comprendre les motivations et comportements des utilisateurs. Par exemple, “Les utilisateurs ne cliquent pas sur le bouton rouge car ils ne comprennent pas son objectif” ;
  • Recommandations : les recommandations sont des propositions d’amélioration ou de changement basées sur les insights. Par exemple, “Modifier la couleur du bouton et ajouter une étiquette explicative pour clarifier son objectif”.

Comment ces phases sont-elles reliées dans une recherche itératives ?

Dans l’Atomic Research, ces quatre phases sont interconnectées et se déroulent de manière cyclique. Les équipes de recherche effectuent des expériences pour collecter des données, dont ils tirent des faits, insights et recommandations. Et le cycle pour évaluer l’impact des changements effectués. Cette approche itérative permet d’ajuster et affiner progressivement les solutions proposées en fonction des retours des utilisateurs.

Y’a-t-il un outil en particulier pour faciliter l’Atomic Research ?

Pour faciliter ce travail, l’équipe de recherche peut s’appuyer sur Glean.ly, un outil spécialement conçu pour cette méthodologie. Il permet aux équipes de stocker, organiser et analyser les données récoltées, et ainsi de naviguer au sein d’un ensemble d’informations ordonnées et interconnectées. Il facilite également la collaboration entre les membres de l’équipe, les informations pouvant être facilement partagées aux parties prenantes.

Le but : encourager une approche transparente et partagée de la recherche utilisateur.

Comment cela fonctionne-t-il ?

Chaque étape de l’Atomic Research est représentée par une carte. Chaque carte est reliée à celle qui la justifie, ainsi qu’au fait qu’elle permet de déduire. L’outil permet ensuite de classer intelligemment les métadonnées en s’appuyant sur des filtres, tags et scores.

Pour une présentation détaillée de l’outil, retrouvez notre article ici : https://saegus.com/glean-ly/.

Comment illustrer le fonctionnement de l’Atomic Research avec un exemple ?

Prenons un exemple à grande échelle. Supposons qu’une équipe soit chargée de créer une segmentation optimale du parc informatique d’une entreprise comptant plus de 10 000 collaborateurs, dans le but de leur allouer les appareils dont ils ont besoin.

Dans cet exemple, le défi réside dans la taille de l’entreprise et donc a fortiori dans le gigantisme des données à traiter.

Pour ce faire, il serait pertinent d’utiliser l’Atomic Research en l’adaptant au contexte. En effet, il est possible dans ce cas de diviser le processus en deux : une phase qualitative et une phase quantitative.

Lors de l’étape qualitative, des faits/observations pourraient être récoltés afin d’obtenir des insights.

Puis, lors de l’étape quantitative, les insights obtenus permettraient d’émettre des hypothèses vérifiables à travers un questionnaire diffusé auprès d’un échantillon représentatif de la population.

Enfin, les découvertes à la suite du questionnaire donneraient lieu aux recommandations requises.

Comment mesurer son efficacité ? Quelles sont les conditions nécessaires à son application ?

L’Atomic Research présente donc de nombreux avantages, notamment pour les produits complexes nécessitant une approche structurée et itérative. Elle permet de mieux comprendre les besoins et attentes des utilisateurs tout en facilitant la collaboration et la transparence entre les parties prenantes.

Toutefois, il convient de souligner que l’Atomic Research nécessite une équipe multidisciplinaire, composée de chercheurs, designers, développeurs et chefs de projet qui doivent travailler ensemble de manière coordonnée. Cette exigence peut constituer un frein pour les organisations de petite taille ou les équipes disposant de budgets limités.

Voilà pourquoi avant de mettre en place la méthodologie, les entreprises ont tout intérêt à définir en amont un plan de formation et de développement des compétences pour les membres de l’équipe. Par ailleurs, il apparaît primordial d’assigner des rôles dans les processus, notamment de capitalisation afin de les fluidifier.

Enfin, l’Atomic Research doit être adapté et ajusté en fonction des objectifs et contraintes de chaque projet, en tenant compte des méthodes et outils complémentaires qui pourraient être utiles pour optimiser les résultats.

Vous souhaitez en savoir plus ? Contactez nos équipes Acceleration Tactics.

Créer un cadre de travail propice à l’innovation, réussir sa transformation digitale, délivrer des projets à temps en maximisant la valeur produite… autant de défis rendus possibles par la philosophie agile et la méthode Scrum qui en découle.

Au sein de notre département Acceleration Tactics, nos Scrum Master et leurs équipes accompagnent les entreprises dans l’accélération et la concrétisation de leurs projets.

Clé dans les organisations, le rôle de Scrum Master n’est pour autant pas toujours bien compris. Nous avons interrogé Emma, Scrum Master expérimentée au sein de Saegus. En tant que garante de l’agilité au sein d’une équipe, Emma s’assure que les principes Scrum sont suivis et facilite la communication et la collaboration entre les membres de l’équipe. Son rôle demande des compétences relationnelles, de l’organisation, de la créativité et une volonté d’amélioration continue. En faisant le lien entre les différentes parties prenantes, elle contribue à la réussite des projets et favorise un environnement de travail harmonieux et productif. 

Écoutons-la .

Peux-tu te présenter en quelques mots ?

Je suis Emma Rouillard et j’ai rejoint Saegus il y a un peu plus de trois ans.

Pendant un an, j’ai été la Scrum Master au sein de mon département, Acceleration Tactics, et la Scrum Master de Saegus. Je suis ensuite intervenue sur le même rôle auprès d’un acteur du secteur de l’énergie, aux côtés d’une équipe de développeurs et de plusieurs Product Owners.

Qu’est-ce qu’un Scrum Master ?

C’est la personne garante de la méthodologie Scrum dans une équipe. Concrètement, je veille à ce que l’approche agile soit respectée tout en mettant en place les instances nécessaires pour assurer le bon déroulement du processus (sprint planning, raffinement du backlog, sprint review, rétrospectives…). J’accompagne les membres d’une équipe à suivre la méthodologie, à être à l’aise avec les concepts qui s’y rattachent, à travailler dans les meilleures conditions possibles. Je propose également des améliorations continues.

Quel est ton rôle au quotidien ?

J’accompagne les développeurs dans le suivi de  leurs tâches (appelées « User Stories ») en m’assurant que chacun a les ressources nécessaires à sa disposition. Je prépare également les différentes réunions agiles comme le sprint planning, la sprint retrospective et la sprint review. Enfin, en tant qu’animatrice des dailys, réunion qui a lieu chaque jour, j’assure que la communication soit fluide et que les membres de l’équipe soient bien alignés sur les objectifs du sprint.

Quels outils utilises-tu ?

J’utilise principalement Jira, un outil de gestion de projet qui permet de suivre le backlog et les tâches, ainsi que Confluence pour la documentation des projets suivis. Ces outils sont essentiels pour la collaboration et la communication. J’y ajouterais également Teams, qui est primordial  pour maintenir un lien constant entre les membres de l’équipe.

Quelles sont les qualités d’un Scrum Master ?

L’aisance relationnelle est essentielle pour comprendre les besoins de chaque individu et favoriser un environnement de travail sain. La patience, la capacité à proposer des améliorations continues et l’organisation sont également des compétences clés pour garantir le bon déroulement des processus agiles. J’insisterais enfin sur l’importance de l’écoute active, la prise en compte de toutes les voix de l’équipe et la capacité à remettre en question le processus mis en place pour assurer une collaboration efficace.

Y a-t-il une différence entre la théorie et la pratique ?

La pratique correspond plutôt bien à la définition théorique, notamment quand on joue un rôle de coach. Il faut s’assurer que les membres de l’équipe comprennent et suivent les principes agiles. Dans ce rôle, la rigueur amenée par la théorie est, selon moi, un levier de réussite, même s’il ne faut pas ignorer les spécificités que peut avoir chaque entreprise et/ou équipe.

Quels conseils donnerais-tu à un Scrum Master qui débute dans ce rôle ?

Écouter attentivement et prendre le temps de bien comprendre les enjeux. J’encourage également à ne pas sous-estimer les membres de l’équipe plus réservés, qui peuvent apporter une contribution précieuse. La remise en question est également essentielle pour une amélioration continue, ainsi que la communication avec le Product Owner, cruciale pour garantir son implication et partager la vision du projet.

Que préfères-tu dans ce rôle de Scrum Master ?

D’une part, la dimension créative : ce rôle me permet de créer des formats de réunions originaux et trouver des solutions innovantes pour résoudre les problèmes que l’on rencontre. D’autre part, le rôle privilégié du Scrum Master permet d’être un lien entre les différents acteurs du projet, combinant les expertises métiers et techniques. J’apprécie particulièrement la diplomatie requise pour gérer les relations entre le management, l’équipe de développement et les Product Owners.

Comment se passe la collaboration avec les développeurs ?

Bien que je ne sois pas familière avec tous les aspects techniques du développement, je m’adapte et apprends progressivement auprès d’eux. J’ai la chance d’avoir une équipe de développeurs très investie, qui connaît très bien l’agile. Ils sont assez rigoureux et accueillent mes idées avec bienveillance et curiosité. Par expérience, les collaborations avec les équipes de développement sont propices à une bonne entente : l’agile favorise l’organisation du travail de l’équipe et la collaboration.

Quel est ton Ice-breaker préféré ?

Celui consistant à deviner l’identité des membres de l’équipe à partir de photos d’enfance ! Il demande une préparation en amont (que chaque membre envoie une photo d’eux à l’âge de 6 ans n’est pas une mince affaire), mais permet de facilement détendre l’atmosphère et d’apprendre à se connaitre.

Vous souhaitez vous aussi être accompagné par nos équipes Acceleration Tactics dans vos projets de transformation agile ? N’hésitez pas à contacter nos expert·e·s !

Rédigé par Emma Rouillard, Experte Agile, Acceleration Tactics

Durant la dernière décennie, de nombreuses entreprises ont adopté un modèle Data Driven basé sur l’exploitation massive de données pour orienter leurs décisions business ou opérationnelles.  

Cette démocratisation de l’utilisation des données est notamment due à l’émergence des technologies Cloud qui ont permis d’exécuter des traitements complexes sur de très grands jeux de données et de conserver un TCO maîtrisable. Toutefois, un inconvénient majeur s’est rapidement présenté : le manque de maîtrise (ou de confiance) sur la localisation des données. Ce dernier point tend aujourd’hui à disparaître, puisque la majorité des cloud providers intègrent à présent dans leur offre le choix du data center, et donc du pays d’hébergement (localisation UE/US…). 

Remarque : la maîtrise de l’information d’entreprise mise sur le cloud (et plus largement internet) est au centre de l’actualité sur la sécurisation des usages de ChatGPT. À titre d’exemple, Microsoft intègre dans l’offre Azure Open AI la possibilité d’étancher l’utilisation des données d’entreprise pour améliorer la pertinence de l’IA sur ses cas d’usage internes, tout en garantissant que ces données (potentiellement confidentielles ou personnelles) ne seront jamais exposées en dehors de l’entreprise.  

Dans un même temps, les États (particulièrement en Europe) ont largement renforcé la règlementation visant à protéger l’utilisation de données personnelles. Ils ont imposé un cadre de protection et exploitation de données de plus en plus strict, comme en témoignent les sanctions prévues en cas de non-respect de cette règlementation. 

Quelques chiffres présentés ci-après permettent de mieux appréhender la mise en application de ces contrôles. Par exemple, en Europe, les sanctions s’établissaient à 1,2 Mds€ en 2021 contre plus de 2,92 Mds€ en 2022 (dont 100 M€ en France). 

Au-delà des quelques amendes historiques (comme celle infligée à Amazon pour 746 M€ en 2022 ou 405 M€ infligée à Meta pour manquement à la protection de données personnelles des enfants sur Instagram), la forte hausse du nombre de condamnations est notable. 

Autre fait marquant, la démocratisation des services d’intelligence artificielle auprès du grand public, qui pousse les instances de régulation Européenne à suivre de près le sujet. Nous pouvons citer par exemple une amende de 7 M£ donnée par l’ICO britannique à la société de reconnaissance faciale ClearView AI. 

Pour prévenir ces risques et promouvoir une image éthique de leurs activités, nombre de sociétés s’organisent pour améliorer la sécurité et confidentialité de leurs données, à fortiori celles revêtant un caractère personnel. Les entreprises les plus matures disposent d’un Data Controller – personne en charge de la supervision et de la qualification des traitements informatiques. Ce rôle vient en complémentarité du DPO (data privacy officer), qui a une responsabilité vis-à-vis des instances de contrôle pour faire appliquer la règlementation par l’entreprise. 

En effet, les techniques de traitement de la confidentialité sont multiples et plus ou moins complexes. Il apparait donc nécessaire de bien étudier chaque cas d’usage en amont et d’appliquer une solution adaptée. 

Dans la suite de l’article, nous proposons d’explorer certaines de ces approches.  

Panorama des solutions existantes  

Les approches les plus fréquemment utilisées sont :  

  • La gestion des identités et des accès ;  
  • Le cryptage ;  
  • L’anonymisation.

La gestion des identités et des accès (IAM) permet de limiter l’accès à un groupe défini de personnes. Nous recommandons de suivre le principe de moindre privilège, c’est-à-dire le fait de limiter les permissions d’accès aux ressources au juste nécessaire pour effectuer une tâche. Si besoin, il convient d’utiliser un modèle d’accès aux rôles de base (RBAC) qui peut être affiné via des listes de contrôle d’accès (ACL). 

Remarque : les Cloud providers intègrent nativement des fonctions de sécurisation dans leur offre de service à l’instar de VMs protégées proposées par Google Cloud.  

 La pseudonymisation est une technique qui permet de « masquer » la lecture directe des données confidentielles. Les données sont remplacées par un code (« tokenisation ») selon différentes techniques (chiffrement déterministe, conservant le format, clé cryptographique…). Ces techniques de chiffrements sont réversibles. Elles permettent donc de revenir à la donnée initiale. En conséquence, ces traitements doivent être soumis à déclaration auprès de la CNIL et ne perdurer que le temps de la finalité déclarée.  

Les clés de cryptage peuvent être utilisées sur des données personnelles ou pour des raisons de sécurité sur des systèmes de fichiers pour en protéger l’accès (en cas de vol par exemple).  

L’anonymisation est un concept plus complexe et abstrait que les solutions précédemment évoquées. Selon une définition de la CNIL, l’anonymisation consiste à « utiliser un ensemble de techniques de manière à rendre impossible, en pratique, toute identification de la personne par quelque moyen que ce soit et de manière irréversible. » 

Par exemple, les données peuvent être masquées via des techniques de hachage cryptographique, puis encodées. Cette technique permet de créer un jeton à sens unique, qui ne permet pas de revenir à la donnée d’origine.   

Mais dans certains cas, ces techniques ne sont pas suffisantes. Par recoupement entre différentes informations (internes ou par croisement avec des données externe), il peut arriver que l’identité ou les données personnelles liées à la personne puissent être retrouvées. Plusieurs exemples de croisement sont à ce titre devenus des cas d’école, comme l’identification d’une personne anonymisée sur la base d’attributs particuliers (ville, date de naissance…). 

Il est par conséquent indispensable de prendre en considération l’ensemble des attributs ou données qui par recoupement permettraient de retrouver une information devant être protégée dans une démarche d’anonymisation. 

La confidentialité différentielle : quel usage ?   

La confidentialité différentielle (DP) est une technique dont l’objet est de protéger la confidentialité en injectant du « bruit » dans les données : en modifiant certaines valeurs, il doit rester un doute sur la véracité de l’information même si l’identification de la personne est retrouvée par recoupement. 

Cette technique a donc un impact sur la précision de la base de données (des données sont faussées), mais reste totalement exploitable sur des usages analytiques ou statistiques (ou d’IA). L’approche consiste à substituer des valeurs des variables en utilisant un algorithme (plus ou moins simple).   

Par exemple, sur une valeur pour laquelle la réponse est binaire (vrai ou faux) : imaginons que l’on lance une pièce pour déterminer si la valeur initiale est modifiée ou pas. Si la pièce tombe sur face, la réponse reste « vrai ». Si cela tombe sur pile, un deuxième lancé est effectué. S’il tombe sur face, la réponse reste « vrai », et s’il tombe sur pile, la valeur devient « faux ». 

Les « variant twins » 

Ce concept consiste à hybrider les différentes techniques pour obtenir une information totalement anonymisée et optimisée pour différents usages (d’où l’idée de variants). 

 Il est notamment porté par des plateformes dédiées à la sécurisation des données, comme Anonos (white paper variant twins).

Les solutions sur étagère

Dans le domaine du marketing, nous voyons par exemple l’émergence de plateformes dédiées au partage de données publicitaires respectant les contraintes réglementaires.   

À ce titre, Google lance Ads Data Hub en 2017, suivi par les solutions de Facebook et d’Amazon. Aujourd’hui, ils sont tous les trois connus comme des « data clean rooms » : soit un environnement isolé et sécurisé au sein duquel les éditeurs et annonceurs peuvent combiner, faire correspondre et analyser des ensembles de données anonymisés, tout en collaborant. 

Pour aller plus loin  

Le respect de la confidentialité des données est un défi majeur pour tous les intervenants dans un écosystème data. Il nécessite la mobilisation de tous les acteurs comme les cloud ops, cloud architects, statisticiens, data analysts et data scientists et bien sur les « data controllers », dont la présence devrait se démultiplier rapidement dans les entreprises.  

Il est important de comprendre que, bien que les solutions à mettre en œuvre soient très techniques, la bonne tactique dépend avant tout de la portée fonctionnelle de l’information et des cas d’utilisation souhaités.  

Nos experts sont à votre disposition pour établir les diagnostics sur la sensibilité de vos données et vous guider vers les bonnes stratégies d’implémentation.  

  

Rédigé par Alexander MIKHEEV, Lead Tech Engineer au sein de notre département Data Driven

Avec l’essor du numérique et le changement de comportement des consommateurs dû à la pandémie mondiale, notre client, grand acteur du secteur de la cosmétique, a dû s’adapter rapidement dans cet environnement en pleine mutation. L’enjeu : construire une Supply Chain de nouvelle génération intégrant nativement les contraintes environnementales (émission carbone, recyclage, gestion des déchets…), assurant plus de transparence sur la chaîne complète (de l’achat des matières premières à la distribution) et permettant une personnalisation plus forte des produits et services.

L’objectif de notre mission était de mettre en place une série d’indicateurs de performance permettant de donner une vision 360° sur les activités de Supply pour toutes les divisions, toutes les zones et tous les pays du monde. Cette maîtrise de l’information est essentielle afin que la direction puisse prendre les bonnes décisions, identifier les axes d’amélioration et détecter les éventuels signaux faibles.

Activités réalisées

#1 Définition et classification des indicateurs clés destinés au COMEX et au CODIR en collaboration avec la Direction Générale des Opérations et le Directeur de la Supply Chain :

  • 5 domaines analysés : clients, stocks, coûts, crédit et durabilité ;
  • 25 indicateurs identifiés dans les tops KPI stratégiques.

#2 Réalisation d’une série de workshops avec les Data Owners afin de définir les normes, définitions fonctionnelles et règles de calcul et d’identifier les sources de données adéquates :

  • 5 directeurs métiers identifiés en Data Owners ;
  • Rôles et responsabilités écrits et partagés aux 20 collaborateurs de l’équipe centrale.

#3 Intégration des cas d’usage Supply Chain dans l’un des programmes d’accélération du groupe afin de bénéficier du sponsorship nécessaire à la bonne réalisation du projet :

  • Comité du programme de la transformation digitale ;
  • Comité du programme Supply Chain ;
  • KPI program sprint review ;
  • KPI result monthly review.

Réalisation technique

  • Mise en place d’un espace de collaboration dédié au projet permettant une interaction naturelle entre les équipes techniques et les porteurs Business ;
  • Connexion directe aux sources d’information, modélisation des données (à la granularité pays) et automatisation du data processing ;
  • Mise en place d’un point d’accès unique à l’information via des tableaux de bord et des rapports dynamiques accessibles dans PowerBI et PowerBI Webapp.

Réussites

  • 25 KPI standardisés et mis en place en 7 mois ;
  • 60 rapports mis en production et automatisés dans PowerBI ;
  • Une adoption réussie en associant les 20 Data Owners à la diffusion des bonnes pratiques dans tous les pays.

Après la mission

Au-delà de la production d’indicateurs clés, cette mission à permis de casser des silos organisationnels et de permettre une collaboration “data driven” plus simple et fluide entre les porteurs business.
Une migration technologique à venir vers la plateforme Google Cloud permettra d’accéder à un niveau d’information plus détaillé et d’améliorer les performances.

Vous souhaitez en savoir plus ?

Avez-vous déjà essayé de comprendre du code source complexe et vous êtes retrouvé perdu dans un dédale de variables et de fonctions qui semblent écrites dans une langue inconnue ? Si tel est le cas, vous savez à quel point un code illisible peut être frustrant. Heureusement, il existe une solution : le clean code, une pratique de code qui peut aider les développeurs à écrire un code clair, simple et facile à comprendre. Dans cet article, nous allons vous expliquer ce qu’est le clean code, pourquoi il est important et comment vous pouvez l’appliquer à votre propre développement de logiciel. Que vous soyez un développeur chevronné ou simplement curieux de savoir comment fonctionne le code, cet article est pour vous ! 

Mais c’est quoi, le clean code ? 

Le clean code est une pratique de développement logiciel qui vise à produire du code lisible et maintenable. Il s’agit d’une approche axée sur la qualité qui encourage les développeurs à adopter des conventions de codage cohérentes et à se concentrer sur la clarté, la simplicité et la robustesse du code. 

En quoi est-ce important ? 

Le clean code permet de produire un logiciel de qualité supérieure. En écrivant du code clair, les développeurs peuvent simplifier leur travail et accélérer le processus de développement. De plus, le code propre est plus facile à tester, à déboguer et à améliorer au fil du temps, ce qui permet de garantir une meilleure qualité et une plus grande évolutivité du logiciel. En fin de compte, le clean code favorise une meilleure collaboration entre les développeurs et garantit la pérennité d’un projet. 

Les fondements du code propre : les cinq piliers du succès 

La philosophie du clean code peut-être résumée aux piliers suivants :  

1 – La lisibilité

Le code doit être facile à lire et à comprendre pour les autres développeurs. Pour améliorer la lisibilité, vous pouvez utiliser des noms de variables clairs et compréhensibles, éviter les abréviations et les acronymes obscurs, ajouter des commentaires si nécessaire et organiser votre code avec des espaces et une indentation claire. 

var x=10;y=20;if(x>y){console.log("x est plus grand que y");} 

Dans cet exemple, le code est mal formaté, difficile à lire et à comprendre. Les variables sont mal nommées et les blocs de code ne sont pas suffisamment bien formés pour apparaître au premier coup d’œil. 

const ageUtilisateur = 10; 
const ageMinimum = 18; 
 
if (ageUtilisateur < ageMinimum) { 
  console.log("Vous devez avoir au moins 18 ans pour accéder à ce contenu"); 
} 

Ici en revanche, le code est aisément lisible, avec des variables bien nommées et des blocs de code définis. Il est ainsi plus facile à comprendre pour les autres développeurs et à maintenir à l’avenir. 

2 – La simplicité

Chaque bloc de code doit être simple et élégant, sans fioritures inutiles. Pour simplifier votre code, vous pouvez utiliser des structures de contrôle de flux simples, éviter les structures de données complexes et les algorithmes compliqués et supprimer les variables inutiles. 

var x = 10; 
var y = 20; 
var result = 0; 
for (var i = 0; i < x; i++) { 
  result += y; 
} 
console.log(result); 

Dans cet exemple de mauvaise pratique, le code est plus complexe qu’il ne devrait l’être. Les variables sont mal nommées, les structures de contrôle de flux et les boucles sont utilisées inutilement pour effectuer une simple opération mathématique. 

const nombreRepetitions = 10; 
const nombreAjouts = 20; 
 
const resultat = nombreRepetitions * nombreAjouts; 
console.log(resultat); 

Dans cet exemple de bonne pratique, le code est simplifié en utilisant des variables clairement nommées et en évitant les boucles et les structures de contrôle de flux. Le code est plus facile à comprendre et à maintenir. De plus, le calcul est effectué en une seule ligne de code, ce qui le rend plus efficace. 

3 – La modularité

Le code doit être organisé en modules clairement définis, ayant des responsabilités précises. Pour rendre votre code plus modulaire, vous pouvez diviser votre code en petites fonctions réutilisables, utiliser des variables globales avec parcimonie et éviter les effets de bord (lorsqu’une fonction modifie une variable qui n’est pas passée en paramètre). 

var utilisateurs = []; 
 
function ajouterUtilisateur(nom, age) { 
  utilisateurs.push({nom: nom, age: age}); 
} 
 
function trouverUtilisateur(nom) { 
  for (var i = 0; i < utilisateurs.length; i++) { 
    if (utilisateurs[i].nom === nom) { 
      return utilisateurs[i]; 
    } 
  } 
} 
 
function supprimerUtilisateur(nom) { 
  for (var i = 0; i < utilisateurs.length; i++) { 
    if (utilisateurs[i].nom === nom) { 
      utilisateurs.splice(i, 1) ; 
      break;
    } 
  } 
} 

Dans cet exemple, toutes les fonctions manipulent une variable globale utilisateurs, ce qui rend le code difficile à comprendre et à modifier. 

class GestionUtilisateurs { 
  constructor() { 
    this.utilisateurs = []; 
  } 
 
  ajouterUtilisateur(nom, age) { 
    this.utilisateurs.push({nom: nom, age: age}); 
  } 
 
  trouverUtilisateur(nom) { 
    for (var i = 0; i < this.utilisateurs.length; i++) { 
      if (this.utilisateurs[i].nom === nom) { 
        return this.utilisateurs[i]; 
      } 
    } 
  } 
 
  supprimerUtilisateur(nom) { 
    for (var i = 0; i < this.utilisateurs.length; i++) { 
      if (this.utilisateurs[i].nom === nom) { 
        this.utilisateurs.splice(i, 1); 
        break; 
      } 
    } 
  } 
} 
 
const gestionUtilisateurs = new GestionUtilisateurs(); 
gestionUtilisateurs.ajouterUtilisateur("Jean", 30); 
const utilisateur = gestionUtilisateurs.trouverUtilisateur("Jean"); 
gestionUtilisateurs.supprimerUtilisateur("Jean"); 

Ici, nous avons défini une classe GestionUtilisateurs qui encapsule toutes les fonctions de gestion des utilisateurs. Les fonctions sont des méthodes de la classe, ce qui rend leur relation avec la classe plus explicite. Nous avons également utilisé le mot-clé this pour faire référence aux propriétés et méthodes de l’objet instancié à partir de la classe. L’utilisation d’une classe offre une abstraction plus élevée du code et facilite la réutilisation du code. La classe peut être facilement instanciée plusieurs fois, ce qui permet de gérer plusieurs listes d’utilisateurs indépendantes. 

4 – L‘évolutivité

Le code doit être conçu pour être facilement modifiable et extensible au fil du temps. Pour rendre votre code plus évolutif, vous pouvez prévoir des extensions futures, utiliser des structures de données et des algorithmes flexibles et isoler les parties du code qui sont susceptibles de changer. 

function calculerPrixTotal(articles) { 
  let total = 0; 
  for (let i = 0; i < articles.length; i++) { 
    total += articles[i].prix; 
  } 
  return total; 
} 

Dans cet exemple, la fonction calculerPrixTotal prend un tableau d’objets d’articles et calcule le prix total en additionnant le prix de chaque article. Bien que cette fonction fonctionne correctement pour le moment, elle n’est pas évolutive car elle ne prend pas en compte les futurs changements de spécifications. Par exemple, si vous souhaitez ajouter une remise ou un code promotionnel à la commande, vous devrez modifier cette fonction existante, ce qui peut entraîner des erreurs ou des bogues. 

class Commande { 
  constructor() { 
    this.articles = []; 
    this.remise = 0; 
  } 
  
  ajouterArticle(article) { 
    this.articles.push(article); 
  } 
  
  calculerPrixTotal() { 
    let total = 0; 
    for (let i = 0; i < this.articles.length; i++) { 
      total += this.articles[i].prix; 
    } 
  
    return total - this.remise; 
  } 
  
  appliquerRemise(codePromo) { 
    // logique de vérification du code promo 
    // si code valide, assigner la remise appropriée 
    this.remise = calculerRemise(codePromo, this.articles); 
  } 
} 
 
function calculerRemise(codePromo, articles) { 
 // logique de calcul de remise 
  return remise; 
} 

Ici, nous utilisons plutôt une classe Commande pour encapsuler la logique de commande, ce qui rend le code plus évolutif. La classe contient des méthodes pour ajouter des articles à la commande, calculer le prix total de la commande et appliquer une remise. La logique de calcul de remise a été extraite dans une fonction séparée, ce qui rend la classe Commande plus cohérente et facile à comprendre. Si nous voulons ajouter une nouvelle fonctionnalité à la commande, comme l’application d’une taxe de vente, nous pouvons simplement ajouter une nouvelle méthode à la classe Commande sans avoir à modifier la logique existante. Cela rend le code plus évolutif et plus facile à maintenir à long terme. 

5 – La robustesse

Le code doit être résistant aux erreurs et aux pannes et capable de gérer les situations imprévues de manière élégante. Pour cela, il est important de prévoir les cas d’erreurs et de les gérer de manière adéquate, de valider les entrées de l’utilisateur et de gérer les exceptions de manière appropriée. Un code robuste est capable de faire face à des situations imprévues sans plantage et de fournir des informations d’erreur claires et précises pour aider les utilisateurs à comprendre les problèmes rencontrés. 

function division(a, b) { 
  return a / b; 
} 

Dans cet exemple, si la variable b est égale à zéro, une erreur de division par zéro se produira. Cette erreur peut causer des plantages imprévus et des comportements indésirables du programme. 

function division(a, b) { 
  if (b === 0) { 
    throw new Error('Division par zéro impossible'); 
  } 
  return a / b; 
} 

Dans cet exemple, nous avons ajouté une vérification pour éviter la division par zéro. Si la valeur de b est égale à zéro, nous levons une exception avec un message clair pour informer l’utilisateur du problème. Ainsi, le programme ne plante pas et l’utilisateur est informé du problème. 

Le Clean Code, c’est donc penser à long terme

La qualité du code est une préoccupation constante pour tout développeur soucieux de produire des logiciels de qualité. Le clean code fournit des principes et pratiques qui permettent d’écrire du code clair, simple, lisible et facilement évolutif. En respectant ces principes, les développeurs peuvent créer des programmes durables, efficaces et évolutifs et ainsi contribuer à l’amélioration globale de la qualité du code dans leur entreprise ou leur communauté de développement.

En somme, le clean code est un moyen de travailler plus intelligemment et de créer des logiciels de qualité supérieure pour répondre aux besoins des utilisateurs finaux. L’adoption de ses pratiques est essentielle pour tout développeur qui souhaite améliorer sa productivité, son efficacité et son impact dans le domaine de la programmation.

Vous souhaitez en savoir plus ? Contactez notre équipe de développeurs à la Factory !

Rédigé par Daniel Azevedo, Manager et Lead Developer à la Factory 

Saegus est convaincu que la meilleure façon de former et d’accompagner les équipes est de les immerger dans la pratique et les expériences concrètes. C’est pourquoi nous avons imaginé un événement unique et axé sur la pratique pour accélérer l’adoption de Miro auprès de nos consultant·es.

L’ambition de la Miro Week ? Proposer une expérience gamifiée, ludique et engageante pour permettre aux consultants :

  • D’adopter et explorer l’outil de manière accélérée, peu importe leur profil et niveau de maturité ;
  • De recevoir un accompagnement personnalisé selon les besoins de chaque expertise.

Cet événement trouve sa place dans la lignée d’un partenariat entre Saegus et Miro visant à créer des synergies au service des équipes, à explorer les nouveaux usages et à co-construire les nouvelles pratiques de collaboration. Auprès de nos clients, nous sommes ainsi capables de mieux répondre aux enjeux de collaboration et d’être plus innovants dans les formats de collaborations visuelles. Pour en savoir plus sur ce partenariat, c’est par ici.

La Miro Week : how to

Organisé en quatre temps, l’évènement était animé par des temps d’échange entre les consultant·es et les équipes de Miro portant sur les cas d’usages, les fonctionnalités et les astuces d’utilisation de la plateforme. Le plus ? Chacun·e a pu partager ses expériences et conseils découverts au fil de ses missions avec les membres de l’équipe.

Nos équipes ont également rythmée la semaine par des challenges et tips destinés aux saegusien·nes.

Faire ou refaire découvrir Miro de manière ludique et apprenante : telle était l’ambition de l’évènement. C’était important pour nous de démarrer ce nouveau partenariat par un évènement marquant chez Saegus et l’objectif est réussi ! Nous souhaitions créer plus de lien entre nos équipes et celles de Miro et aller plus loin dans la découverte d’usages collaboratifs. C’était aussi un très bon moyen d’identifier les différents besoins d’accompagnement sur l’outil. Je recommande à toute entreprise qui souhaite faire adopter Miro en interne de démarrer par une Miro Week 

Chloé Berthier, Consultante Acceleration Tactics chez Saegus

Au programme de cette semaine, proposée en présentiel et à distance pour permettre au plus grand nombre d’y participer :

  • Jour 1 : session de lancement avec une présentation du partenariat et de Miro et lancement des challenges ;
  • Jour 2 : retours d’expériences par des expert·es Saegus ;
  • Jour 3 : retours d’expériences par des expert·es Saegus & clôture des challenges ;
  • Jour 4 : clôture de la Miro Week, annonce des gagnants des challenges et remise des cadeaux.

Quelques exemples d’activités proposées :

  • 1 session de lancement et 1 session de clôture
  • 1 présentation de Miro par l’équipe Miro France
  • 2 challenges gamifiés permettant aux participants d’explorer l’outil et de gagner des lots
  • 4 d’expériences de la part d’experts de chaque département ayant utilisé Miro en mission
  • 2 tips partagés chaque jour partagés sur tous les canaux (Teams, écrans phygitaux,..)
  • Plus de 20 lots à remporter

Les sessions keynote

En ouverture de l’événement, nous avons eu le plaisir d’accueillir les équipes de Miro France, qui ont présenté aux saegusien·nes la plateforme et la roadmap des nouvelles fonctionnalités en avant-première.

Des retours d’expérience par expertises

Les saegusien·nes ont pleinement pris part à cet événement en proposant leurs retours d’expérience sur des usages de l’outil, comme :

  • Animer et faciliter un hackathon d’innovation de deux jours sur Miro à l’appui d’une expérience gamifiée ;
  • Cadrer un atelier sur Miro pour engager la transformation digitale des outils de collaboration et communication en utilisant des fonctionnalités comme le brainstorming ou la priorisation ;
  • Cadrer, itérer et valider une gouvernance de la donnée via une suite d’ateliers sur Miro ;
  • S’appuyer sur Miro pour passer de l’idée à un prototype testable en utilisant des outils comme le mindmapping, le prototypage ou le story mapping.

J’ai été convié pour intervenir à la Miro Week sur un retour d’expérience d’une mission. Le sujet ? Préparer, faciliter et restituer un Hackhaton d’innovation sur Miro et de manière gamifiée. Notre intervention à la Miro Week a été une opportunité exceptionnelle de partager nos réalisations, notre retour d’expérience ainsi que les supports de travail Miro que nous avons réalisés et dont nous sommes fiers. Pour les saegusiens, c’était une bonne occasion de découvrir les fonctionnalités avancées de l’outil et de s’en inspirer pour leurs propres projets.

Huanxu Liu, Consultant Acceleration Tactics chez Saegus

Des challenges gamifiés

Pour challenger nos consultant·es – qui ont le sens du défi -, nous leur avons proposé deux challenges : un quizz et la “meilleure vitrine Miro”, regroupant les plus beaux tableaux et visuels créés par nos équipes. Voici quelques exemples de leurs plus belles réalisations :

Cette semaine a permis aux équipes d’aller plus loin dans l’usage de Miro. Les différents cas d’usages partagés lors de la semaine ont aidé à comprendre les nombreuses possibilités offertes par la plateforme. Les saegusien·nes ont également eu l’opportunité d’échanger avec les équipes de Miro sur les meilleures pratiques pour utiliser l’outil de manière efficace.

Nous sommes ravis de travailler avec Saegus et de jouer un rôle qui permet au Saegusiens de continuer à innover non seulement dans leurs projets quotidiens mais aussi chez leurs clients. La collaboration avec Saegus a apporté de nombreux avantages à notre entreprise, tels que l’amélioration de notre offre de produits et services, le développement de notre marché et une augmentation de la marque Miro auprès de notre public cible en France. Leur équipe est extrêmement compétente et dévouée, travaillant en étroite collaboration avec nous pour répondre à nos besoins et objectifs spécifiques. Leur engagement envers l’excellence et la satisfaction de leurs clients est exemplaire, et nous sommes fiers de faire partie de leur réseau de partenaires.

Florence Le, Strategic Marketing France chez Miro

La suite des aventures entre Saegus et Miro ?

Nous ne nous arrêtons pas là ! Pour continuer cette belle aventure, nos équipes ont créé un plan de suivi et d’événements pour maintenir l’engouement généré par la Miro Week.

En interne, l’objectif est de continuer à partager des assets Miro aux saegusien·nes pour qu’ils·elles puissent d’explorer de nouveaux usages en continu, sous la forme de fiches conseils et tips, ou de partages sur la roadmap d’évolution de la plateforme par exemple. Un parcours de formation complémentaire a été proposé à tou·tes à la suite de cet événement.

La suite : animer des meet-up sur les usages et fonctionnalités de Miro, des évènements internes… et bien plus encore !

Cet évènement vous intéresse ?

À propos de Saegus

Saegus s’est donné pour mission de faire découvrir, essayer et adopter le meilleur des usages du digital, et créer des approches uniques et innovantes centrées sur les utilisateurs pour résoudre les problématiques complexes de ses clients.  

Pour un savoir plus : https://saegus.com/fr/

À propos de Miro

Miro est une solution de tableau blanc collaboratif proposant une multitude de fonctionnalités et répondant à de multiples besoins d’équipes : réunions, ateliers, brainstorming, workflows agiles, UX design, mind mapping…

Pour en savoir plus : https://miro.com/app/dashboard/

Alors que les entreprises tentent de s’organiser pour répondre aux nouvelles exigences règlementaires en matière de reporting environnemental, la donnée est au cœur de cet enjeu. Savoir l’utiliser est crucial pour mesurer finement son empreinte environnementale, construire et appliquer une stratégie de diminution de cette empreinte, puis vérifier l’efficacité des initiatives mises en œuvre.

Martin Alteirac, responsable de l’offre Data for Sustainability de Saegus, et Édouard Neuville, Head of Academics d’Albert School, nous proposent leur vision de ce qui s’annonce comme un métier d’avenir : Emission Data Analyst.

Comment définir simplement le métier d’Emission Data Analyst ?

Édouard Neuville : l’Emission Data Analyst, c’est celui ou celle qui est capable de mesurer l’impact environnemental d’une fonction de l’entreprise et d’identifier des leviers d’actions pour réduire cette empreinte. Grâce à la puissance de la data, il·elle le fait plus précisément et rapidement. L’Emission Data Analyst est le principal enabler de la croissance durable de l’entreprise.

L’Emission Data Analyst est-il un Data Analyst comme les autres ?

Martin Alteirac : non ! Là où la mission d’un·e Data Analyst polyvalent·e consiste en général à implémenter des règles définies par les métiers pour construire des indicateurs dont la définition varie en fonction des entreprises, secteurs ou fonctions, l’Emission Data Analyst tient compte d’un cadre règlementaire plus contraint.

Toutes les entreprises vont devoir ces prochaines années avoir la capacité de mesurer de plus en plus précisément leur impact environnemental. Pour ce faire, elles vont devoir choisir d’utiliser un protocole ou standard de mesure auquel l’Emission Data Analyst devra se référer.

Quels sont les postes d’émission à mesurer ? Comment les mesurer ? Quelles données de référence utiliser ? Savoir répondre à ces questions permettra à l’Emission Data Analyst de participer à l’évaluation de l’impact environnemental d’une entreprise tout en garantissant la conformité des calculs et analyses effectués avec la règlementation en vigueur et les standards applicables.

De quelles compétences spécifiques va-t-il falloir doter ces Emission Data Analysts pour qu’ils·elles puissent opérer ?

Édouard Neuville : l’Emission Data Analyst est l’incarnation du métier hybride à un triple égard :

  • Data : être à l’aise avec la manipulation de données (ex : savoir coder), de la constitution d’un modèle unifié de données jusqu’aux Data Sciences exploratoires et modélisation avancées de machine learning ;
  • Business : saisir les enjeux business de l’entreprise et identifier en particulier les leviers opérationnels à activer pour réduire les émissions sans dévaloriser le P&L (Profit&Loss) ni nuire au modèle opérationnel ;
  • Durabilité : maîtriser le cadre règlementaire, comprendre les facteurs d’émission et les frameworks de mesure d’empreinte.

C’est aujourd’hui un métier très data, mais amené à évoluer davantage vers un métier IA.

Quelles seront les missions de ces Emission Data Analysts en entreprise ?

Édouard Neuville : les missions de l’Emission Data Analyst varieront essentiellement en fonction de la taille de l’entreprise, et de sa maturité sur les sujets environnementaux. Elles ont toutes pour dénominateurs communs :

  • La mesure : imaginer et mettre en œuvre les modèles de calcul d’émission à l’échelle de l’entreprise, de la collecte de la donnée jusqu’au reporting de KPIs ;
  • La réduction : contribuer à l’élaboration d’une stratégie de durabilité, en particulier en matière de décarbonation, en mettant en œuvre des modélisations d’impact grâce à la data et à l’IA.

Martin Alteirac : tout à fait ! Pour donner quelques exemples concrets, voici les missions les plus fréquentes chez nos clients :

  • À propos de la mesure : le bilan carbone tel qu’il est généralement réalisé aujourd’hui est une photographie de l’empreinte environnementale à un instant T – pas encore un outil de travail du quotidien permettant à l’ensemble des acteurs de l’entreprise de prendre en compte les critères de durabilité dans leur quotidien. Digitaliser et automatiser ce reporting en déployant des solutions spécialisées dans l’analyse des données environnementales est une attente répandue chez nos clients.
  • À propos de la réduction : la modélisation d’impact est un domaine dans lequel nous sommes régulièrement sollicités, particulièrement dans le secteur énergétique. Une fois une stratégie d’efficacité énergétique mise en place, mesurer son impact en distinguant dans les évolutions de consommation ce qui relève des actions mises en œuvre de ce qui relève de causes extérieures (aléas climatiques, évolutions opérationnelles…) fait appel à un savoir-faire algorithmique très particulier.

Vous souhaitez vous former au métier d’Emission Data Analyst ? Saegus recrute des Emission Data Analysts en alternance, en partenariat avec le master Data for Sustainability d’Albert School.

Pour découvrir notre offre d’alternance : https://bit.ly/3lYMpfZ