Ici archive

L’accélération de la collaboration au sein des équipes est plus que jamais au cœur des nouveaux modes de travail. Les solutions de collaboration, communication et coordination étaient déjà des leviers indispensables pour maximiser le travail en équipe. Avec l’adoption croissante du télétravail, elles prennent aujourd’hui une nouvelle dimension.

Le décalage entre temps de travail et résultats obtenus s’accentue. Selon L’Anatomie du travail, étude menée en 2021 auprès de 13 000 employé·e·s, 26% des échéances sont manquées en moyenne, alors même que le temps de travail des salarié·e·s a considérablement augmenté. Planifier, coordonner et communiquer prend un temps considérable aux équipes fonctionnant grâce à une multitude d’outils qui leurs sont propres. Le manque de clarté, communication et coordination au sein des équipes fait le jeu de projets chronophages et coûteux.

Développer des méthodes et outils fluidifiant et accélérant les activités est donc indispensable. C’est ce que Saegus et Asana proposent de soutenir, chacun dans leurs domaines respectifs.

Ce partenariat, c’est avant tout une alliance entre l’expertise d’un acteur du conseil (sans slide !) et un éditeur d’un outil de gestion de projet visant à maximiser la communication, collaboration et coordination des équipes. C’est surtout l’ambition d’explorer des usages en plein développement pour répondre aux besoins des utilisateurs et leur offrir une expérience collaborative réussie et créatrice de valeur.  

Cette collaboration permettra aux utilisateur·rice·s de se concentrer sur leurs activités à fortes valeurs ajoutées grâce aux solutions de communication, collaboration et coordination proposées par Asana, et aux expertises d’innovation, animation et adoption de Saegus. Asana offre de nombreuses fonctionnalités : la création d’espaces partagés, automatisation des tâches, intégration de multiples applications comme Klaxoon, Teams, Adobe et bien d’autres…

L’utilisation d’accélérateurs comme Asana permet aux équipes Saegus d’accompagner leurs clients dans la gestion de leurs projets de manière innovante et personnalisée. Pour Asana, ce partenariat est aussi une belle opportunité d’aller plus loin dans la compréhension des usages et besoins de leurs utilisateur·rice·s.

Notre experte en agilité Roxane Meyer, Manager Acceleration Tactics, témoigne :

“Pour Saegus, la capacité des organisations à concrétiser leurs projets, la création de nouveaux services, de nouvelles offres ou de nouveaux produits est clé.

Notre mission : accompagner nos clients dans la mise en place et l’adoption de cadres de travail pérennes, agiles. Pourquoi ? Afin de les aider dans cette concrétisation tout en assurant une collaboration et un alignement des parties prenantes autour d’objectifs communs.

Depuis bientôt 7 ans, j’accompagne nos clients et suis convaincue qu’une transformation agile doit être soutenue par les outils adéquats. Force est de constater qu’Asana permet de répondre aux enjeux et spécificités de tous les métiers.

Et le plus ? Asana s’intègre à l’écosystème digital des organisations et facilite l’adoption de ces nouvelles pratiques au quotidien chez nos clients et Saegus.”

Pour Tanguy Duthion, Responsable des partenariats pour l’Europe du Sud chez Asana :  

“Nous sommes très heureux de démarrer cette collaboration avec Saegus en tant qu’Asana Solution Partner. Nous avons pu le constater sur ces dernières années, le monde du travail est en perpétuelle évolution et demande de plus en plus d’agilité, innovation et clarté pour une collaboration interne des entreprises toujours plus performante. En ce sens, l’expertise Agile du cabinet de conseil Saegus sera un atout indéniable pour accompagner les entreprises utilisatrices d’Asana ou futurs utilisateurs d’Asana dans leur conduite du changement.”

Vous souhaitez essayer l’outil ou être accompagné·e·s par nos équipes Acceleration Tactics ?

Le Data Engineering est un maillon clé des projets Data : on peut observer aujourd’hui dans la tech que le métier de Data Engineer a supplanté le très prisé métier de Data Scientist.

Il est établi que la donnée est l’or noir du 21e siècle, mais avant de le raffiner il faut l’extraire, le transporter et l’acheminer jusqu’à son usine de traitement. C’est là qu’intervient le Data Engineer : sans les étapes essentielles de Data Engineering, les projets ne peuvent se concrétiser.

En 2017, Maxime Beauchemin, l’un des premiers Data Engineer chez Facebook et Airbnb, publiait un article, The rise of the Data Engineer, sur l’émergence de ce nouveau métier. Il mettait en lumière ce travail de l’ombre indispensable à la bonne réalisation des initiatives data.

Une transformation progressive s’appuyant sur les services cloud et Modern Data Platforms

Aujourd’hui, l’émergence et la maturité des services cloud a profondément transformé le paysage IT et contribué à la disparition du traditionnel DBA (administrateur de base de données). Avec des services full SaaS, élastiques et gérés directement par les cloud providers (Snowflake, Google Big Query, Azure Synapse, Databricks…), le paramétrage, le tuning et les développements sont aujourd’hui gérés par les Data Engineers.

Cette profonde mutation a été rendue possible par la montée en puissance des services cloud. L’apparition de nouvelles solutions totalement ou partiellement automatisées a facilité la mise en œuvre des chaines de traitements et agilisé la production de données. Le besoin d’accessibilité et de fraicheur de l’information étant devenus des éléments essentiels, la modernisation des infrastructures IT est devenue une priorité pour répondre aux besoins métiers. Le déploiement de nouvelles plateformes de données, les Modern Data Stack, est le sujet stratégique IT du moment.

Modern Data Stack

Ces Modern Data Platform sont caractérisées par 3 principales briques :

  • Une plateforme cloud, datawarehouse/datalake pour bénéficier des performances, de la flexibilité et des capacités de stockage étendu ;
  • Une solution de traitement et transformation des données pour mettre à disposition des datasets qualifiés ;
  • Une solution analytics orientée self-service pour donner une plus grande autonomie aux utilisateurs métiers.

Auxquelles se rajoutent une couche transverse de gouvernance de l’information essentielle pour gérer le patrimoine informationnel.

L’un des points de transformation majeure de ces architectures modernes est la possibilité de traiter les données quelle que soit leur origine – aussi bien on-premise que dans le cloud – et de gérer des flux de données au sein d’architectures hybrides.

Grâce au renforcement des services managés et la migration des bases de données et datawarehouse dans le cloud, la problématique de stockage n’est plus un sujet. Les capacités de calcul sont potentiellement devenues illimitées. Il n‘est donc plus nécessaire de retraiter la donnée en amont.

La majorité des processus de traitement de données est passée du mode ETL (Extract-Transform-Load) au mode ELT. D’une part, ce changement permet de s’affranchir des problématiques business avant la phase d’extraction et chargement en base ; d’autre part, de ne pas limiter les cas d’usages qui pourraient voir le jour. Les données brutes étant à disposition, il est alors possible de les exploiter, de les combiner à des données tierces et de les croiser pour en tirer un maximum de valeur business.

Vers l’émergence de l’Analytics Engineer

Ce besoin de vitesse et d’adaptation rapide aux besoins métiers met en lumière ce travail de l’ombre faisant du profil de Data Engineer l’un des plus prisés actuellement. Il a la capacité de gérer les flux de données, jusqu’à la production d’insights exploitables par les utilisateurs métiers avec un rôle étendu d’Analytics Engineer.

À ce titre, l’Analytics Engineer est une évolution naturelle du Data Engineer, due à la multiplicité des rôles et responsabilités prises par ces derniers, drivée par le développement des Data Platform, services managés et besoins de vitesse demandés par le business. Les Data Engineers ne peuvent plus se cantonner au développement de pipelines de données et la préparation des datasets pour les équipes analytiques.

Désormais intégrés au sein de Data Factories, ils œuvrent dans des squads multidisciplinaires responsables des données qu’ils traitent et produisent. Ces squads sont souvent organisés par domaines métiers – à l’inverse d’une équipe centrale en charge de l’ensemble des données de l’entreprise. Lorsque les données sont partagées entre les entités de l’entreprise et exposées à une plus grande échelle, il est nécessaire d’avoir une bonne connaissance des données manipulées. Cela nécessite une rigueur et méthodologie propres à la fourniture d’APIs, mais aussi d’accompagnement au changement et de structuration des organisations pour mieux répondre aux besoins de fourniture de services data.

En conclusion

Traiter la donnée comme un produit (data as product) est donc devenu une cible de plus en plus recherchée. Cette transformation data-driven devient un enjeu stratégique de nos clients. Comment accompagner le passage à l’échelle et l’industrialisation des processus de Data Engineering et servir les besoins d’informations pour l’ensemble de l’entreprise ? Comment déployer et opérer une Data Factory pour servir les besoins business ? Ces questions auxquelles nous sommes régulièrement confrontés sont cruciales ; nous aurons l’occasion de vous en reparler prochainement à travers nos retours d’expériences.

Vous souhaitez en savoir plus ?

Rédigé par Julien Ayral, Directeur département Data Driven

Presque 6 ans après l’entrée en vigueur de l’accord de Paris sur le climat à la fin de l’année 2016, il reste beaucoup à faire pour que les engagements pris se traduisent en actions concrètes pour limiter le réchauffement climatique et atteindre le “Net Zero” (la neutralité Carbone) en 2050.

Les pays engagés sur cet accord ont décliné leurs engagements en plan d’investissements et réglementations pour mettre la société en mouvement. En Europe, et plus particulièrement en France, cela se traduit par exemple par le décret tertiaire imposant aux entreprises de faire des économies d’énergie dans certains types de bâtiments.

La collecte et valorisation des données est un levier majeur pour identifier, mettre en œuvre et piloter les projets visant à accompagner ces initiatives.

Martin Alteirac, Senior Manager au sein de l’équipe Data Driven chez Saegus, nous éclaire sur la façon dont les données peuvent être mise au service de la transition énergétique.

Comment la data peut-elle contribuer à faciliter et accélérer la transition énergétique ?

William Edwards Deming, célèbre statisticien à l’origine des principes fondateurs de l’amélioration continue, avait pour coutume de dire : “ce qui ne se mesure pas ne s’améliore pas”. Il me semble que cette phrase résume tout. La data a d’abord été un levier utilisé par les scientifiques pour produire les rapports et études ayant provoqué une prise de conscience sociétale et politique. Grâce à ces travaux, le climato-scepticisme a reculé, donnant vie à des initiatives comme celles prises à la suite de l’accord de Paris.

Je suis également persuadé que des initiatives comme Our World in Data contribuent à propager la prise de conscience sur l’urgence écologique. En facilitant l’accès à l’information claire et intelligemment représentée, c’est un véritable levier de mise en mouvement de la société.

Des techniques de visualisation de données avancées ont été utilisées par des organismes comme la NASA pour faciliter l’accès et la compréhension des données rendant compte du réchauffement climatique.

Néanmoins, l’apport de la data dans le domaine de la transition énergétique ne se limite pas à la caractérisation du réchauffement climatique. De nombreuses initiatives y participent en s’appuyant sur l’utilisation et la valorisation des données grâce à des technologies comme l’intelligence artificielle.

Peux-tu nous citer des exemples concrets d’utilisation de la data et/ou de l’intelligence artificielle pour lutter contre le réchauffement climatique ?

Les exemples sont nombreux, que nous pouvons classer en deux catégories.

D’abord, les cas d’usages à “impact direct”, par exemple dans la gestion énergétique. Les grands opérateurs de réseau de transport d’électricité conçoivent les réseaux de demain qui passeront d’un mode distributif (quelques lieux de production, de nombreux lieux de consommation) à collaboratif (l’électricité est produite par de multiples producteurs répartis sur le réseau – installations éoliennes, panneaux photovoltaïques privés – qui sont aussi consommateurs). Il faudra donc être capable de prévoir la production et consommation des points du réseau pour prendre les décisions adaptées pour assurer la répartition de l’énergie. Le pilotage de ces réseaux intelligents ou smart grids sera fait par des algorithmes d’intelligence artificielle intégrant le processus de prise de décision des données externes, comme la météo par exemple.

Ces cas d’usages à impact direct seront cruciaux. Ils devront être complétés par une myriade de cas d’usages à impact indirect qui représenteront des leviers importants.

Celui qui me parait incontournable, car emblématique, est l’optimisation de la Supply Chain. Le transport des biens de consommation, ou des composants nécessaires à leur production, est une source de pollution majeure. Les initiatives innovantes pour réduire les émissions liées à ces activités sont en plein boom : par exemple, la réintroduction de la voile pour propulser les navires de transport de marchandises par des opérateurs maritimes innovants comme Néoline. Pour définir et mettre en œuvre des plans de réduction des émissions polluantes liées à ces activités, la récolte et valorisation des données des entreprises est un impératif.

C’est un chantier d’envergure, les réseaux de production et distribution des biens de consommation s’étant complexifiés et mondialisés. Acquérir une vision fiable des opérations réalisées et émissions liées à ces opérations est donc un challenge. Une fois ce challenge relevé, les techniques de valorisation de données permettront d’optimiser cette logistique.

Quelques exemples :

  • L’optimisation des circuits et tournées de livraison, évitant la consommation inutile de carburants en maximisant le taux de chargement des moyens de transports ou optimisant les distances parcourues ;
  • La fiabilisation de la prévision de la demande, pour produire et stocker le juste niveau de produits nécessaires et éviter les gaspillages ;
  • La gestion et optimisation du trafic sur les réseaux de transports routiers, ferroviaires ou maritimes, conduisant à une meilleure fluidité et efficience globale. À ce titre, la réintroduction de la voile comme moyen de propulsion des navires de transport maritime présentée ci-dessus nécessitera l’inclusion de nouveaux paramètres (direction et force du vent) dans les algorithmes pour proposer de meilleures trajectoires aux navires.

Que peut apporter un cabinet de conseil comme Saegus aux entreprises souhaitant se saisir de leurs données pour contribuer à leur stratégie de décarbonation ?

Projets transversaux par essence, les projets de décarbonation doivent impliquer toutes les strates et fonctions de l’entreprise.

Nous pouvons contribuer de plusieurs manières à leur réussite chez nos clients :

  • La première expertise que notre cabinet met au service de ses clients est sa capacité à cadrer rapidement, en lien avec les fonctions de l’entreprise, des projets complexes nécessitant d’interagir avec les collaborateurs de terrain et décideurs stratégiques. Ces travaux seront nécessaires pour identifier les domaines ou fonctions sur lesquels l’entreprise doit se focaliser, ainsi que son périmètre de responsabilité ;
  • Nous accompagnons nos clients dans la récupération des données leur permettant d’acquérir une vision fiabilisée de leurs émissions. Cette étape est complexe : certaines données internes ne sont pas toujours collectées ou accessibles, d’autres externes nécessitent des modifications de relation contractuelle ou la construction de partenariats avec des sociétés tierces pour être récupérées. La construction d’une data platform regroupant ces données représente à elle seule un projet à part entière ;
  • Nous les assistons également dans la gestion et gouvernance de ces données pour que cet actif stratégique soit exploité à sa juste valeur et que les processus garantissant leur fiabilité et qualité soient robustes. Cette gouvernance inclut la mise en place de process d’échanges des données de ces entreprises avec des tiers, pour étendre l’impact des actions menées aux processus en interactions avec ses fournisseurs ou clients ;
  • Nous les aidons enfin à valoriser ces données : par exemple, en construisant des cockpits digitaux de monitoring de consommation énergétique identifiant les points de progrès sur lesquels se focaliser, mesurant l’impact des actions menées ou aidant à concevoir, déployer et maintenir les algorithmes d’intelligence artificielle réalisant les optimisations précédemment décrites (supervision de la qualité industrielle, maintenance prédictive ou optimisations logistiques). Notre capacité à concevoir des solutions sur mesure et adaptées aux spécificités de nos clients est un atout majeur.

De manière globale, nous avons la capacité de solliciter des expertises complémentaires à celles de la data pour nous adapter aux phases du projet. Par exemple, en sollicitant nos départements Acceleration Tactics sur les phases de cadrage ou Employee Experience sur la mise en place d’outils digitaux à destination des frontline workers.

Vous êtes intéressé de découvrir comment la data peut servir votre ambition en matière de décarbonation ? Restez connectés pour une table ronde sur ce sujet !

Rédigé par Martin Alteirac, Responsable Intelligence artificielle, Département Data Driven

Le cerveau mémorise plus facilement un contenu lorsqu’il est illustré par un visuel et accompagné par du son : nous retenons 10% de ce que nous lisons, 20% de ce que nous entendons et 60% de ce que nous lisons et entendons simultanément.

Un format alliant ces deux éléments sera donc plus impactant. C’est là qu’intervient le motion design : l’art de mettre en mouvement des éléments (schémas, images, typographies, illustrations) synchronisés sur une musique, voire une voix-off. L’objectif : simplifier et illustrer une notion complexe pour faciliter la réception d’un message clé à une audience cible.

Il peut être diffusé sur tout support pouvant accueillir un format vidéo : réseaux sociaux, YouTube, télévision, cinéma, écran publicitaire… Il est donc particulièrement adapté pour :

  • Faire de la pédagogie : vulgariser un propos auprès du grand public ;
  • Une présentation produit : en montrant ses atouts et cas d’usage par exemple ;
  • Animer un live event : en s’appuyant sur une identité visuelle définie, les animations encadrent les différentes séquences (animer le logo, créer un carton pour les questions ou le nom de l’intervenant·e) d’une émission télévisée ou un webinaire par exemple ;
  • Brander une marque ou œuvre : on pense par exemple aux génériques de films, celui créé dans les années 1960 pour la série de films James Bond étant considéré comme le premier motion du cinéma.

Les entreprises utilisant la vidéo comme contenu marketing obtiennent un taux de clics et de conversion web étant respectivement 27% et 34% plus importants que celles qui ne l’utilisent pas (source : Vidyard). L’explication est simple : une présentation produit en motion design, plutôt qu’une image packshot, met l’accent sur l’émotion à l’appui du storytelling. Parce qu’il·elle pourra mieux se projeter dans l’utilisation du produit, le·la consommateur·rice sera plus enclin·e à passer à la phase d’achat.

Le format vidéo est aujourd’hui l’allié du référencement naturel (SEO) : par exemple, une vidéo publiée sur YouTube intégrée dans un site web générera plus de vues, les deux algorithmes travaillant ensemble pour créer de l’engagement.

Les étapes de création d’une vidéo en motion design

  • Le contexte : quel est le message clé de la vidéo ? Quelle est sa cible ? Où sera-t-elle diffusée ? Quelle est la direction artistique de la marque ? Quelle ambiance recherche-t-elle ? Une maison de luxe recherchera par exemple des transitions douces, alors qu’une marque d’art discount préférera des effets plus rapides ;
  • Le script : c’est ici que commence le storytelling. Uniquement écrit, le script définit le fil conducteur de la vidéo et les mots clés à introduire. Il est essentiel de verrouiller ici le « ton of voice » et les tournures de phrase avec les parties prenantes ;
  • Le storyboard : ou la mise en image. C’est à cette étape que le propos est illustré (animation, personnage…) en accord avec la charte graphique de la marque. Notre astuce : pour aider un client à se projeter, créez votre storyboard en haute fidélité sur Illustrator – la hiérarchisation des informations, les couleurs et les animations seront proches du rendu final ;
  • La musique de fond : le choix de musique intervient à cette étape car le tempo des animations est désormais défini ;
  • (Optionnel) La voix-off : pour trouver celle qui sera le mieux adaptée à une vidéo, enregistrez-en plusieurs aux timbres différents et testez-les ;
  • L’animation : soit la symbiose entre ce qui a été composé jusqu’ici (illustrations, musique, voix-off) ;
  • Le sous-titrage : cette étape assure l’accessibilité de la vidéo.
Exemple de storyboard

Les 5 principes du motion design

Voici quelques conseils non-exhaustifs que nous appliquons dans la création de nos vidéos :

  • Une vitesse de lecture confortable : le danger étant d’être trop rapide. À force de travailler sur une vidéo, nous finissons par en connaître le contenu par cœur. Ce n’est pas le cas du·de la spectateur·rice qui regarde la vidéo pour la première fois et essaie d’absorber le maximum d’informations. Tip : faites tester votre vidéo à différentes personnes ;
  • Choisir une typologie d’animations : à conserver tout au long de la vidéo pour créer de la linéarité et cohérence. Créez des points de repères avec des effets de répétition – par exemple, une typologie pour des questions. Choisissez des animations en accord avec la hiérarchisation des informations et évitez celles étant trop originales (par exemple, un titre apparaissant en tourbillon à l’écran) – sauf si c’est l’effet recherché ! ;
  • Pensez à l’accessibilité : en évitant les animations rapides et brusques pour les personnes épileptiques, les aplats de couleurs similaires pour les personnes daltoniennes… ;
  • Synchronisez : vos animations avec le tempo de la musique ;
  • Ne craignez pas le vide ! Favorisez un ensemble épuré et séquencez les mises en page.

Les logiciels couramment utilisés

Il existe de nombreux logiciels couramment utilisés pour les différentes étapes du motion design (Potoon, Animate…). Nous nous concentrerons sur Illustrator et After Effect, qui sont ceux que nous utilisons le plus chez Saegus.

Illustrator est particulièrement utile pour l’étape de création du storyboard. Il permet de travailler sur des formations vectorielles. Un bémol : les graphismes manquent parfois de texture, donnant un rendu un peu froid.

After Effect est un logiciel aux possibilités infinies pour la création d’animations sur-mesure. Le logiciel est régulièrement mis à jour et de nouvelles fonctionnalités sont proposées chaque année. La seule limite : votre créativité !

Un·e bon·ne motion designer saura…

  • Faire une veille pour connaître les bonnes pratiques, tendances, idées d’animations… ;
  • Comprendre et s’adapter au tone of voice d’une marque ;
  • Donner un mouvement fluide et naturel aux animations.

Les projets de motion design chez Saegus

Chez Saegus, nous travaillons principalement sur des projets d’animation de marques ou produits. En voici quelques exemples :

Hololens 2 : à travers un cas d’usage, cette vidéo montre le pain point que résout cette technologie et comment l’utiliser concrètement sur le terrain.

Accompagner l’adoption des outils de collaboration comme Office 365 : ce type de vidéo met en avant les nouveaux usages et les fonctionnalités des outils correspondants. Il est ici nécessaire de bien comprendre les besoins de chaque client et créer une vidéo qui leur est spécifique, selon leur niveau de maturité digitale.

Animer la marque Saegus : en illustrant notre positionnement, nos offres, nos événements…

Vous souhaitez être accompagnés par nos designers à la Factory ou en savoir plus ?

Rédigé par Julie Ramier, Designer à la Factory

Avec la croissance exponentielle du volume des données produites et l’adoption du travail hybride, les entreprises sont concernées par les préoccupations liées à la sécurité et gestion des données personnelles.

Des lois tels que le Règlement général sur la protection des données de l’Union Européenne (RGPD) et le California Consumer Privacy Act (CCPA) impactent tout utilisateur de notre monde interconnecté.

Dans cette période post-Covid parsemée d’attaques pirates et scandales d’espionnage, Microsoft confirme son engagement en matière de sécurité – une ligne que l’éditeur suit depuis plusieurs années. Le portfolio des applications Microsoft s’enrichit donc avec Priva : une solution clé en main aidant les organisations à appliquer les principes de la protection des données.

Priva permet de :

  • Identifier les risques de confidentialité ;
  • Automatiser les opérations de confidentialité ;
  • Responsabiliser les employés et renforcer leurs moyens d’action ;
  • Gérer les droits d’objet à grande échelle.

Les fonctionnalités de Microsoft Priva sont accessibles via deux modules :

La solution Gestion des risques liés à la confidentialité montre comment protéger les données personnelles au sein d’une organisation et créer un espace de travail respectueux de la confidentialité des données. Elle permet notamment de :

  • Identifier et protéger contre les risques de confidentialité tels que la thésaurisation des données, les transferts et le surpartage des données ;
  • Obtenir une visibilité sur le stockage et déplacement des données personnelles ;
  • Permettre aux profils IT de prendre des décisions intelligentes concernant la gestion de ces données ;
  • Permettre aux utilisateurs de gérer efficacement les données et prendre des mesures pour se conformer à l’évolution des réglementations en matière de confidentialité.

Le module Demandes de droits d’objet (appelés aussi demandes d’objet de données (DSR), demandes d’accès de la personne aux données (DSAR) ou demandes de droits du consommateur) cadre et automatise la gestion des demandes de droits d’objet, à travers : la création de la demande, la recherche des données personnelles et le démarrage du processus de traitement de la demande, l’ensemble étant guidé par un assistant.

Pour commencer

L’essai Priva est le moyen le plus simple de tester les fonctionnalités des deux solutions. L’accès à la version d’évaluation de Priva dure 90 jours. Les premiers insights sur la confidentialité sont générés en 24h. Pour visualiser ces informations, accédez à la section Priva du portail de conformité Microsoft Purview et affichez les pages “Vue d’ensemble” et “Profil des données”.

Les organisations disposant de licences E3 et E5 dans Microsoft 365 et de licences E1, E3 et E5 dans Office 365 sont éligibles pour démarrer l’essai Priva.

L’essai donne accès aux fonctionnalités de gestion des risques en illimité et jusqu’à 50 demandes de droits d’auteur. Si vous avez déjà acheté un abonnement à l’un des modules, vous pouvez commencer un essai du second.

Et après ?

Priva est disponible sur le portail de conformité Microsoft Purview et peut être acheté par les organisations disposant de licences Microsoft 365 E3, E5, A3, A5, Office 365 E1, E3, E5, A1, A3, A5.

Les licences de chaque module sont proposées indépendamment.

  • La licence Gestion des risques liés à la confidentialité est une licence mensuelle à hauteur de 4,20 € HT utilisateur/mois ;
  • La licence Demande de droits d’objet est au volume, soit le nombre de demandes, pour 169,20 € HT /demande – au choix par tranche de une, 10 ou 100 demandes.

Pour en savoir plus

Build a privacy-resilient workplace with Microsoft Priva – Microsoft Security Blog

Microsoft Privacy – Microsoft Privacy | Microsoft Docs

Microsoft Customer Story-Novartis to dispense cutting-edge security with Microsoft Priva

Rédigé par Daniela Dalbokova, Consultante Employee Experience

Le concept de limite planétaire, théorisé au début des années 2000, définit l’espace dans lequel la vie humaine peut se développer de manière sûre et juste. À l’inverse du concept de jour de dépassement, qui est une comparaison entre le niveau de ressources naturelles produites par la terre en un an et le niveau de ressources consommées par les activités humaines, le concept de limite planétaire illustre l’impact des activités humaines sur 9 composantes essentielles à la vie sur Terre.

Sur les 9 limites planétaires définies, 6 sont déjà franchies…

Ces limites planétaires sont aujourd’hui au nombre de neuf :

  • Le changement climatique
  • L’érosion de la biodiversité
  • La perturbation des cycles biogéochimiques de l’azote et du phosphore
  • Les changements d’utilisation des sols
  • L’acidification des océans
  • L’utilisation mondiale de l’eau
  • L’appauvrissement de l’ozone stratosphérique
  • L’augmentation des aérosols dans l’atmosphère
  • L’introduction d’entités nouvelles dans la biosphère

Sur ces neuf limites, six sont franchies, dont deux l’ont été sur l’année 2022 – la limite concernant l’acidification des océans en janvier 2022 et celle concernant l’utilisation mondiale de l’eau en avril 2022. Vous trouverez plus d’informations sur le concept de limite planétaire sur le site du ministère de l’Environnement.

Le digital, menace ou atout pour la sauvegarde des limites planétaires ?

Bien que consommateur de ressources, le digital doit être un atout pour favoriser l’évolution de la société vers un modèle plus responsable et respectueux de l’environnement. Tout d’abord en limitant sur son impact en intensifiant les efforts pour que le stockage, le traitement et la circulation de l’information se fasse avec des infrastructures plus efficientes. Mais aussi en développant les technologies qui permettront de lutter concrètement contre les dégradations de l’environnement, illustrées par les limites planétaires :

  • Limiter le besoin en déplacements de courte, moyenne et longue distance grâce aux outils collaboratifs en ligne ;
  • Permettre l’étude précise des phénomènes physiques causant la dégradation des écosystèmes naturels grâce au big data ;
  • Rendre accessibles à chacun et chacune des pistes concrètes de réduction de son impact sur l’environnement, grâce à la valorisation intelligente des données de consommation d’énergie électrique ou fossile ;
  • Optimiser l’efficience des systèmes de production et de transport des biens de consommation grâce à l’intelligence artificielle.

Ces leviers doivent permettre de mieux caractériser, comprendre et lutter contre les sources de pollution à l’origine des phénomènes mesurés par les limites planétaires et parvenir au “Net Zero 2050”, l’objectif de la neutralité carbone introduit lors des négociations ayant mené à la mise en place de l’Accord de Paris, réaffirmé par les récents rapports du GIEC comme la priorité numéro une.

Vous souhaitez étudier les leviers digitaux que vous pouvez mettre au service de votre ambition en matière de changement climatique ?

Rédigé par Martin Alteirac, Responsable Intelligence artificielle

Aujourd’hui, les projets se multiplient et les méthodes de gestion de projets se diversifient. De ce fait, le pilotage des portefeuilles projets, la mise en place de processus unifiés et l’accompagnement transverse des équipes est un challenge majeur pour les entreprises.

Chez Saegus, notre département Acceleration Tactics accompagne les organisations pour piloter et concrétiser leurs projets en faisant appel à des méthodes basées sur les meilleures pratiques de l’agilité et l’entrepreneuriat. La solution Braineet Workflow de Braineet, un outil user-friendly facilitant la gestion de portefeuilles projets, fait appel à ces approches : intéressons-nous à ses fonctionnalités.

Braineet, start-up française fondée en 2014, propose deux outils complémentaires dédiés au management de l’innovation. Braineet Crowdsourcing donne la parole aux écosystèmes internes et externes des entreprises pour faire émerger de nouveaux partenaires, idées et initiatives. Braineet Workflow répond quant à lui aux besoins de pilotage et structuration des portefeuilles projets pour concrétiser les initiatives collectives. Ces outils sont utilisés dans de nombreux grands groupes comme LVMH, Sodexo, Accor, La Poste, La Caisse des Depots ou le Groupe Vyv.

Un outil conçu pour la gestion de portefeuille projet d’innovation

Conçu pour faciliter le pilotage et la concrétisation des projets, l’outil Braineet Workflow est particulièrement adapté aux cas d’usage associés aux enjeux de gestion des portefeuilles projets. Par exemple :

  • Le pilotage d’un portefeuille de quelques dizaines de projets d’innovation ;
  • L’implémentation de nouvelles méthodes de gestion de projets centrées utilisateurs et inspirées de l’entrepreneuriat ;
  • La standardisation des processus de gestion de projets au sein d’une entité ;
  • La facilitation de la collaboration d’équipes projets multi-entités ;
  • La mise en place d’un programme d’innovation collaborative inter-entreprises.

Nous avons co-développé Braineet Workflow avec des centaines d’entreprises dans le monde afin de les aider à maximiser la valeur de leur portefeuille de projets, guider les équipes à chaque étape du processus et centraliser toute la connaissance.

Jonathan Livescault, CEO & Co-fondateur de Braineet

Les fonctionnalités clés de l’outil

Pour répondre à ces cas d’usage, Braineet Workflow propose un ensemble de fonctionnalités s’adressant tant au gestionnaire du portefeuille projets qu’aux équipes projets.

Mettre en place et piloter un portefeuille de projets

La fonctionnalité au cœur de Braineet Workflow est le Dashboard regroupant un portefeuille ou une arborescence de portefeuilles de projets. Entièrement personnalisable, il permet de suivre en un coup d’œil le développement et avancement des projets et d’analyser et visualiser rapidement les indicateurs les plus pertinents. Les informations sont exportables en fiches de synthèse structurées autour des KPIs que vous aurez sélectionnés. Ce Dashboard est un excellent moyen d’avoir une vision rapide et synthétique de l’évolution d’un portefeuille projets.

Automatiser le reporting

Braineet Workflow permet d’éviter des copier/coller chronophages et récurrents entre des données brutes (souvent sur Excel) et un format de présentation plus visuel (généralement Powerpoint) : il automatise le reporting visuel sous format 1-pager pour chaque projet et sous format Data Visualization pour chaque portefeuille grâce à l’intégration d’outils de BI comme Microsoft BI.

Définir des processus de gestion de projet

Braineet Workflow unifie et aligne les étapes de gestion de projets et leurs livrables grâce à un “générateur de processus”. Ce générateur permet de définir les étapes, objectifs, livrables et gates par lesquels un projet doit passer.

Entièrement personnalisable, cette fonctionnalité donne la possibilité de partager des outils, matrices de décision et guides aux parties prenantes des projets.

Accompagner les équipes projets grâce à des outils et guides opérationnels

Braineet Workflow propose plus de 30 outils utiles pour guider les équipes dans la concrétisation de leurs travaux. Cette boite à outils comprend des frameworks bien connus, approches traditionnelles et d’autres orientées innovation comme le SWOT, le Product/Market Fit Canva, la User Journey Map… Il est aussi possible d’intégrer vos propres outils et d’en créer de nouveaux. Cette fonctionnalité permet d’initier et partager une boite à outils au sein d’une même plateforme.

Faciliter la collaboration des équipes projets

L’espace projet est administré et structuré par le gestionnaire du portefeuille projets. Il est complété par les équipes projets.

Chaque équipe dispose d’un espace dédié, lui permettant d’avoir une vision claire de la feuille de route et l’état d’avancement du projet et de partager les documents de travail et livrables associés à chaque étape. Vous pouvez également convier des parties prenantes extérieures (consultants, startups, consortium) sur chaque projet : une interface commune pour s’aligner, répartir le travail et suivre l’avancement du projet.

Notre avis

La gestion des portefeuilles projets repose encore souvent sur des tableaux Excel pour les données et présentations Powerpoints pour le reporting. Malheureusement, cette approche ne répond pas à la complexité des dispositifs collaboratifs, fait perdre du temps en tâches manuelles et crée des incohérences et données périmées dues à la multiplicité des fichiers.

Braineet Workflow est une belle découverte : il répond aux besoins de pilotage, coordination et animation de l’innovation. La prise en main de l’outil est aisée et son design est conforme aux standards actuels, facilitant son adoption.

Pour profiter pleinement de l’outil, il est nécessaire d’avoir un premier portefeuille d’initiatives à piloter. De plus, bien que l’outil soit entièrement personnalisable, les contenus proposés par défaut sont surtout adaptés au management de l’innovation.

Ainsi, l’utilisation de Braineet Workflow dans d’autres contextes nécessite un travail d’ajustement préalable, mais qui est réalisable. Le cas d’usage du Groupe Vyv sur des projets qui ne sont pas considérés comme innovants en est la preuve.

Braineet Workflow a suscité l’intérêt de nos consultants expert·e·s Acceleration Tactics. Nous vous le recommandons pour piloter vos portefeuilles projets, mesurer leur impact et mettre en place des méthodes de gestion de projets inspirées de l’entrepreneuriat et des approches centrées utilisateurs comme l’agilité, le Lean Startup et le Design Thinking pour maximiser la création de valeur.

Vous souhaitez en savoir plus sur Braineet Workflow et pour piloter vos processus d’innovation ?

Rédigé par Jean-Baptiste Briand, Consultant Acceleration Tactics

En décembre 2021 avait lieu NeurIPS, l’une des conférences majeures dans le domaine de l’intelligence artificielle et du Machine Learning. Cette édition a mis en lumière une nouvelle tendance : le focus sur les données utilisées pour l’apprentissage, plutôt que sur les modèles d’intelligence artificielle permettant de valoriser ces données, est de plus en plus important – c’est la Data-centric AI. Découvrons ensemble ses tenants et aboutissants.

Une tendance qui émerge

La progression des performances des modèles d’intelligence artificielle au cours des dernières années est fascinante. Les nouveaux modèles comme BERT, DALL-E ou GPT-3 montrent des progrès significatifs, notamment grâce à leur capacité à être entrainés sur des vastes volumes de données. Néanmoins, cet entrainement massif a un coût que peu d’entreprises peuvent soutenir. La plupart des cas d’usages réalisés en entreprise ont recours aux méthodes de Transfer Learning. Ces méthodes se basent sur des modèles pré-entrainés pour réduire le temps d’apprentissage, et donc son coût. Ce Transfer Learning permet de profiter d’un haut niveau de performance, rendu possible par l’apprentissage massif, tout en étant peu coûteux à entraîner et utiliser sur des données réelles.

L’expérience prouve néanmoins qu’il est souvent plus simple d’augmenter la performance des modèles les plus répandus en améliorant la qualité des données utilisées lors de l’apprentissage – plutôt que par l’optimisation du modèle lui-même. Andrew NG en donne un très bon exemple dans sa dernière interview pour IEEE Spectrum : “dans de nombreux secteurs où les grands ensembles de données n’existent tout simplement pas, je pense que l’accent doit être déplacé du Big Data vers le Good Data. Avoir 50 exemples bien pensés peut suffire à expliquer au réseau de neurones ce que vous voulez qu’il apprenne.

Cela implique de construire des jeux de données spécifiques pour qu’ils soient consommés par des modèles de Machine Learning. Si dans le monde scientifique les jeux de données sont souvent bien explorés et leurs limitations et spécificités bien connues, c’est une activité qui reste à développer pour la plupart des acteurs de l’industrie.

Comment améliorer la qualité des données présentes dans l’industrie ?

La première étape consiste à s’assurer que le phénomène ciblé est bien présent dans les données. Par exemple, si l’objectif est de détecter les anomalies, il faut vérifier qu’il y a suffisamment d’observations présentes dans l’échantillon. Si l’on travaille sur un problème de classification par exemple, il est intéressant de calculer la classe sous-échantillonnée. Une fois que l’on sait qu’il est théoriquement possible d’avoir un modèle opérationnel, on peut passer à l’étape d’évaluation de la qualité du Dataset.

Avant de vouloir améliorer la qualité des données, il est nécessaire de la mesurer. Plusieurs critères communs sont traduisibles en métriques numériques : on peut par exemple compter le pourcentage de lignes dupliquées ou le pourcentage de lignes aux valeurs nulles. Il faut également penser aux paramètres business : par exemple, sur une base de données manufacturing, une date de commande doit toujours antérieure à une date de livraison. À partir de ces critères, il est possible de mesurer la précision, intégrité, fiabilité et cohérence des données. La difficulté est qu’assurer la qualité des données est une activité qui doit s’exercer lors de toutes les phases d’un projet : dès la phase de cadrage et ce, jusqu’à la phase de monitoring et d’exécution.

La redondance est un levier clé pour mesurer la qualité des données : elle permet de détecter les problèmes potentiels et d’assurer la cohérence des indicateurs mesurés par différents moyens. Il est ensuite possible d’agir sur la qualité des données et d’avoir un feedback sur la pertinence des actions réalisées. La standardisation et l’automatisation sont deux outils bien connus pour contribuer à la qualité de données.

Cet effort de construire un bon Dataset a plusieurs avantages, notamment sur les coûts indirects. Par ailleurs, les Data Analysts et Data Scientists passent moins de temps à nettoyer le Dataset et à adapter les analyses et modèles à cause de l’imperfection des données, favorisant ainsi un gain de temps. Un Dataset propre augmente la confiance des utilisateurs au sein d’une démarche Data-driven, facilitant à terme son adoption. Si l’on pousse plus loin cette approche, on pourrait imaginer un label “AI-ready” comme le fait Kaggle avec son indice d’utilisabilité.

Il est possible d’introduire de nouveaux rôles contribuant à l’amélioration de la qualité de données, comme ceux de Data Steward ou Data Quality Manager. Ces activités peuvent s’intégrer dans le cadre plus large de la Data Governance ; on parle alors de Master Data Management. Pour en savoir plus, retrouvez notre article sur le sujet : https://saegus.com/deployer-la-gouvernance-de-la-donnee-en-agile/.

En conclusion

La Data-centric AI se propage rapidement dans le monde de la Data Science. La qualité des données devient un impératif car elle reflète l’organisation d’une entreprise autour des sujets data, ainsi que sa capacité à adresser de nouveaux cas d’usage. Il est important d’adopter les best practices et surtout de les intégrer à la structure existante.

Notre cabinet a confirmé sa capacité à accompagner ses clients leaders de l’industrie pour réussir leurs projets Data et ce, à travers des réalisations concrètes. Vous souhaitez être accompagnés à votre tour par nos équipes Data ?

Rédigé par Alexander Mikheev, Manager Data

Depuis sa création, le département Acceleration Tactics chez Saegus accompagne les organisations (équipes, projets, programmes) dans leur transformation agile.

Nous avons interrogé Roxane Meyer, Manager au sein du département Acceleration Tactics, sur le rôle du·de la Product Owner, les challenges qu’elle a rencontrés et l’impact de son coaching agile auprès de Product Owners.

Peux-tu te présenter ?

J’ai rejoint Saegus il y a 6 ans et suis aujourd’hui Manager au sein du département Acceleration Tactics, responsable de l’expertise agile et je porte l’offre Agile Teams and Organizations.

Dans le cadre de mes missions, j’accompagne des clients dans leur transformation agile. De ce fait, j’ai pu notamment endosser les rôles de Scrum Master et de Product Owner. J’ai mis à disposition des organisations le bon cadre de travail et les bons outils à utiliser avec des leviers de formation et de coaching, tout en ayant une approche centrée utilisateur grâce aux expertises portées par le département, comme le Design Thinking par exemple.

En quelques mots, quel est le rôle du·de la Product Owner ?

Le·la Product Owner (ou PO) est la personne responsable de la vision et l’objectif d’un produit. Ce produit peut revêtir plusieurs formes comme un service, une application software ou plus généralement tout bien qui mis sur le marché par une entreprise afin de répondre à un besoin utilisateur. Dans le cadre de ses fonctions, un·e Product Owner a la responsabilité de porter cette vision et de gérer la vie de son produit – à savoir sa réalisation, son évolution et la maximisation de la valeur que ce produit apporte aux utilisateurs cibles.

Nous entendons de plus en plus souvent les acronymes PO et PM. Quelle est la différence entre ces rôles ?

Le·la Product Owner (PO) et le·la Product Manager (PM) peuvent intervenir sur le même produit mais possèdent des responsabilités et périmètres d’actions différents :

  • Le·la PM, dans le cadre de la gestion d’un produit d’envergure ou d’un ensemble de produits, est en charge de la stratégie produit orientée vers le marché ainsi que de la stratégie de positionnement de ce(s) produit(s) au sein de l’entreprise ;
  • Le·la PO est amené·e à gérer la partie opérationnelle et la vision produit en se concentrant sur un périmètre défini.

Par exemple, si l’on considère un produit complexe : le Product Manager est responsable de la stratégie et collabore avec un ensemble de Product Owners pour la décliner de façon opérationnelle (réalisation et gestion des activités qui leur incombent, gestion du product backlog, collaboration avec les développeur·se·s, tests utilisateurs, récupération des feedbacks).

La présence d’un·e Product Manager n’est pas sytématique. Le·la Product Owner est alors responsable de l’ensemble des éléments.

Pourquoi les Frameworks agiles et du même fait le rôle de PO prennent de plus en plus de place dans les entreprises ?

Les approches agiles ont fait leurs preuves au sein des organisations les utilisant : on peut noter une nette réduction du Time-to-Market, une meilleure synchronisation entre les différentes équipes intervenant dans la réalisation du produit et une meilleure réponse des produits aux besoins des utilisateurs finaux.

Ces approches se démocratisant – elles ne sont plus réservées aux projets et entreprises IT -, le rôle de Product Owner a suivi la tendance.

L’agile permet donc aux entreprises d’être plus réactives face au marché tout en anticipant de potentielles variations et ce, dans de multiples domaines. Ces approches peuvent par exemple tant être appliquées à des projets de recherche qu’à des projets relatifs aux ressources humaines.

Concrètement, quel est ton rôle au quotidien chez ton client ?

Dans le cadre de mon accompagnement, j’ai formé des Product Owners puis les ai coaché·e·s grâce à un suivi de proximité. Je suis intervenue auprès d’une variété de projets, produits software ou produits de service.

J’accompagne les Product Owners dans l’adoption et la maîtrise de frameworks agiles ainsi que dans l’utilisation de la boîte à outil du Product Owner, de la recherche utilisateurs à la gestion des backlogs et des tests. Cet accompagnement s’étend jusqu’au suivi de l’évolution des différentes versions par la suite.

Le coaching, à travers un suivi régulier, repose sur le partage de bonnes pratiques, la mise à disposition des bons outils et l’animation quotidienne de leur produit.

À l’origine, les personnes coachées évoluent dans la gestion de projet classique. À la suite des formations et la prise de connaissance des méthodes agiles, certain·e·s d’entre eux souhaitent tenter l’aventure, créer leur vision produit et gérer leur réalisation en agile.

Quand il s’agit des approches agiles, on note une grande différence entre la maîtrise de la théorie et celle de la pratique. Après la formation, le coaching assure la montée en compétences et l’autonomisation des Product Owners au fur et à mesure de la gestion de leurs produits actuels afin qu’ils·elles soient capables d’assurer pleinement le Product Ownership de leurs futurs produits.

Par la suite, ils·elles occupent officiellement le rôle de Product Owner sur le ou les produits sur lesquels je les accompagne, avec l’objectif de pouvoir développer les pratiques et outils (digitaux comme Jira, mais aussi l’Impact ou le Story Mapping…) découverts.

Peux-tu nous en dire un peu plus sur ton accompagnement auprès des Product Owners ?

Tout d’abord, j’élabore un plan de coaching en 3 étapes par rapport à un cycle classique de création de produit.

#1 Accompagnement sur l’étape de design du produit :

  • Identification des besoins utilisateurs ;
  • Création des personae ;
  • Brainstorming afin de formaliser les solutions répondant au besoin identifié ;
  • Création et cadrage de la vision du produit : lors de cette étape, nous utilisons des outils tels que le Story Mapping ou l’Impact Mapping afin d’identifier le contenu du produit, ainsi qu’une roadmap de celui-ci comportant les premiers périmètres à tester dans le cadre d’un MVP (Minimum Viable Product).

#2 Accompagnement dans la mise en place des bons outils :

  • Gestion de backlog (ex : Jira, Asana…) ;
  • Idéation et création du produit (Klaxoon, Miro…).

#3 Accompagnement dans l’animation de leur produit via les différentes instances :

  • Événements agiles ;
  • Gestion des parties-prenantes ;
  • Tests utilisateurs et évolution du produit.

En parallèle de ces actions, je tâche de mettre à disposition des Product Owners les contenus que je crée afin de favoriser leur prise d’autonomie.

À titre d’exemples, je leur fournis notamment :

  • Une sprint planning checklist pour assurer la bonne réalisation des tâches relatives à la préparation en amont de l’instance et son déroulé ;
  • Des tips sur les outils à utiliser – par exemple, des “worst case scenarios” permettant d’identifier des obstacles lors d’une livraison du produit et les actions à mettre en place pour les anticiper ;
  • Des guides de formation complets relatifs à certains outils ;
  • L’animation d’une communauté avec partage régulier de news agiles pour démontrer l’utilité de l’agile au-delà de produits software et du SCRUM ;
  • Organisation ponctuelle de cafés afin de réunir des Product Owners d’équipes ou départements différents pour qu’ils·elles puissent se nourrir des bonnes pratiques de chacun·e.

Comment accompagnes-tu tes clients au quotidien ? Peux-tu nous décrire une journée type ?

Ayant une posture de coaching et d’experte agile, j’initie des travaux pour améliorer les processus, ainsi que la collaboration entre les équipes.

Quand je ne coache pas les Product Owners dans le cadre de leur suivi régulier, je participe à l’amélioration continue des pratiques au sein de l’entreprise que j’accompagne.

Au quotidien, je n’ai pas de journée type. Les coaché·e·s étant à des niveaux de progression différents, mes actions peuvent varier en restant dans le cadre défini dans le plan de coaching précédemment développé.

Quelles sont selon toi les trois qualités d’un·e Product Owner ?

  • Communiquant·e : le·la Product Owner est en contact avec beaucoup de parties prenantes différentes, clients finaux, développeur·se·s… tout type de rôle qui participera à la réalisation du produit. Communiquer le bon message de la bonne façon est donc un prérequis majeur. Il est important de savoir partager la vision produit afin d’engager les personnes qui seront amenées à travailler sur sa réalisation. En ce sens, le·la Product Owner doit être à l’écoute.
  • Clairvoyant·e et visionnaire : le·la Product Owner doit pouvoir prendre du recul sur son produit et avoir une vision claire. Il·elle doit savoir affirmer ses convictions tout en étant capable de pivoter et s’adapter au marché.
  • Organisé·e : bien créer la vie de son produit et la gérer par la suite nécessite de l’organisation. Le·la Product Owner étant un rôle central, l’anticipation et l’organisation sont clés.

Quels outils utilises-tu ?

J’utilise les outils classiques de communication tels que Teams, Klaxoon pour le suivi des coachings et les ateliers d’intelligence collective (idéation, story mapping), Jira pour la gestion de Product Backlogs et Confluence pour la capitalisation documentaire des réalisations.

Quels sont les challenges que tu rencontres souvent en tant que PO ?

Le plus grand challenge est la réticence à l’agile. J’ai à cœur de faire prendre conscience de l’apport des approches agiles dans la gestion d’un produit, la collaboration ou l’engagement. Des efforts doivent être faits pour démocratiser ces pratiques au-delà des produits IT pour démontrer la valeur apportée.

Des actions de communication, retours d’expériences et phases de “tests and learn” pour démontrer l’apport de l’agile ont souvent été clés dans mes missions.

Le mot de la fin ?

Être Product Owner ou acteur·rice d’un produit/projet délivré en agile n’est pas inné. Les équipes rencontrent de nombreux challenges ; une mauvaise application du framework peut être contre-productive, d’où la nécessité de former et accompagner les équipes dans la mise en place d’un bon cadre de travail, ainsi que dans la prise en main et l’adoption des outils et pratiques agiles.

Si vous souhaitez vous aussi être accompagné·e·s par nos équipes Acceleration Tactics dans vos projets de transformation agile, n’hésitez pas à contacter nos expert·e·s !

Rédigé par Boris Palmier, Consultant Acceleration Tactics

TypeScript est un langage de programmation fortement typé qui s’appuie sur JavaScript, qu’il enrichit de nouvelles fonctionnalités.

Développé par Microsoft en 2012, TypeScript connaît une grande popularité dès 2017. À l’époque, Microsoft souhaite créer un langage de programmation pouvant assurer une meilleure gestion des projets à grande échelle. Jusqu’ici, JavaScript est utilisé seul car il l’est l’un des seuls langages acceptés par les navigateurs – mais il est mal adapté aux grands projets (trop complexe, pas de typage, pas d’interface…).

Comment TypeScript intervient-il dans le processus de codage ? Comment fonctionne-t-il ? Quels sont ses avantages ?

Qu’est-ce que TypeScript ?

TypeScript est transcompilé en JavaScript, c’est-à-dire qu’il traduit le code TypeScript vers du code JavaScript afin qu’il soit interprété par tous les navigateurs.

Le grand avantage de TypeScript, comme son nom l’indique, est qu’il permet de typer son code, soit d’attribuer un type aux éléments du code source (variables, fonctions…). En conséquence, chaque élément joue un rôle identifié.

Par exemple :

  • En TypeScript : sur la ligne de code “let count : number = 2”, il est indiqué que count est obligatoirement un nombre ;
  • En JavaScript : sur la ligne de code “let count = 2”, count peut être un autre type par la suite, puisqu’il n’est pas référencé comme nombre ;
  • Si l’on considère la ligne de code “count = “hello world”” : en TypeScript, cette ligne sera erronée (puisqu’elle ne correspond pas au typage précédemment effectué), ce qui ne sera pas le cas en JavaScript.

Ses points forts

Parmi ses autres avantages, nous pouvons citer :

  • L’autocomplétion : par exemple, si l’on souhaite créer un array, TypeScript suggère automatiquement les fonctions liées au type référencé en amont (filter, map, find…) ;
  • La documentation : même s’il est essentiel de documenter son code, pour soi-même comme un·e futur·e développeur·se qui reprendrait un projet, TypeScript permet d’éviter les commentaires à l’intérieur du code, comme “//version doit être nombre” ;
  • La propreté : JavaScript est souvent jugé permissif voire incohérent ; TypeScript pallie ce problème grâce aux détails qu’il est possible d’y ajouter, le rendant plus facile à lire et comprendre ;
  • La gestion d’erreurs : les erreurs commises en TypeScript, qui empêcheraient la compilation du code, sont signalées par un liseré rouge – ce qui n’est pas le cas en JavaScript. Jusqu’alors, ce travail était fait par des bibliothèques ou éditeurs de texte ;
  • La maintenabilité : puisque le code est typé, il est plus facilement maintenable. Les futures mises à jour seront plus simples et rapides, entraînant un gain de temps et d’argent.

TypeScript condense donc de multiples fonctionnalités en un seul outil.  À l’inverse, certain·e·s développeur·se·s estiment qu’il alourdit le code, puisqu’il l’alimente avec de nouvelles fonctionnalités – ce qui est compréhensible à l’échelle de petits projets.

Toutefois, nous pouvons considérer que TypeScript est adapté à tous les types et échelles de projets ; nombreux sont les petits projets qui prennent par la suite de l’ampleur !

Cas pratique

Conclusion

TypeScript a définitivement révolutionné la manière de coder. Il est de plus en plus adopté, pour les nouveaux comme les anciens projets – de nombreux sites ont mis à jour leur code avec TypeScript. Le choix revient bien sûr aux développeur·se·s d’utiliser ce langage, selon leurs habitudes et sensibilités personnelles, mais il ne fait aucun doute que TypeScript continuera son ascension : il est déjà aujourd’hui parmi les 10 langages de programmation les plus utilisés (source).

Vous souhaitez en savoir plus ?

Rédigé par Diesen Nwoumga, Consultant Factory