Ici archive

Pourquoi des Custom Viz ?

De manière usuelle, les utilisateurs métiers sont outillés par leur DSI avec des outils “groupe”, généralement sous licences et avec lesquelles ils doivent composer pour répondre à leurs besoins. Dans la plupart des cas, ces outils répondent à une majorité de cas d’usages et à 80% des besoins utilisateurs.

Cependant, il arrive fréquemment que ces outils soient trop limités ou ne peuvent simplement pas répondre à un besoin spécifique. Si cela concerne un processus métier essentiel, les directions IT recherchent alors des applications spécialisées construites pour ces usages. Malgré tout, certains processus sont tellement spécifiques (ou répondant à un nouvel usage), qu’aucun outil sur le marché ne peut y répondre totalement. 

Plusieurs cas sont alors rencontrés : 

  • Les utilisateurs “tordent” les outils qu’ils ont à leur disposition jusqu’à atteindre leurs derniers retranchements, ce qui rend l’exploitation et la maintenance du produit compliquée, voire dégrade les performances et donc in fine l’expérience utilisateur ;
  • Les utilisateurs combinent (quand cela s’avère possible) plusieurs outils pour arriver à leurs fins, ou décident de séparer différentes étapes de leur processus via différents outils. Cela peut complexifier le déroulement d’un processus, tout en apportant de la complexité technique.

Une solution alternative peut être de proposer des outils “custom” répondant au mieux aux besoins des utilisateurs, soit en développant des outils de bout en bout, soit en s’appuyant sur des solutions existantes sur le marché offrant des possibilités de personnalisation et de maintenance simplifiées. C’est dans ce contexte qu’intervient la notion de Custom Viz.

Quels en sont les principes ?

Si les coûts de licence sont généralement inexistants (framework open source), une Custom Viz engendre un coût plus élevé pour le développement, la maintenance et la gestion des évolutions ; le ROI réel est parfois difficilement mesurable. C’est souvent le frein majeur aux initiatives de ce type en parallèle de l’automatisation et l’industrialisation des processus qui tend à faire émerger des plateformes dédiées de data visualisation (type Power BI ou Tableau Software).

C’est également un défi technique car les blocs de construction de nos logiciels de visualisation de données sont généralement optimisés pour une forme ou l’autre. Il est donc important de s’appuyer sur une expertise combinée Data Viz et Technique afin de créer des composants permettant de répondre de manière pertinente et performante aux besoins, tout en s’assurant de sa maintenabilité dans le temps.

Il est en premier lieu important de challenger ce postulat (complexe, couteux, spécifique) et aussi de mettre en perspective ce qu’implique et signifie une Custom Viz.  

La définition standard est qu’une Custom Viz est développée dès lors qu’un outil du marché ne peut répondre à un besoin de visualisation demandé par un utilisateur métier. En l’état actuel des choses, la visualisation de données personnalisée est le plus souvent décrite comme tout ce que vous ne pouvez pas faire avec un outil standard, et si cette définition a l’avantage d’être techniquement précise et simple, elle n’est pas représentative.

En effet même si elle est personnalisée, une Custom Viz n’est pas forcément complexe. De multiples représentations sont déjà existantes ou sont des combinaisons de représentations communément utilisées.  

La personnalisation entre en jeu uniquement parce que l’on souhaite déployer une petite fonctionnalité qui n’est pas nativement présente et peut amener une vraie plus-value business.

On peut ainsi représenter 3 grandes catégories de Custom Viz :

  • Personnalisée ;
  • Combinatoire ;
  • Néo-Visualizations.

Ces catégories ne sont pas exhaustives mais permettent globalement de regrouper l’ensemble des cas d’usages des différents types de Custom Viz. 

Il faut néanmoins rappeler le but d’une visualisation : permettre de mettre en lumière une information pertinente – identifier des problèmes, aider à la prise de décision, faire apparaître des interactions… La mise en place de ces visualisations permet de dégager un ROI qui peut être mesuré de différentes manières. La première et la plus simple à appréhender consiste à se demander quels seraient les préjudices à ne pas faire (impact sur les prises de décisions, coûts).

La catégorie personnalisée regroupe des visualisations de données préexistantes auxquelles on rajoute certaines fonctionnalités ou éléments graphiques supplémentaires pour un cas d’usage particulier. Cette catégorie peut sembler simple avec l’ajout de nouvelles fonctions à une visualisation données, mais il est malgré tout nécessaire dans la plupart des cas de recréer l’ensemble de la visualisation pour une intégration parfaite des nouvelles fonctionnalités et une optimisation du rendu graphique.

À titre d’exemple, un histogramme peut très bien être redéveloppé au sein d’une application web, utilisant les librairies D3.js, Highcharts… simplement pour permettre une interaction métier avec le reste des fonctionnalités proposées dans l’application. Ainsi, nous pouvons imaginer qu’un clic sur une barre de l’histogramme ouvre un panneau de détail dans l’application afin de faire apparaître des informations détaillées sur la série en question.

La catégorie combinatoire est celle la plus usuelle en termes de customisation, car elle est plus facile à mettre en œuvre. Il s’agit dans ce cas de prendre plusieurs techniques de visualisation de données et de les intégrer en une seule et même visualisation. Une forme de visualisation combinatoire courante est la transition graphique de données affichées sous des formes différentes permettant de donner une lecture différente de l’information exposée, comme afficher des données sur une carte puis les transformer en graphiques à bulles. L’exemple ci-après illustre l’association de plusieurs types de représentations permettant d’analyser en un coup d’œil différents niveaux de granularités d’une même information. La combinaison de différentes visualisations peut être impactante en termes de story-telling, mais nécessite souvent un investissement important en termes de conception pour ne pas tomber dans l’excès et être contre-productif : la nouvelle visualisation doit aider à la compréhension de l’information.

La catégorie des néo-visualisations est la plus facile à appréhender, car elle regroupe la création de visuels de bout en bout à destination d’un usage particulier précis et le plus souvent spécifique. Elle est issue d’un besoin ad-hoc pour délivrer une visualisation impactante ou faciliter la prise de décision rapide. Les néo-visualizations prennent également en compte toutes les visualisations que nous pouvons retrouver dans l’infographie de manière générale. Si certaines peuvent être farfelues, d’autres ont le mérite d’être facilement lisible par n’importe quel profane tout en aidant le lecteur à la compréhension des informations qu’elle tente de présenter (peut être les prémices du data story telling ?).

Ces visualisations sont moins souvent présentes dans les outils traditionnels d’explorations et de présentation de données, voire inexistantes, ce qui peut sembler normal. Sans tomber dans l’extrême, certains processus métiers nécessitent l’implémentation spécifique de ce type de visualisations pour permettre une appréhension optimale des informations à présenter.  

La catégorie regroupe l’ensemble des créations sur mesure mais qui peut parfois être généralisée, réutilisée ou dérivée pour être finalement intégrée à d’autres applications ou usages similaires. 

C’est aussi de manière commune le cheminement de la création graphique, toute visualisation de données ayant été créée pour un usage particulier à un moment donné. 

On observe également un usage de plus en plus courant d’outils permettant une plus grande souplesse d’utilisation et d’ajout de visuels personnalisés. 

La séparation entre ces catégories permet de d’éclairer l’usage de Custom Viz et permettre une meilleure catégorisation et choix d’utilisation.  

Fournir aux métiers les outils d’analyse dont ils ont vraiment besoin

Les données de l’entreprise n’ont jamais eu autant de valeur ni jamais été aussi nombreuses et hétérogènes. Plus il y a de données, plus de valeur peut en être tirée et ainsi, faire émerger de nouveaux besoins métiers ou faire évoluer ceux déjà existants.  

Le plus souvent le traitement de ces données est assuré par les équipes BI de l’entreprise, permettant de faire ressortir certains KPI et fournir aux différentes directions métier les données et indicateurs leur permettant de prendre des décisions ou actions pertinentes.  

Aujourd’hui, les utilisateurs métier demandent de plus en plus d’autonomie pour appliquer/réaliser leurs propres analyses et présenter la valeur la plus désirable ou nécessaire pour répondre à leurs enjeux opérationnels et business. Dans le même temps, certains processus métier se sont complexifiés, spécialisés, expertisés, jusqu’au moment où les outils d’analyse traditionnels ou disponibles sur le marché, ne suffisent plus ce qui rend possible et presque inévitable, l’essor de ces Custom Viz et explique ce besoin croissant de spécialisation des reportings.  

Nous ne traiterons pas en profondeur la notion de coûts directs et indirects de la mise en place d’une solution incorporant des Custom Viz, mais sachez simplement qu’un arbitrage est souvent nécessaire entre développer une nouvelle visualisation au sein d’un outil existant le permettant ou développer une solution “crafted”. Les pivots de décisions sont souvent les mêmes selon les besoins métiers, mais voici d’ores et déjà quelques questions que vous pouvez vous poser si vous êtes confronté à ce type problématique :

  • Ai-je un outil supporté par un éditeur de renom, dont je paye déjà une licence qui pourrait intégrer mon besoin en termes de visualisation de données ? Si oui, ai-je les compétences au sein de mon entreprise pour réaliser ces développements ? L’éditeur propose-t-il une solution d’accompagnement (ou de réalisation) le cas échéant ? 
  • Est-ce que ce nouveau graphique s’ancre pour un besoin particulier ou sera-t-il amené à couvrir un scope plus large qu’actuellement ? Nécessitera-t-il d’une maintenance évolutive ?
  • Le besoin exprimé par le métier peut-il être amené à évoluer ? N’y-a-t-il pas intérêt à proposer une application dédiée pour ce besoin ? Y-a-t-il des chances pour que des interactions existent (un jour ?) entre le graphique et le reste du process métier ?
  • Ce besoin s’appuie-t-il sur un seul point de contact dans le processus métier ou est-ce un besoin flottant qui mériterait d’être approfondi et détaillé pour valider une solution technique plutôt qu’une autre ?

Ces questions ne sont pas exhaustives mais permettent de se faire une idée du type de solutions que vous pourriez proposer à vos utilisateurs métiers, et de fait, en déduire un coût de réalisation associé. 

En complément, nous recommandons fortement de mettre en place une équipe dédiée, pluridisciplinaire en mesure de répondre à ces besoins, aussi bien d’un point de vue technique (implémentation / développement), design (matérialisation des usages, hiérarchisation de l’informations et conception des interactions) que story-telling (expertise data-visualisation)  

La mise en place d’un tel dispositif, de type “centre d’excellence”, peut être un coût lors de sa création mais garanti un ROI à moyen et long terme, au vu des besoins de spécialisation de plus en plus répandus au sein des entreprises. Son but sera de mettre en place un ensemble de process et frameworks permettant d’agiliser la chaîne en s’appuyant sur une nouvelle typologie de profil : le “Data Viz Engineer” qui combine les aspects du triptyque “technique/design/story-telling”. 

Dans un prochain article, nous vous présenterons des exemples concrets et des illustrations des différentes catégories de Custom Viz ainsi que des aspects allant au-delà des problématiques d’analyses notamment des problématiques d’accessibilité qui font des Custom Viz un sujet de plus en plus important chez nos clients.

Vous souhaitez être accompagnés sur ce sujet par nos équipes Data ? Contactez-nous !

Rédigé par Julien Ayral, Senior Manager Data, et Sébastien Perrot, Manager Factory

L’impact de la transformation digitale

La consommation de services numériques (particuliers et entreprises confondus) est en augmentation constante depuis plusieurs décennies. La crise sanitaire actuelle a favorisé et accéléré ce phénomène. Les entreprises ont massivement déployé des solutions de collaboration, accru leur consommation de données dans toutes leurs formes, et font appel à des solutions de traitement et de calculs toujours plus puissantes, notamment d’intelligence artificielle.

Il est vrai que l’enseignement de l’année 2020 a été qu’une utilisation massive du digital permet de réduire les déplacements physiques, y compris transcontinentaux ; reste à savoir si ce phénomène sera durable ou si la reprise d’une vie “normale” ne viendra pas juste s’ajouter à l’intensification de ces usages numériques maintenant “acquis”.

Plusieurs études montrent que l’empreinte du numérique est estimée, à l’horizon 2025, à 10% (contre 4% actuellement (1)) de la consommation électrique mondiale, soit celle d’un pays faisant 2 à 3 fois la taille de la France. La consommation d’énergie liée aux cryptomonnaies dans le monde équivaut à la consommation d’un pays tel que l’Égypte (2). Plus à notre échelle, une box internet de particulier consomme autant d’énergie qu’un grand réfrigérateur.

Il est extrêmement difficile de savoir si l’innovation technologique aura à terme un impact environnemental positif et négatif. Cet article n’a d’ailleurs pas l’ambition d’adresser ce problème de manière holistique, mais de s’intéresser plus particulièrement à l’impact (positif) que pourrait avoir le développement de services d’intelligence artificielle dédiés à l’optimisation d’une consommation énergétique plus environnementale.

L’IA ne résoudra pas la problématique de production d’une électricité décarbonnée : il s’agit là d’un enjeu planétaire, complexe, dont la résolution ne peut se faire qu’en alignant progrès technologique, volonté politique et équilibre économique.

Toutefois, nous pouvons envisager à court terme des impacts positifs pour l’environnement. Cela se traduirait notamment par l’utilisation de l’IA sur des cas d’usages appropriés, via une méthode de gestion de l’IA raisonnée.

Quels cas d’usage pour une IA vertueuse ?

L’utilisation d’algorithmes (base de machine learning ou deep learning) est efficace dans un très grand nombre de cas d’utilisation. Initialement éprouvés sur des axes marketing (segmentation, scoring, recommandation), bancaire (risques, fraudes, optimisations), recherche (élaboration de molécules, traitement d’image, diagnostics médicaux), industrie (opérations de maintenances, logistique), ces programmes peuvent également être “entraînés” sur des tâches à impact positif.

À titre d’exemple, nous pouvons citer de manière générale :

  • La lutte contre l’obsolescence programmée (recommandation d’utilisation de produits, détection de dysfonctionnement, maintenance prédictive) ;
  • La maîtrise de la consommation d’énergie (optimisation domotique : gestion de la lumière, de la chaleur), pour le particulier mais également à l’échelle d’une entreprise, d’une ville, d’un pays ;
  • La gestion des ressources naturelles (supervision de parcelles agricoles, détection de maladie sur base d’images, gestion des espaces forestiers, analyse de l’air, de l’eau, impact du réchauffement, érosion des côtes) ;
  • Les impacts de phénomènes climatiques extrêmes (prédictions de dégâts, inondations) ;
  • L’optimisation de la supply chain – les traitements sont actuellement orientés sur le rendement, mais ils pourraient inclurent une composante “impact environnemental” dans le calcul d’optimisation.

Cette liste n’est évidemment pas exhaustive, mais illustre qu’il existe énormément de possibilités, peu ou pas explorées à date.

Une gouvernance mondiale “raisonnée” est-elle possible ?

Comme indiqué précédemment, la consommation énergétique liée aux services numériques est très élevée. Il en est bien sûr de même pour l’IA qui nécessite de très grand volumes de données et de fortes puissances de calcul.

La gestion des infrastructures et de l’énergie sous-jacente n’est évidemment pas un levier à la main des équipes de développement, et ne l’est qu’en partie pour les grandes entreprises.

Il existe cependant d’autres leviers de rationalisation :

  • La gestion et le partage de l’information : pour répondre aux besoins applicatifs la donnée a toujours été dupliquée, copiée, redondée, que ce soit dans des bases de données, systèmes de fichiers ou applications. Les facilités offertes par le Cloud et la baisse du coût de stockage ont encore accéléré ce phénomène. Le premier levier à l’échelle de l’entreprise est de gérer cette information comme un capital, de limiter les duplications en gérant mieux la description et le partage. Cela s’opère par une gouvernance adaptée mais également par des modèles d’architecture et d’urbanisation des données (gestion des méta-données, apisation, industrialisation des datalayers) ;
  • La gestion des algorithmes : c’est un sujet encore assez neuf, dont peu d’entreprises se sont saisies. La première vague a visé à démultiplier les initiatives et les expérimentations pour en prouver la valeur. La seconde vague, actuelle, a pour objectif l’automatisation et l’industrialisation. La troisième vague pourrait être celle de la réutilisation et du partage ;
  • À l’échelle de l’entreprise, cela signifie la mise en place d’une gouvernance algorithmique, permettant de cartographier les assets existants, de mutualiser les phases d’entraînement et de mise au point, et de démultiplier l’usage des algorithmes (sans repasser par de la recréation, de la duplication de données, de la multiplication fastidieuse de phase d’optimisation). L’objectif final serait la création d’une librairie d’algorithmes prêts à l’emploi ;
  • Au-delà du cadre de l’entreprise, cela pourrait prendre la forme d’une “Algo Market Place” au sein de laquelle les entreprises pourraient monétiser la mise à disposition d’algorithmes performants et pré-entraînés – sur le même modèle que les Data Market Place.

Enfin, il convient de faire appel à ces technologies de manière raisonnée. Dans de nombreux cas, des traitements plus simples, statistiques ou règles donnent des résultats tout aussi fiables avec un bilan efficacité/consommation de ressources beaucoup plus efficient.

Notre mission, au sein du cabinet Saegus, est autant d’identifier et de mettre en œuvre des services d’IA sur des cas d’usages à impact sociaux-environnemental positifs, que d’aider les entreprises à renforcer ou établir des règles de gouvernance efficaces et responsables.

Rédigé par Frédéric Brajon, Associé et Co-fondateur, et Clément Moutard, Manager Data

Sources :
(1) Agence de la Transition Écologique : https://bit.ly/3waPB7V
(2) Cambridge Bitcoin Electricity Consumption Index : https://cbeci.org

La quantité et la complexité des données n’ont jamais été aussi importantes. Les évolutions technologiques ont cependant rendu la mise à disposition des données dans l’entreprise beaucoup plus simple et rapide. Le développement de l’utilisation des technologies IoT, du cloud, de la Business Intelligence ou encore de l’intelligence artificielle génère et consomme une quantité de données transformées de manière croissante dans l’entreprise.

En parallèle, le contexte règlementaire ne cesse de se renforcer. Nous pouvons par exemple citer l’entrée en vigueur, depuis 2018, du Règlement Général sur la Protection des Données (RGPD) qui impose un cadre sur la gestion des données personnelles des ressortissants de l’Union Européenne. Les sanctions encourues en cas de non-respect de cette réglementation sont colossales, avec des amendes s’élevant jusqu’à 4% du chiffre d’affaires annuel de l’entreprise contrevenante.

Pour répondre à ces nouveaux challenges et parce que la donnée est un asset stratégique, les entreprises s’organisent pour trouver de nouveaux modèles et valoriser au mieux cet actif. Pour atteindre cet objectif, il est nécessaire de connaître, comprendre et contrôler son patrimoine de données et c’est là qu’intervient la gouvernance des données.

Elle consiste à définir un ensemble d’activités au sein desquelles les équipes métiers et IT travaillent ensemble pour harmoniser, nettoyer, diffuser et contrôler les données partagées au sein de l’organisation. La donnée doit être managée et sa gestion professionnalisée. L’émergence des data offices permet la création de nouveaux rôles dans l’entreprise tels que les Data Owner, Data Steward ou encore Data Custodians. La gouvernance vise donc à assurer la cohérence, la fiabilité, et la sécurité du patrimoine de données.

Quels bénéfices pour les entreprises ?

Le déploiement de la gouvernance de la donnée est un levier de contextualisation de l’information, notamment à travers la création d’un catalogue de données. En associant une vision transverse des sources d’information de l’entreprise à un glossaire de termes métiers, il augmente la confiance dans l’information mise à disposition et réduit le risque d’erreurs en facilitant la compréhension transversale de la signification des données et en alignant l’ensemble des collaborateurs autour d’un langage commun. Ainsi, la gouvernance de la donnée est la fondation indispensable au Data Litteracy et à l’exploitation de la donnée pour en extraire toute sa valeur.

Maîtriser son patrimoine c’est également avoir une vision complète du cycle de vie des données depuis les systèmes de production jusqu’à la multiplicité des usages en documentant l’ensemble des traitements qui leur sont appliqués. Comprendre ce cycle de vie est à la fois primordial pour pouvoir garantir l’accès aux données dans les outils d’aide à la décision (Business Intelligence) mais encore encourager l’interprétabilité des modèles d’intelligence artificielle, indispensable pour répondre aux requis règlementaires de plus en plus importants.

Enfin, déployer la gouvernance de la donnée c’est également mettre en place une organisation, des rôles et des processus autour des données qui garantissent la qualité du patrimoine dans le temps.  En définissant les responsabilités de chacun vis-à-vis des données, on diffuse cette culture data centric.

La gouvernance des données est aujourd’hui une réponse à un grand nombre d’enjeux rencontrés par les entreprises. Elle est catalysée par des évolutions technologiques majeures, par le développement des solutions techniques de gouvernance et par le besoin de réussir le virage de la transformation digitale.

Les principaux bénéfices :

  • Assurer le contrôle au sein de l’entreprise
    • Fournir une organisation, des politiques partagées & des processus clés
    • Améliorer le contrôle sur l’ensemble du cycle de vie de la donnée
    • Définir des responsabilités sur un ensemble de processus data
    • Standardiser les référentiels de données
  • Encourager & faciliter l’accès au patrimoine
    • Documenter les données pour les rendre compréhensibles et exploitables par un grand nombre d’utilisateurs
    • Augmenter la confiance des utilisateurs dans les systèmes d’analyse
    • Améliorer l’accessibilité à des données standardisées et des sources fiables
  • Favoriser la collaboration au sein d’une organisation
    • Encourager une collaboration plus forte entre les équipes
    • Responsabiliser les utilisateurs à l’usage des données et au partage des données
    • Responsabiliser les utilisateurs à l’usage des données et au partage des données
  • Permettre la réalisation de nouveaux cas d’usage
    • Permettre la réalisation de cas d’usage utilisant des données avec un impact maximal sur la top line (maximiser les revenus, améliorer l’expérience client) et/ou la bottom line (améliorer l’efficacité opérationnelle)
  • Sécuriser les investissements IT
    • Fluidifier les transitions vers de nouveaux systèmes/ applications IT (e.g. transition vers de nouveaux systèmes business, agrégation de sources de données disparates dans un Data Lake) et évaluer les impacts en termes de production et génération de données

Chez Saegus nous accompagnons nos clients dans le déploiement d’activités de gouvernance de la donnée. Grâce à notre savoir-faire et nos partenaires privilégiés Data Galaxy et Microsoft Purview, nous sommes en mesure de proposer des démarches tant organisationnelles qu’opérationnelles reposant sur une méthodologie agile.

Retrouvez notre table ronde exceptionnelle sur l’introduction de l’Agilité dans les processus de Data Gouvernance le jeudi 7 octobre à 18h, en ligne. Inscriptions : https://bit.ly/3lx0Unn.

Et vous souhaitez être accompagnés par nos équipes Data ? Contactez-nous !

Rédigé par Martin Éliard, Manager Data, et Marc Gabet, Consultant Data

Je pourrais écrire sur l’engagement des heures entières,

Quelle notion plus belle que l’engagement ?

Tant de définitions pour un même mot, c’est bien la preuve que cette notion est riche, vaste, et presque infinie.

Qu’est-ce qu’un engagement ?

Un acte, une promesse, un contrat, un franchissement ?

L’engagement peut aussi être politique, militant, social, cérébral… Et quelle que soit sa finalité, l’engagement se donne pour mission d’accomplir, de convaincre, de fédérer et de transformer.

Je ne cesse d’écrire sur le Design car je crois en son pouvoir de transformation.

Et forcément, quand le design se met au service de l’engagement, c’est pour accélérer les actes car son champ d’action est extrêmement vaste.

Je vous propose de découvrir ensemble quelques cas concrets.

Connaissez-vous la marque Pom’Potes ?

Bien évidemment, ce nom est devenu un générique ! Pom’potes est à la gourde ce que Bic est au stylo.

Il y a quelques mois, Pom’Potes s’est lancé dans une refonte de sa proposition de marque pour assumer pleinement ses engagements : ceux d’une marque qui agit concrètement pour l’après en encourageant les enfants à découvrir et protéger le dehors.

Concrètement, cette marque s’investit sur plusieurs sujets :

  • La réduction de son empreinte environnementale d’abord, en travaillant sur la recyclabilité de ses gourdes et sur la quantité de plastique dans ses bouchons ;
  • Des partenariats institutionnels pour apprendre dès le plus jeune âge à équilibrer ses goûters avec des actions de sensibilisation dans les écoles ;
  • Des actions de communication et d’activation pour encourager les enfants à jouer dehors.

Et devinez quoi ? C’est le Design qui est utilisé à foison pour accélérer la communication des engagements. La dernière opération de la marque, les Olym’potes, propose à tous les #dégourdis de réaliser des jeux et des défis avec leur packaging de gourdes (carton et gourde elle-même)

Cette action originale permet aux enfants de jouer en extérieur tout en proposant de l’up-cycling de packaging.

Et si je vous parle de JO&JOE, sauriez-vous me dire de qui il s’agit ? Ou plutôt, de quoi il s’agit ?

JO&JOE est une marque du groupe Accor qui propose des nouveaux complexes hôteliers pour ré-inventer l’auberge de Jeunesse. JO&JOE imagine un lieu de vie où le voyage n’est pas qu’une histoire de destination, mais surtout d’expérience.

Et ici encore, c’est le Design qui frappe fort : une identité résolument rupturiste, un design d’espace et d’environnement inédit qui allie le beau, l’utile et le responsable.

Le complexe de Gentilly, par exemple, est construit en bois massif pour éviter d’utiliser de l’eau sur le chantier (il s’agit alors d’une construction sèche). Ce sont également des artistes locaux qui sont venus personnaliser la décoration intérieure.

JO&JOE est une maison ouverte sur le monde extérieur qui s’inscrit dans l’écosystème local.

Et pour terminer en beauté, si nous nous intéressions quelques instants au groupe de luxe numéro 1 dans le monde ?

LVMH, un groupe d’excellence mondialement connu et reconnu. Est-ce que les engagements d’un groupe aussi statutaire n’auraient-ils pas intérêt à se vêtir d’une charte visuelle et rédactionnelle complètement inédite ?

Le groupe a récemment dévoilé sa nouvelle stratégie environnementale baptisée LIFE 360 (LVMH Initiative For the Environment) qui prône l’alliance de la nature et de la créativité.

Et là encore, le Design joue un rôle majeur. Car oui, dès qu’il s’agit d’un sujet d’engagement, LVMH vient encore en rupture de code pour créer un univers inédit : plus illustratif, plus personnifié, plus créatif. Comme si le Design permettait au groupe de prendre un « nouveau souffle » pour mieux respirer demain.

Que ce soit en retail, en corporate, en consumer branding… l’engagement devient nécessaire. Et pour lui donner de la force et des « raisons d’y croire », le Design prend toute la place qu’il mérite. La place de l’accélérateur, la place de l’éclaireur, la place du transformateur.

J’ai parlé récemment de mon amour des marques engagées.

Je crois profondément que toutes les marques peuvent s’engager. Et que le Design, ici encore, agira comme une arme puissante, une baguette magique, un coup de fouet… Je le répète donc ici : utilisez le Design pour vous engager !

Créez à l’infini, imaginez le monde de demain, portez-le avec des messages forts, hauts en couleur et créatifs. Une fois de plus, Vive le Design.

Rédigé par Charlotte Zekraoui, Senior Manager Factory

Les solutions d’intelligence artificielle se démocratisent depuis quelques années. Utilisées initialement à des fins marketing ou d’optimisation (production, supply chain…), de plus en plus de fonctions régaliennes y trouvent un intérêt, notamment les directions des ressources humaines.

En effet, les solutions d’aide au recrutement faisant usage de l’IA et de la donnée se sont massivement développées au cours de la dernière décennie – le profiling, la recherche par mots-clés ou l’utilisation d’un réseau comme LinkedIn en sont les exemples. La première étape d’un processus de recrutement est principalement basée sur l’utilisation de données caractérisant le candidat (diplôme, expérience, compétences, ancienneté dans un poste, etc). Toutes ces informations, accessible sur un CV ou un profil, permettent d’effectuer efficacement des recherches, des filtrages, et aboutissent à une pré-sélection de candidats à rencontrer. L’utilisation des technologies permet d’automatiser tout ou partie de cette première phase avec une grande efficacité. Dans ce cadre, les outils d’IA établissent des scores de pertinence sur les profils, en fonction des fiches de poste (rapprochement par similarité par exemple).

Cependant, la crise sanitaire a été un accélérateur de nouveaux cas d’utilisation, jusque-là confidentiels. Dès mars 2020, 89% des employeurs américains ont commencé à réaliser des entretiens en ligne (source journal du net, mars 2021). Pour pallier l’impossibilité de se rencontrer, et puisque l’enregistrement vidéo était quasi-systématique, les méthodes d’analyse par intelligence artificielle post-entretien ont été massivement utilisées. L’éditeur HireVue, spécialiste de l’analyse de video « comportementales » a communiqué sur une hausse de 80% de sa technologie par rapport à l’année précédente (en nombre de video analysées). Si cette adoption s’est majoritairement faite aux États-Unis, ce mouvement est nettement engagé en Europe.

Les ressources humaines sont un domaine par nature profondément humain, et donc variant. L’intelligence artificielle, a contrario, est systématique et analytique. Dans l’usage, quelles problématiques techniques et éthiques cela pose-t-il ? Quelles sont les limites ?

Interprétabilité et variables : les biais possibles de l’intelligence artificielle

Pour réaliser une prédiction (par exemple recommandation d’embauche ou non), l’intelligence artificielle va apprendre à faire sa prédiction sur l’analyse de différentes variables descriptives du phénomène observé. Ces variables sont déterminées par les data scientists, ou directement par l’IA (on parle alors d’approche non supervisée), en fonction du jeu de donnée d’apprentissage soumis.

Comme le souligne Frédéric Brajon, Co-fondateur de Saegus en charge de la Data et de l’IA, cette phase critique est souvent sous-estimée : “l’attention est trop souvent portée sur la performance des modèles mathématiques ; mais les premiers biais, absolument majeurs, apparaissent dans les phases préparatoires. La pertinence des variables descriptives retenues bien-sûr, mais également la nature même des données d’apprentissage ; les données sont-elles représentatives du phénomène observé ? Y a-t-il un risque de discrimination dans l’échantillonnage retenu ? Un risque éthique ? Ces questions fondamentales sont souvent négligées, par manque de temps, limite de budget ou inexpérience. Or, le meilleur modèle mathématique produira toujours des recommandations biaisées s’il n’a pas appris sur une base solide. Par exemple, dans le cas de recrutements, si ma base d’apprentissage a une sur-représentation d’un genre ou d’une tranche d’âge, il y a fort à parier que l’algorithme “pénalise” les candidatures différentes (pas parce qu’elles sont moins pertinentes pour le poste, mais parce que l’apprentissage a montré que celles-ci étaient moins fréquemment recrutées dans le jeu de données).”

L’apprentissage des modèles est donc essentiel, et le champ des possibles est large : quelles caractéristiques définir pour recruter ou non un candidat ? Quel poids leur donner les unes par rapport aux autres ? Comment prendre en compte des notions subjectives (le feeling), ou non liées directement à la personne (un candidat possédant un peu moins d’expertise qu’un autre, peut-être meilleur pour le poste, en raison d’une compatibilité de caractère avec le personnel en poste). En ce sens, l’intelligence artificielle aura tendance à reproduire les mêmes recommandations, or la richesse humaine d’une entreprise tient également à sa multidisciplinarité et sa multiculturalité ; comment prendre en compte ces paramètres ?

Julien Cotte, Directeur des Talents de Saegus, appuie ce point : “l’essence même d’une entreprise est représentée par ses salariés dans toutes leurs singularités. Les idées viennent parce que nous sommes différents, parce que nous avons des expériences différentes et une vision qui nous est propre sur les sujets à adresser dans notre domaine de compétences. Si l’intelligence artificielle suit à la lettre les critères de sélection, deux biais peuvent apparaître : l’impossibilité de recruter car personne ne pourra répondre totalement aux exigences du poste et l’homogénéisation des salariés ce qui, au final, appauvrirait les compétences de l’entreprise. Certes, il s’agit d’une vision très négative de l’utilisation de l’intelligence artificielle mais c’est le risque que je vois si nous souhaitons aller vers le tout IA pour le recrutement. L’IA doit être un outil d’aide, pas la seule décisionnaire. Le manager doit prendre en compte son envie de travailler avec le candidat, le recruteur doit pouvoir identifier si la personne s’intègrera bien à la culture de l’entreprise. Tout cela, en prenant en compte que l’IA n’est pas infaillible et que l’homme non plus.”

Par ailleurs, les exigences de recrutement peuvent varier d’un pays à l’autre et d’une entreprise à l’autre. Il est donc légitime de se poser la question de savoir si un traitement d’IA mis au point au US sera pertinent en France ? Faut-il ré-entrainer les algorithmes en fonction du pays ? Du secteur ? De la culture d’entreprise ?

Enfin, l’expérience du candidat est également à prendre en compte. L’usage de l’intelligence artificielle, invisible, peut être déstabilisante. En Europe, tout candidat doit être informé de l’usage de l’intelligence artificielle dans le cadre de son entretien d’embauche, et donner son accord. On peut s’interroger sur la liberté d’accepter ou de refuser dont dispose réellement le candidat, et sur l’impact de sa décision sur sa candidature.

Un cadre légal qui s’impose

Face à ces possibles discriminations, un cadre légal est nécessaire et commence à se dessiner.

Face à ce phénomène, une proposition de loi a été déposée aux États-Unis, l’Algorithmic Accountability Act, mais n’a finalement pas été adoptée. Toutefois le débat est ouvert.

L’Europe est quant-à elle précurseur de la préservation des droits à l’usage des données personnelles avec la réglementation RGPD. Mais cette règlementation ne protège pas d’une potentielle dérive éthique. En effet, dans le cas cité en exemple (recrutement), l’analyse des données personnelles du candidat peuvent être totalement anonymisées et détruites post traitement (donc en conformité avec la loi), n’en reste pas moins le problème éthique.

En France, certaines commissions parlementaires se sont emparées de ce sujet, et proposeront à l’avenir des recommandations législatives pour encadrer l’éthique non pas de l’IA, mais des usages que l’on en fait.

Car c’est certainement là que se trouve la clé de la solution. Encadrer les usages plutôt que la technologie brute.

“Comme toute nouvelle technologie, il y a du bon et du moins bon. Il est donc essentiel que les pouvoirs publics se saisissent de ce sujet pour encadrer la pratique et permettre une utilisation saine et efficace. Que ce soit le recruteur ou le candidat, je reste persuadé que les nouvelles technologies comme l’Intelligence Artificielle vont permettre de renforcer la relation candidat/recruteur. La technologie avançant très vite, la législation se doit d’être agile et en veille permanent sur ce sujet”, souligne Julien Cotte.

L’intelligence artificielle, une voix décisionnelle ou secondaire ?

Quel poids faut-il donc donner à la recommandation de l’algorithme ? Sa voix doit-elle être décisionnelle ou secondaire ?

L’exhaustivité de l’Intelligence Artificielle la place en dehors de la logique et des spécificités humaines. Les possibilités qu’elle offre sont intéressantes et challengeantes, mais l’IA doit rester une aide. La décision finale doit être humaine, dans toutes les finesses que cela comprend. A minima, une action humaine sera toujours nécessaire à certaines étapes du processus, par exemple par le manager qui travaillera en lien étroit avec la personne recrutée.

Et inversement, l’objectivité de l’intelligence artificielle peut avoir un impact positif : si le recruteur dispose d’un biais négatif ou discriminant, l’IA peut au contraire le contre-balancer.

L’idéal serait de trouver une complémentarité entre l’Intelligence Artificielle et l’humain. La vision de remplacer l’humain par l’Intelligence Artificielle dans le domaine des ressources humaines ne semble pas être la bonne voie. Par contre, identifier les écueils de l’humain dans le domaine du recrutement (lecture trop rapide des CV, non prise en compte des lettres de motivation, fatigue lors d’un entretien, biais culturel…) reste une piste d’innovation et d’optimisation qui pourrait être bénéfique à tous.

Une autre évolution semble nécessaire à explorer : si les recruteurs se dotent de cette technologie, ne serait-il pas intéressant que le candidat puisse avoir le même outil à sa disposition ? Le candidat pourrait alors obtenir une recommandation de l’IA pour identifier si le manager qu’il rencontre semble correspondre à ses attentes, si la présentation de l’entreprise rentre dans ses critères…

Ainsi, toutes les parties prenantes pourraient avoir le même outillage pour mener leurs entretiens. N’est-ce pas ça la véritable innovation ?

Conclusion

Quelles perspectives donner à la place de l’intelligence artificielle dans les processus de recrutement ?  

Comme dans quasiment toutes les fonctions, l’IA a une utilité certaine dans le cadre des ressources humaines et doit être intégrée aux réflexions.

Le paradoxe est que pour rendre une IA réellement efficace… Il faut l’utiliser. On voit bien ce phénomène avec les services de reconnaissance vocale ou visuelle proposés par les GAFA (notamment avec les assistants personnels). Les commandes vocales étaient très succinctes il y a 10 ans, alors que maintenant l’on peut parler et dicter des messages en langage naturel avec son smartphone.

Le phénomène d’apprentissage sera le même avec le domaine RH, plus l’on soumettra des vidéos de recrutement à l’IA, plus son analyse sera pertinente dans la durée.

Par contre, il convient que le législateur harmonise un cadre éthique d’utilisation de ces outils (opt-in du candidat, sans qu’un refus de sa part n’élimine la candidature par exemple), et que chaque entreprise place l’utilisation de ces technologies à la place qui convient, en assistance et en complémentarité à l’humain, et non en remplacement total, particulièrement pour ces domaines ou l’informel, le « bien-être ensemble » et la confiance ont tant de valeur pour construire des équipes performantes et durables. Il est également souhaitable que les candidats puissent également bénéficier des avantages de l’IA afin de rendre l’exercice du recrutement le plus équitable possible.

Envie d’en savoir plus ? Retrouvez notre table ronde sur les enjeux de la reconnaissance faciale par l’intelligence artificielle avec comme invité d’honneur Didier Baichère, Député et Vice-Président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques. Pour vous inscrire , c’est ici !

Rédigé par Frédéric Brajon, Associé et Co-fondateur, et Julien Cotte, Directeur des talents

« La donnée est l’or noir du 21ème siècle » formule beaucoup entendue depuis l’avènement des technologies Big Data au début des années 2010. De grandes promesses, qui, si l’on s’en réfère à l’analogie pétrolière nécessite :

  1. de la matière première ;
  2. l’acheminement de cette matière (l’extraction) vers des unités de traitement (raffinage) pour la rendre utilisable ;
  3. une capacité à la distribuer pour la rendre accessible au plus grand nombre.

Le « véhicule » (produit de consommation) étant quant à lui caractérisé par les outils de visualisation, les applications métiers, ou des services. Ses interfaces doivent être savamment pensées pour garantir au « conducteur » une utilisation fiable, agréable et sécurisée.

Depuis longtemps les entreprises ont appris à traiter l’information interne générée par leur propre fonctionnement : activités de production (supply, fabrication), corporate (finance, RH, marketing,…), sales (CRM, ecommerce, ….) ou autres pour servir des usages également internes (Business Intelligence dans les années 90 et 2000, et maintenant Big et Smart Data). De fait, le marché de la « Data » était caractérisé comme un marché de solutions. Cette orientation est particulièrement bien représentée par les fameux quadrants proposés par Gartner, qui répertorient et classifient les éditeurs de logiciels (voir ci-dessous).

Et si nous imaginions une classification des distributeurs de données, qu’en serait-il ?

La distribution d’information n’est pas à proprement parler une nouveauté non plus. Depuis plusieurs années ce mouvement est porté par l’Open Data, dont les services publics ont été précurseurs avec la plateforme Open Data gouv. Des sociétés ont également fondé tout ou partie de leur modèle économique sur la revente de données, à l’image de sociétés telles que Duns and Bradstreet, Bloomberg, ou encore des spécialistes des données météo, dont Météo France.

Mais cela reste du point à point ; la donnée vendue par un distributeur à un consommateur en relation commerciale directe.

La prise de conscience collective que la donnée (y compris personnelle) est un marché à part entière favorise l’émergence d’un nouveau type d’acteurs – les « data plateformistes ». Cette prise de conscience est bien entendue fortement portée par l’action des GAFAM et BATX qui ont construit leur puissance sur la revente de données d’utilisation de leurs services. Cela a d’ailleurs conduit à la mise en place de règlementations (la RGPD en Europe par exemple) visant à protéger les personnes d’une utilisation abusive de leurs données personnelles.

Mais nous assistons à la montée en puissance d’un autre phénomène. La structuration des activités de « raffinage » et de revente des données sur des Data Market Place, véritables Hub de données B to B, B to C ou pourquoi pas C to B. Les fonds d’investissement ne s’y trompent pas et soutiennent ce mouvement. Nous pouvons citer à ce titre des plateformes telles que Refinitiv ou plus récemment des jeunes pousses françaises comme Dawex.

Des initiatives ont même émergé sur des marchés spécifiques, à l’image du service de notation de la santé des sols proposé par Greenback, fondé par le créateur de DeVialet, ou même l’investissement de l’État Français (financement de 3,2 M€ via la BPI) dans la plateforme AgDataHub qui partage les données numériques de 280 000 exploitations agricoles.

Fait particulièrement intéressant, ce mouvement a bien été compris est anticipé par des acteurs innovants du marché de la donnée, tel que l’éditeur Snowflake. Acteur majeur du big Data, et plus précisément des outils dits de « modern Datawarehouse », solution de stockage et de traitement de données nativement conçus pour le Cloud, Snowflake partage une vision très intéressante. Fort d’une adoption massive de sa technologie dans le monde entier, Snowflake propose à ses clients des services de « Data Sharing ». Il s’agit de la possibilité de publier nativement des données (et d’en acquérir) soit en point à point, soit en publiant ses données sur la bibliothèque d’échanges de données (Snowflake Data Market Place) de la plate-forme, à l’image de « First American Data & Analytics » qui vient d’y publier son catalogue.

Ce principe de Marketplace commence également à percer sur l’IA, et plus précisément via l’émergence de plateforme Low Code permettant d’accéder à des services de Machine Learning pré-packagés (tels que Azure Cognitive Services, Prevision.io, en encore Dataiku qui enrichit sa bibliothèque) – nous creuserons cet aspect dans un article à venir.

Les solutions se structurent, mais les entreprises seront-elles capables de s’approprier et de créer de nouveaux services en mettant à disposition leurs données ?

Quels nouveaux usages observons-nous ?

Pour rester sur des analogies avec le marché de l’énergie, quittons l’or noir pour nous pencher sur l’énergie solaire. Nous observons une transformation profonde des usages, dans lesquels les consommateurs d’hier deviennent des « micro » producteurs, partiellement autonomes, voire totalement autonomes, parfois même excédentaires – auquel cas le surplus d’énergie est revendu pour être redistribué.

Cette démocratisation des fonctions de partage ou de distribution des données via des marketplaces est similaire.  Les entreprises productrices de données peuvent revendre leur « surplus » d’information, ou même créer des services spécifiques de données « prêtes à l’emploi » (comme GreenFlex dont la valorisation des données est le produit principal). La donnée n’est plus uniquement la source, elle devient le produit.

Comment se structurera le marché ?

Il est encore difficile d’imaginer une marketplace qui dominerait le marché mondial de l’échange de données, même si cette option n’est pas à exclure à long terme (vers un « Amazon du Data set ? »). Il nous semble plus probable que nous voyions émerger dans un premier temps multitude de « commercialisateurs » à l’image du e-commerce. Il est facilement imaginable que chaque entreprise crée une offre « donnée » accessible sur son site institutionnel ou e-commerce.

Le défi à relever sera alors l’exposition et le référencement de ces catalogues de données ainsi que les modèles économiques qui en découleront (à l’unité, au To, à la requête, à l’abonnement).

Les marketplaces révèleront alors tout leur potentiel puisqu’elles pourront garantir une meilleure exposition, la gestion financière des transactions, une couverture juridique, et pourquoi pas proposer des services additionnels (bouquets de données complémentaires ou recommandations / priorisation de jeux de données en fonction de leur intérêt fonctionnel, note de qualité, prix, feedbacks utilisateurs, etc).

Il serait même opportun d’associer deux types de services : l’accès aux Data Sets, plus un service d’IA (low code) qui permettrait de le valoriser ou de contextualiser l’information, et d’en faire bénéficier de plus petits acteurs (PME, ETI,…) qui n’ont pas la capacité d’investissement suffisante pour s’équiper en interne.

Un mouvement lancé…

Les solutions existent, le besoin de consommation également ; donc même si les entreprises sont encore réticentes à l’idée « d’ouvrir » leurs assets, gageons que la loi du marché s’appliquera à nouveau. Si la demande existe ; l’offre se structurera rapidement. C’est en tout cas notre conviction, et la raison pour laquelle nos experts Saegus accompagnent d’ores et déjà de grandes entreprises et organisations à prendre ce virage et à réfléchir à de nouveaux modèles.

Rédigé par Frédéric Brajon, Associé et Co-fondateur de Saegus

L’expérience salarié est un enjeu majeur depuis quelques années car les comportements et les attentes des collaborateurs continuent d’évoluer au rythme des nouvelles générations et des enjeux sociétaux.  

Il est admis qu’il est primordial que la relation entre les salariés et l’employeur se doit d’être de très bonne qualité pour favoriser l’engagement, l’efficacité, la performance et la fidélisation des talents. Cela se caractérise par la recherche permanente, pour tout dirigeant, de personnaliser le management, d’être à l’écoute tout en donnant un cadre suffisamment flexible pour que le talent se sente bien dans son job et dans son entreprise.  

Les confinements successifs ont mis à rude épreuve l’expérience salarié. Certes, nous pouvons toujours être à l’écoute et bienveillant. Mais la crise sanitaire et le télétravail imposé ont changé de fait la donne.  

L’un des défis particulièrement difficiles à relever a été celui du maintien du lien social. Cette dernière année, nous avons pu avoir l’impression que celui-ci se détériorait. Nous parlons en permanence de distanciation sociale (alors qu’il s’agit plus d’une distanciation physique) et les consignes sanitaires nous imposent de limiter voire d’annuler tous les moments conviviaux. Comment, dans ce cadre, favoriser le sentiment d’appartenance  ? Comment créer les liens nécessaires à une bonne entente au sein d’une équipe  ?  

L’expérience salarié a donc pris un nouveau virage, à savoir celui d’intégrer de plus en plus la digitalisation du lien social en complément des pratiques que nous connaissions habituellement en présentiel.  

Chez Saegus, nous avons toujours mis l’accent sur plusieurs axes essentiels à notre culture de cabinet de conseil, à savoir : la convivialité, le partage, l’échange, la proximité du management avec les équipes, un discours franc, l’excellence et le fun. Restait à être agile et proposer des actions qui regroupent aussi tout cela sous format digital. Et le digital nous connaissons ! 

Les premières initiatives mises en place ont vu le jour rapidement pour garder le lien sous l’angle du fun, de la détente et de l’échange.  

Le Saegus Café  

Le concept  ? un channel Teams « Chill & Fun » pour se retrouver, même à distance. Une blague à partager, prendre un café à distance, meeting instantané, ce challenge est devenu notre machine à café virtuelle.  

Le Challenge Culinaire 

Chez Saegus, la convivialité est une valeur primordiale, quoi de mieux qu’un challenge culinaire  ! surtout que nous avons de talentueux chefs parmi nos consultant.es. 

Le concept  ? je laisse Marie-Laure présenter son idée  : 

Les managers se sont également organisés. Ils ont planifié : 

  • Des points d’équipes hebdomadaires 
  • Des points d’échanges individuels  
  • Des afterworks digitaux avec des jeux en ligne  
  • Des séances de micro learning le temps d’un déjeuner 

Ils ont également maintenu certains événements qu’ils avaient l’habitude de réaliser notamment les Workplace Bar qui sont un moment d’échange pour parler des tendances du digital workplace avec la participation de partenaires ou de solutions innovantes.  

Au-delà de ces initiatives, il était important pour nous de ne pas perdre la relation privilégiée qui existe, depuis la création du cabinet, entre les associés et les équipes. Nous avons toujours mis un point d’honneur à être transparent avec les Saegusien.nes, à intervenir régulièrement pour présenter notre ambition et favoriser le dialogue et les échanges. Il a donc été tout naturel de mettre en place un moment privilégié où Marc Trilling, notre CEO, a pris la parole pour évoquer nos réflexions, les actions entreprises pour notre croissance et pendant la crise.  

CEO Taelk 

Le concept ? via un live event Teams, nous prenions la parole avec Marc pour faire un point de situation sur le cabinet et sur la situation sanitaire, suivi de séances de questions / réponses durant lesquelles nous avons répondu à toutes les questions sans exception.  

Programme des Buddys 

Le concept  ? chaque nouveau Saegusien suit un parcours de onboarding en intégrant notre cabinet. Dès le premier jour, un Buddy est nommé pour prendre sous son aile le nouveau consultant. Au programme, un échange autour d’un café digital, une présentation de Saegus et un accompagnement des premières semaines d’intégration pour faciliter la découverte du cabinet. Durant le confinement, nous avons relancé le programme en l’adaptant et le renforçant. C’est un succès car nous avons désormais une communauté d’une 10aine de Buddy volontaires et nommés pour un an.  

Cérémonie des promotions 

Le concept ? chaque mois de décembre, nous avons la tradition de fêter les promotions internes. En 2020, nous avons réalisé la cérémonie via Teams. J’appréhendais car je me demandais si à distance nous allions réussir à créer un engouement, un moment de partage, de fierté…nous avons donc : 

  • Envoyé un cadeau à chaque Saegusien.ne pour les mettre dans l’ambiance (il ne devait le sortir du frigo qu’au lancement de la cérémonie) 
  • Travaillé la cérémonie autour des différentes interventions afin d’en faire un moment d’exception  
  • Gamifié ce rendez-vous grâce à un concours vidéo 

Pour réaliser cet événement, j’ai été accompagné des experts Saegus du Workplace et d’Acceleration Tactics qui maîtrisent parfaitement ces animations…et ce fût un succès  ! Les promu.e.s ont pu s’exprimer. Entre les félicitations et les GIF, la conversation Teams a explosé.  

En ce début d’année 2021, nous avons décidé de relancer également 2 programmes phares de Saegus : la Team Anim et le SaegUp.  

La Team Anim 

Le concept  ? une équipe de consultant.es est élue pour un mandat d’un an durant lequel elle aura comme objectif d’animer la convivialité du cabinet. Les élections vont avoir lieu en avril 2021 et la nouvelle équipe va devoir relever le challenge de proposer un programme innovant et hybride entre du présentiel (lorsque cela sera possible) et digital. Hâte de voir les propositions des équipes qui se présentent aux élections, car c’est à chaque fois une surprise de voir le talent de nos Saegusien.ne.s dans la créativité de ces projets / programmes d’animation qui dépassent souvent nos attentes.  

Le SaegUp 

Le concept  ? Une réunion mensuelle qui réunit l’ensemble des Saegusien.nes durant laquelle chacun peut proposer des sujets : un retour d’expérience mission, une idée, une démonstration d’une réalisation…le principe c’est de partager les bonnes idées, les bonnes pratiques et de garder le lien entre nous. La nouvelle formule du SaegUp a vu le jour le 8 avril dernier, format digital réunissant l’excellence et le fun ! Le SaegUp est en sommeil, vive la SaegUp TV qui a réuni pendant une heure des interviews, des flash infos, la météo de notre business.  

L’expérience salarié est clé pour Saegus et l’est encore plus aujourd’hui où le contexte ne facilite pas les échanges et la convivialité. C’est pourquoi nous allons continuer à proposer de nouvelles choses et nous réinventer. Notre dernière idée  ?  

Le Live Cooking Time 

Le concept ? Un chef Saegusien (ou non) partage une recette avec une dizaine de personnes, fourni la liste de course, les ustensiles nécessaires et montre en direct comment réaliser la recette. Le premier événement de ce type a eu lieu le 1er avril dernier et ce fut un succès grâce à notre associé David Guedj qui s’est prêté au jeu et nous a proposé une salade de canard à l’orange revisité et un hachis parmentier de canard et pain d’épice. Un moment très convivial et un régal pour les Saegusien.nes et leurs familles. 

Rédigé par Julien Cotte, Directeur des Talents, Saegus

A travers son département Acceleration Tactics, Saegus accompagne les organisations (équipes, projets, programmes) dans leur transformation agile.  

Parce que nous sommes convaincus des bénéfices de l’agilité au sein des organisations, nous avons interrogé Aurore, Manager au sein du département Acceleration Tactics, pour qu’elle nous parle de son quotidien de Coach Agile et PMO auprès d’équipes métiers et IT.  

Interview d’Aurore, Manager Acceleration Tactics chez Saegus

Je suis Aurore Pinel et j’ai rejoint Saegus il y a 5 ans.

Je suis aujourd’hui Manager sur des missions impliquant des accélérateurs méthodologiques tels que l’Agile, le Design Thinking, le Lean Startup, … et je suis également Responsable du centre de formation Saegus Institute.  

Depuis près d’un an, j’interviens en tant que Coach Agile auprès d’un acteur du secteur Cosmétique. J’ai à ce titre construit le cadre de travail agile le plus adéquat pour le projet et je m’assure de sa bonne mise en pratique auprès de l’ensemble des parties prenantes. Mon accompagnement a rapidement évolué vers un rôle de PMO Agile (Project Management Officer) pour assurer avec mes clients le pilotage et le suivi du projet. 

Peux-tu nous décrire un peu plus le contexte dans lequel ton accompagnement de PMO Agile s’inscrit ?  

J’interviens dans l’entité de Recherche et Innovation d’un acteur de la Cosmétique. Le projet a pour objectif de rendre ce centre de R&I le plus compétitif de l’industrie de la beauté en outillant le pilotage de portefeuilles de leurs projets.  

Pour répondre à cette ambition, le projet implique avant tout d’aligner les équipes Métiers et les équipes IT. Le cœur du groupe projet est constitué de 20 personnes travaillant quotidiennement sur une  quinzaine  de  thématiques priorisées au démarrage du projet, représentant nos  Epics  (scoring des projets, digitalisation des budgets, saisie des temps des collaborateurs, KPIs, …). 

Pour ce projet d’envergure, mon rôle de Coach Agile et de PMO a été clé sur l’organisation du projet. Mais il n’est pas le seul à contribuer à la facilitation du projet : j’ai la chance d’être accompagnée par Pierrick, Consultant de mon équipe, qui intervient en tant que Change Manager sur la mission afin d’assurer l’adoption des évolutions mises en œuvre. Je suis également accompagnée de Marouchka, Manager au sein de l’équipe, qui en tant que Proxy Product Owner, traduit les évolutions souhaitées par le Métier en items prêts à être traités par les développeurs. 

Peux-tu nous en dire un peu plus sur la mise en place de ton accompagnement ? 

3 grandes étapes se sont succédées depuis que nous collaborons sur ce projet :  

  1. Analyser l’existant (l’organisation, les processus, les interactions, etc.) afin de définir la gouvernance Agile la plus adaptée au projet, sensibiliser les sponsors aux bénéfices de l’agilité et former l’équipe cœur à l’Agile.   
  2. Lancer le projet et les premiers sprints selon la gouvernance définie, engager l’équipe sur les ateliers, mettre en production et communiquer les victoires. Mesurer et partager la performance et la progression du projet, préparer les grandes instances de pilotage pour accélérer la prise de décision.  
  3. Formaliser l’organisation de la phase de Run pour les premières Epics terminées : détailler les processus de récolte des retours utilisateurs, de résolution de bug ou d’évolutions à venir. 

Comment l’adoption de cette nouvelle façon de travailler a été faite ? 

Nous sommes évidemment passés par une phase de formation qui est clé pour initier à l’Agile et aligner les parties-prenantes sur le vocabulaire et l’approche. Le kick-off du projet notamment est selon moi indispensable pour créer une cohésion d’équipe forte. Le succès d’un projet vient de l’équipe ; animer l’engagement de l’équipe est de la responsabilité du PMO.  

Mais ce qui reste déterminant dans la réussite de ce type de démarche est l’accompagnement au quotidien des équipes pour maintenir la rigueur induite par ce cadre de travail. 

Est-ce que vous avez dû adapter le cadre de travail que vous utilisez ?  

Les cadres de travail Agile sont pour moi des leviers d’inspiration. Chaque équipe, projet, programme est différent et chaque recette créée doit donc être pensée sur-mesure pour le contexte que l’on adresse. 

Pour ce projet, le cadre de travail Scrum a été retenu avec un certain nombre d’adaptations :  

  1. L’ajout d’une instance de « WIP » (Work In Progress) : nous faisons un pré-visualisation avec l’ensemble des parties prenantes des développements à une semaine de la fin du sprint pour revoir le travail en cours, et effectuer si besoin des corrections avant la review. Cela nous permet d’assurer un taux élevé de complétion des items du Backlog, et de garantir des dates de mises en production fixes.  
  2. La mise en place d’un « buffer » pour les Développeurs, correspondant à 10% de leur temps de disponibilité sur le sprint : comme les sprints durent 4 semaines, cela nous permet de gérer les imprévus en cours de sprint et une meilleure adaptation au changement si besoin. 
  3. L’animation d’ateliers pour alimenter le Product Backlog : ce type d’atelier, reprenant des méthodologies de Design Thinking,  est indispensable pour aligner l’équipe sur les processus et évolutions à apporter à chacune des Epics. Bien que ces instances ne soient pas formellement décrites dans la théorie du cadre de travail Scrum, elles représentent pourtant près de la moitié du temps de travail de l’équipe. En effet, ces ateliers de 3 heures sont planifiés deux fois par semaines et permettent de récolter suffisamment de matière pour alimenter les futurs Sprints. Si la co-construction est indispensable pour engager les équipes, c’est aussi un premier levier d’adoption avant même la mise en production des évolutions. Ces instances sont aussi de bons leviers pour entretenir la cohésion d’équipe via des ice-breakers et end-breakers qui permettent de finir les sessions de travail sur une note positive ! 

Comment accompagnes-tu au quotidien ? Peux-tu nous décrire une journée type ?  

Je n’ai pas de journée type, cependant, j’ai bien des semaines types.  

Chaque semaine est rythmée par des instances fixes, ce qui permet de réduire la complexité aux yeux de l’équipe. Je connais l’ensemble des actions que je dois effectuer au cours de la semaine, ce qui simplifie également mon organisation.

J’ai globalement 3 cibles d’actions :  

  • Les développeurs, au travers des instances type Dev Meet-up, Sprint Review et Retrospective, 
  • Les métiers avec les ateliers de co-construction et d’alignement, 
  • Le Product Owner pour partager l’état d’avancement du projet et communiquer nos victoires à l’ensemble de l’organisation. 

Nous avons une vitrine Sharepoint pour communiquer largement sur le projet. Mais au sein de l’équipe, la  collaboration  passe  principalement  par Microsoft Teams et Azure Devops pour la gestion du backlog avec les développeurs.  

Quels leviers utilises-tu ?  

J’utilise principalement les leviers de l’Agile pour l’organisation du projet. Pour les ateliers de groupe, je m’inspire d’approches orientées utilisateurs telles que le Design Thinking ou d’autres techniques d’Innovation. Comme les autres consultants de mon entreprise, je capitalise l’ensemble de mes apprentissages dans La boîte à outils du PMO Saegus qui est un réel accélérateur pour ma mission. Il s’agit d’un agrégateur de bonnes pratiques et de modèles prêts à l’emploi relatifs à chacune des activités du PMO.  

Au quotidien, je me considère comme super facilitateur, organisateur ou encore aligneur.  

Mon challenge est de maintenir un rythme constant sur le long terme, avec une équipe positive et orientée vers le résultat. Mon indicateur de réussite, c’est d’enlever toute charge mentale à mes clients : cela sous-entend que le projet est sous contrôle ! 

Quels sont les challenges que tu as rencontré ?  

Sans surprise, la situation sanitaire. Nous avons eu la possibilité de réaliser seulement 2 ateliers en présentiel depuis le début du projet. Or, nous savons que le lien humain en Agile est plus qu’important.  

Nous nous sommes adaptés pour continuer de délivrer le projet à distance, mais la charge associée à la préparation des ateliers sur des outils tels que Klaxoon, Miro… n’est pas à négliger. L’engagement des équipes à distance a été et reste mon challenge quotidien. 

Le second challenge a été de faire comprendre à l’organisation que l’Agile n’est pas égal à résultats immédiats. Nous avons adopté une démarche de co-construction sur chaque Epic pour s’assurer que les évolutions apportées soient viables dans le temps, éviter à tout prix les « quick wins » qui nécessitent un double travail. Cette démarche est consommatrice de temps, mais est payante sur le long terme : elle permet d’éviter de revenir sur des changements lourds et d’assurer la viabilité sur le long terme.  

Le binôme Change Manager et PMO a été clé pour assurer l’adoption de l’ensemble des sujets traités dans le projet IRIS.  

Souhaites-tu ajouter quelque chose ?  

Cette mission a de nouveau prouvé le rôle indispensable du PMO sur un projet ou un programme. Mais pas n’importe quel PMO, le « nouveau » PMO. Celui qui fait face à de nouveaux challenges :  

  • La complexité croissante​ due à l’explosion du nombre de projets, la gestion de leurs dépendances, la multiplicité des acteurs, le besoin d’internationalisation, etc;
  • La nécessité de comprendre les problématiques techniques face à des projets incluant des technologies de plus en plus complexes.;
  • La démocratisation massive du travail à distance, que ce soit par la prise en compte des pratiques d’offshoring ou l’impact de la crise sanitaire;
  • La flexibilité accrue​ via la généralisation des pratiques agiles au niveau des équipes, induisant de nouvelles façons de piloter et organiser des projets;

Les missions du nouveau PMO se sont considérablement élargies, requérant des profils capables d’apporter une vision produit ou sectorielle. ​ Le PMO n’est plus qu’un simple coordinateur devant réduire le triptyque coût-qualité-délais. Il doit plus que jamais challenger, idéer, faire évoluer les sujets traités… pour favoriser l’augmentation du retour sur investissement des projets. 

En somme, un bon PMO doit donc être bien formé, préparé et outillé ! 

Si vous souhaitez vous aussi être accompagné par nos équipes Acceleration Tactics dans vos projets de transformation agile, n’hésitez pas à contacter nos expert·e·s Accélération Tactics ! 

Rédigé par Roxane Meyer, Consultante Acceleration Tactics 

Avec ses 50 millions d’utilisateurs, Trello est un logiciel de gestion de projet largement adopté qui s’inspire du modèle Toyota et la méthode Kanban (principe de tableaux avec des listes et des cartes). 

Grâce à sa simplicité d’utilisation, Trello s’est retrouvé au cœur des projets de plusieurs milliers d’entreprises ainsi que dans le quotidien des particuliers grâce à sa formule freemium.  

Logiciel créé en 2011 et racheté par Atlassian en 2017, Trello s’offre pour ses 10 ans de nouvelles fonctionnalités ainsi qu’une nouvelle identité visuelle. De la vue micro à la vue macro en un clic ou encore la gestion de plusieurs projets en même temps grâce à une vue personnalisée, les abonnés détenteurs des versions Business Class et Entreprise vont avoir pléthore d’options pour manager leurs projets.  

5 nouvelles vues, des nouvelles cartes et des améliorations diverses et variées, voici ce que propose Trello depuis peu… et ce n’est pas fini !

À quels cas d’usages ces 5 nouvelles vues s’adressent-elles ?

Comment planifier la vue d’un projet, les objectifs d’une équipe ?

Obtenir une vue d’ensemble des objectifs de l’entreprise peut paraître ardu, surtout lorsque l’on souhaite planifier les priorités des prochains mois voire des prochains trimestres.

La vue chronogramme, qui ressemble à un planning de Gantt, vous permet de visualiser rapidement les priorités sur les mois à venir et ajuster les objectifs en répartissant les ressources équitablement. 

Comment gérer les ressources d’une équipe, d’un ou plusieurs projets ?

S’assurer que chaque collaborateur possède une charge de travail en accord avec ses capacités est en enjeu rencontré par beaucoup de managers. Il est encore plus compliqué lorsque ce collaborateur travaille sur plusieurs projets en même temps.

La vue Tableur permet de suivre les tâches de tous les projets sélectionnés. Selon les filtres effectués, il est possible de sélectionner et trier sur des collaborateurs précis pour identifier leur charge de travail et ainsi anticiper des risques et faciliter la prise de décisions.

Comment piloter et suivre son projet ?

Les images (et les graphiques) valent mille mots.

La vue Tableau de bord vous permettra de mieux piloter votre projet grâce à des données et indicateurs créés automatiquement.  
Vous pouvez, en un coup d’œil, voir l’état d’avancement de votre projet en comptabilisant les tâches « en cours » ou « finies » ou encore la répartition d’assignation. Mais libre à vous de personnaliser vos graphiques pour faire apparaitre les indicateurs les plus pertinents pour votre projet.  

Quelles sont les priorités du mois, de la semaine voire même du jour ?

La vue Calendrier facilite la planification des activités d’une équipe ou d’un projet en offrant une vue sur les échéances et les délais accordés à des tâches spécifiques. Cette vue permet d’apercevoir rapidement les tâches critiques à réaliser dans un projet.  

Au-delà de la gestion de projet, cette vue répond à de nombreux cas d’usages tels que la gestion de calendriers éditoriaux d’équipes Marketing pour planifier les contenus à rédiger et publier ou la gestion de candidatures d’équipes RH.  

L’utilisation de la vue Calendrier est simplifiée pour ajuster les dates limites et délais associés aux tâches grâce à un simple glisser-déposer.

Comment des métiers à forte mobilité peuvent gérer leurs activités ?

La vue Localisation, par exemple, est dédiée aux usages liés à la géolocalisation pour suivre des tâches et les visualiser sur une carte. Fonctionnalité très pratique dans le secteur de l’immobilier pour suivre la vente de propriétés selon leur emplacement géographique ou par des équipes commerciales devant gérer leurs déplacements.

L’avis de l’équipe Acceleration Tactics sur les nouvelles vues

Trello avait débuté son évolution avec la mise à disposition des Power-Ups permettant d’agrémenter les tableaux pour couvrir un certain nombre de cas d’usages comme la personnalisation de champs ou encore l’automatisation. Mais grâce à ces dernières évolutions, Trello vient s’affirmer sur le marché comme véritable challenger en comblant les limitations qui empêchaient son utilisation à l’échelle sur des projets complexes. La solution marque un tournant en intégrant nativement des fonctionnalités nécessaires pour la bonne gestion de projet, quel que soit le secteur ou métier.

3 nouvelles cartes viennent également enrichir les possibilités de gestion de l’information au sein des tableaux : quelles sont leurs valeurs ajoutées ?

Une multitude de logiciels tiers sont sur le marché et beaucoup d’entre eux sont utilisés en parallèle de Trello pour augmenter la productivité.  

Les cartes liées permettent de centraliser l’ensemble des ressources du projet et de l’équipe grâce à l’intégration de liens directs dans les cartes. Il est maintenant possible d’ajouter simplement un lien Youtube de la dernière vidéo d’entreprise, ou bien des documents stockés sur Dropbox ou Google Drive.  

Créer un tableau composé de tableaux ?  

Les cartes Tableaux remplissent parfaitement ce rôle pour retrouver tous les tableaux liés à un même projet au sein d’un même tableau. Par exemple, dans une campagne marketing, vous pouvez référencer d’autres tableaux relatifs aux ressources provenant des autres départements.  

Des cartes se mettant automatiquement à jour lors d’une modification dans un autre tableau, c’est l’une des fonctionnalités les plus demandées.  

Les cartes Miroirsont là pour vous faire gagner du temps. Cela signifie que les membres d’une équipe qui travaillent sur différents tableaux seront toujours au courant des dernières informations sur un projet qui les concerne tous, car les cartes miroirs seront automatiquement mises à jour en même temps que la carte originale. (Fonctionnalité disponible dans les prochains mois) 

L’avis de l’équipe Acceleration Tactics sur les nouvelles cartes 

Un point de douleur de la gestion de projet est la dispersion des informations que Trello vient contrer en offrant de consolider les informations en un endroit unique. Trello a bien compris les besoins de ses utilisateurs de gestion multi-projets pouvant impliquer de multiples équipes, nécessitant de la transparence d’information à jour, ainsi que celui de référencer les ressources provenant d’autres logiciels à travers ses nouvelles cartes. Des fonctionnalités attendues qui rendront l’outil indispensable à notre quotidien !

Les multiples tableaux auquel un individu accède peuvent complexifier la gestion quotidienne et l’accès à l’information.   

La nouvelle barre latérale est là pour une meilleure expérience de navigation. Elle est organisée par espace de travail et chaque espace de travail a ses propres tableaux. Vous pouvez y voir vos tableaux favoris, les vues d’équipe et tous vos tableaux. (Fonctionnalité en cours de déploiement)

L’avis de l’équipe Acceleration Tactics en conclusion 

À travers ces évolutions majeures, Trello, jusque-là répondant à des cas d’usages précis, se développe et répond à un plus grand nombre de besoins. Initialement limité à des tableaux de visualisation de tâches simplifiés, Trello évolue vers un produit de gestion de projet et se différencie des autres acteurs du marché, notamment par la synchronisation cross-projet. Nous avons hâte de suivre l’évolution de cet outil !

Pour en savoir plus, et pour vous former à Trello, n’hésitez pas à contacter nos expert·e·s Accélération Tactics !

Rédigé par Claire Ducreux, Consultante Acceleration Tactics.

Crédits photos : © Trello Inc

Si le principe de travail hybride n’est pas nouveau, il a récemment connu une nouvelle impulsion. La crise sanitaire a provoqué un profond bouleversement dans l’organisation du travail en entreprise, nécessitant la mise en place de nouveaux usages. Les meetings dits  hybrides, distanciels et présentiels, se sont développés. Dans un même temps, les outils qui permettent de les mettre en place se sont déployés. Grâce à leur utilisation, il est possible de travailler sereinement, à distance comme en entreprise, sans perdre en productivité et en rendement.

#1 La mise en place de nouveaux usages

Travailler en hybride implique l’utilisation d’outils adaptés permettant de capitaliser les méthodes de travail mises en place, puis de les pérenniser. En télétravail, un bon équipement (ordinateur avec webcam, casque de qualité avec micro), et la possibilité de pouvoir accéder à distance aux données de l’entreprise sont essentiels. Dans un même temps, la simplification des outils de travail permet une meilleure collaboration des équipes entre elles, et donc d’optimiser la productivité. Les applications interactives telles que Whiteboard, Klaxoon, Forms ou Planner facilitent ce travail en équipe. Le déploiement offert par Teams est intéressant pour les meetings à distance, auxquels il apporte une fluidité et une sécurité optimales. Pour des réunions à plus grande échelle, Live Event est particulièrement adapté. 

Pour être simple et efficace, l’expérience de travail doit être intégrée à un environnement plus global. En effet, si les moyens mis à disposition en entreprise ne permettent pas de travailler de manière performante, le développement du travail hybride ne sera pas concluant, entraînant à terme un désintérêt pour l’utilisation des outils déployés. Par le phygital, l’organisation des réunions à distance est simplifié, ce qui est d’autant plus nécessaire aujourd’hui car les équipes sont souvent réparties à travers le monde.

Pour assurer la performance et la productivité des collaborateurs, la configuration et l’équipement des salles en entreprise devient donc essentielle. Depuis l’apparition du Cloud, les terminaux traditionnels comme l’ordinateur, devenus de simples transmetteurs d’information, ne sont plus aussi indispensables qu’avant. Les Microsoft Teams Rooms offrent par exemple une meilleure expérience de collaboration  : équipées de caméras directionnelles (que vous pouvez découvrir chez Saegus ici) et pouvant être complétées par des outils comme le Surface Hub, ces salles permettent de mieux communiquer et échanger tous ensemble. Les logiciels tels que Klaxoon, Miro ou Foreseeds, utilisant la gamification pour accroître l’intelligence collective, complètent cette expérience hybride du travail.

#2 Les bonnes pratiques

L’engagement de tous les collaborateurs est nécessaire à la réussite de cette expérience de travail globale. Il faut accompagner et former chacun à l’utilisation de ces outils, afin que les méthodes de travail mises en place soient bien ancrées. Des temps de formation doivent être envisagés, et des espaces d’échange créés afin de pouvoir discuter des difficultés rencontrées. Dans les Microsoft Teams Rooms, des supports explicatifs et des cas d’usage peuvent être mis à disposition. En favorisant cette adoption à long terme, la productivité sera maintenue en distanciel comme en présentiel.

Piloter ou participer à des meetings hybrides  de qualité peut se révéler ardu, car ils peuvent aussi faire perdre le contact entre les collaborateurs d’une équipe. L’organisation et la durée idéales pour conserver l’attention de chacun sont des points à réfléchir. Pour répondre à ces problématiques, les principes de l’agilité et de la transparence permettent de mieux travailler en équipe. Il est important d’avoir une bonne prise de contact avec les membres de son équipe en étant disponible et en échangeant régulièrement avec eux afin de connaître l’avancée de leurs projets. Il faut aussi veiller à donner de la visibilité sur le travail réalisé pour clarifier certains points, reformuler une demande ou s’assurer de la bonne compréhension d’une tâche donnée. Cette transparence est nécessaire afin de bien faire avancer chaque projet.

#3 Maintenir le relationnel

Pour maintenir un bon relationnel avec ses collaborateurs, plusieurs habitudes peuvent être adoptées. Il est important d’activer sa caméra, notamment lors de meetings avec des personnes que l’on rencontre pour la première fois. Afin de gagner en efficacité, il est préférable d’inviter exclusivement les personnes concernées par les sujets abordés, et de poser des questions ouvertes afin de ne pas monopoliser la parole. En équipe, des temps de partage informel, permettant d’échanger sur la semaine de chacun, peuvent être bénéfiques. En créant ces moments privilégiés, il est possible de mieux échanger ensuite sur les projets, les points d’alerte et les succès. Il convient également de respecter les temps de travail de chacun, en ne prévoyant pas de meeting pendant la pause déjeuner ou après les horaires habituels. Lorsque cela est possible, le maintien d’espaces physiques de rencontre s’intègre pleinement à ces pratiques.

Le mode de travail en hybride, véritable accélérateur de l’efficacité collective, accompagne un changement profond des méthodes et pratiques à tous les niveaux d’une organisation. Dans ce cadre, les pratiques managériales doivent également être transformées. C’est d’ailleurs un enjeu fondamental aujourd’hui : bien piloter et accompagner des équipes (pouvant travailler complètement à distance), afin de veiller à leur bien-être et s’assurer de leur engagement et de la qualité du «  delivery  ».

Cet article vous intéresse ? N’hésitez pas à nous contacter ou à en découvrir davantage sur notre blog !

Rédigé par Khaled Loumi, Manager Digital Workplace, et Laura Jimenez, Consultante Digital Workplace.