Ici archive

Entre aversion et adoption, comment le télétravail a-t-il été reçu par les Français·e·s ? Quels outils ont-été utilisés ? Quelles tranches d’âge sont les plus convaincues ?

Les Français·e·s et le télétravail

Marc Trilling, président de Saegus, est revenu sur ces questions dans l’émission Tech&Co de François Sorel sur BFM Business, ce mercredi 3 mars.

Au programme, les Français·e·s face au télétravail : en partenariat avec Odoxa, une enquête a été menée auprès d’un échantillon de plus de 2 000 personnes interrogées sur leurs habitudes durant cette période de crise sanitaire.

Un peu plus d’1 Français·e sur 5 a expérimenté le télétravail (22%) pendant plusieurs jours depuis le début de la crise sanitaire. Ce chiffre varie selon les catégories de métiers, les régions et l’âge.

L’année que nous venons de vivre a constitué une expérience grandeur nature du télétravail. Du jour au lendemain, les entreprises ont dû organiser la pratique sans avoir pu s’y préparer. Malgré ce télétravail contraint plus que choisi, 80% des Français·e·s en ont une bonne image, mais ce chiffre chute nettement chez les 18-24 ans.

Les logiciels et accès à distance ont été largement déployés : 2 télétravailleur·se·s sur 3 ont pu disposer de moyens matériels fournis par leur entreprise. Cependant, 36% des télétravailleur·se·s n’ont pas eu à disposition les moyens matériels nécessaires.

« 2020 a été l’année du déploiement du digital workplace et des outils de collaboration. Il s’agit encore d’un sujet d’actualité, qui dépasse ce cadre : les télétravailleur·se·s veulent une expérience employée globale et une plateforme adaptée pour la soutenir », précise Marc Trilling.

Efficacité, charge de travail, avenir du télétravail… Marc Trilling met en perspective ces résultats avec une réflexion plus globale sur la place de la transformation digitale dans les entreprises : retrouvez le replay de l’émission ici et téléchargez l’intégralité de l’étude ici.

La plus grande entrée en bourse de l’année 2020 a eu lieu le 16 Septembre dernier, celle de la licorne californienne, fondée par deux français ; Snowflake, une étape pourtant logique lorsqu’on se penche sur la croissance vertigineuse de l’entreprise ces deux dernières années (cf. graphique ci-dessous).

Afin de mieux comprendre la popularité de cette solution je propose dans ce premier article de présenter rapidement Snowflake :

  • Nous expliciterons un des concepts phares de Snowflake : les virtual warehouses ;
  • Puis nous nous pencherons sur la tarification ;
  • Enfin, nous regarderons la performance de Snowflake par rapport aux autres principaux acteurs du marché.

#1 Présentation et architecture

Snowflake est une solution Software-as-a-Service qui propose un Data Warehouse reposant entièrement sur une infrastructure cloud. Pour rappel, une solution SaaS ne nécessite en outre aucune installation physique ou virtuelle de matériel ni de logiciel. Tout est installé, configuré et mis à jour dans le cloud, et aucun frais de maintenance n’est à prévoir : cette partie est entièrement gérée par Snowflake. Aussi, une interface très simple à prendre en main est proposée clé en main par l’éditeur, comme illustré ci-dessous.

La principale force de Snowflake repose sur son architecture hybride qui combine deux éléments :

  • La simplicité d’utilisation des bases de données traditionnelles à disques partagés (shared-disks), où toute la donnée est centralisée sur un disque et partagée entre tous les noeuds. Néanmoins cette architecture est difficilement scalable car le serveur aura tendance a vite être saturé dès que les données seront requêtées simultanément par plusieurs noeuds ;
  • La performance des architectures dites « shared-nothing » qui s’appuient sur des traitements massivement parallèles. Les calculs sont partagés sur plusieurs noeuds qui appliquent les requêtes sur différents sous-ensembles de données.

En outre, la donnée, entièrement stockée de manière optimisée dans le cloud, n’est disponible que par des requêtes SQL spécifiques à Snowflake, comme résumé dans le schéma ci-dessous. L’analyse et le traitement de ces requêtes se font via des objets appelés Virtual Warehouses (ou Entrepôts Virtuels en français) qui représentent la partie calculatoire de Snowflake.

Ces virtual warehouses sont des « clusters de calculs » propres à Snowflake, constitués eux-mêmes de plusieurs noeuds et sont redimensionnables à volonté. Ainsi, il est possible de (re)configurer très simplement et à la volée ces unités de calcul directement via l’interface web de snowflake :

Plusieurs paramètres sont donc disponibles :

  • La taille du virtual warehouse, c’est-à-dire le nombre de serveurs qui composent chaque cluster dans un entrepôt qui va établir le coût d’utilisation en crédit, la facturation sera mise en avant ci-dessous ;
  • Le nombre minimum/maximum de clusters qui sont des paramètres de scale-in : au fur et à mesure que l’on reçoit des requêtes, Snowflake va allouer dynamiquement des ressources (clusters) pour les traiter le plus efficacement et le plus économiquement possible ;
  • Le choix de la politique de mise à l’échelle : l’un va favoriser la performance, l’autre va minimiser les coûts d’utilisations ;
  • La politique de mise à l’arrêt automatique : la durée après laquelle le warehouse s’arrête si elle n’a pas reçu de requête à traiter entre temps, et donc aucun crédit n’est consommé.

Il est à noter qu’il est possible de modifier les paramètres d’un virtual warehouse alors même qu’il est en train d’effectuer des calculs. Il est aussi possible de les configurer, comme d’ailleurs tout objet sur Snowflake, via des requêtes SQL, sans même avoir à passer par l’interface.

#2 Facturation

Dans les technologies cloud, il est parfois difficile de s’y retrouver dans les systèmes de facturation tant ils varient d’un éditeur à un autre, d’un service à un autre, et il est rapide de se retrouver avec de mauvaises surprises dans ses coûts finaux. Les frais de Snowflake se décomposent seulement en coûts de stockage et en coûts de calculs.

Le coût de stockage est fixe et déterminé par le package de Snowflake choisi (à partir de 23$ par TB par mois). Le coût de calcul correspond à la durée d’utilisation (à la minute près) et à la taille des Virtual Warehouses utilisés, ces deux notions sont résumées sous la forme de “crédits”. Ainsi, l’utilisateur n’est facturé que pour ce qu’il consomme.

Snowflake propose ainsi différentes tailles de warehouses, qui se découpent en huit paliers et décrivent le nombre de serveurs qui composent un cluster (sachant que l’on peut paramétrer le nombre minimal et maximal de clusters qui composent un virtual warehouse).

Ainsi, si avec mon virtual warehouse XL j’effectue un traitement mobilisant 1 cluster pendant 1 heure, puis 2 clusters l’heure qui suit, j’aurais alors dépensé 1×16+2×16=48 crédits sur ces 2 heures.

Remarque : Augmenter la taille d’un cluster permet d’effectuer plus de requêtes en parallèle, cette solution de scale-out est donc plutôt à privilégier dans des cas où l’on ingère beaucoup de fichiers en parallèle ou pour effectuer des requêtes complexes sur une multitude de tables. A l’inverse, augmenter la taille d’un Virtual Warehouse pour effectuer des requêtes SQL de base aura peu d’influence sur sa rapidité d’exécution.

Remarque 2 : Snowflake a un système de cache ; les résultats des requêtes sont gardés en mémoire pendant 24h. Il est donc possible de réexécuter des requêtes onéreuses à moindres coûts.

#3 Performances et positionnement sur le marché

Pour comparer Snowflake à ses concurrents, je vais dans cette section m’appuyer sur les résultats de l’étude de Fivetran publiée en septembre 2020. Ce benchmark s‘inspire de l’analyse comparative standard TPC-DS, qui consiste à utiliser des requêtes SQL complexes (beaucoup de jointures, d’aggregations, de sous-requêtes etc…) sur des bases de données de retail plus ou moins larges. Ici, ces requêtes sont appliquées à un schéma de 24 tables, pour un total d’1TB — ce qui peut paraître peu en termes de volume mais l’idée est avant tout de tester la performance du traitement de bases de données à la structure complexe.

Ces requêtes sont testées sur des warehouses équivalents chez quatre grands acteurs de datawarehousing : Snowflake, Presto, Redshift d’AWS, et BigQuery de GCP. En particulier, le temps d’exécution et le coût associé pour chacun d’eux sont comparés.

Nous constatons trois choses :

  • Quel que soit la datawarehouse utilisée, les temps d’execution sont excellents et peuvent notamment convenir à du requêtage interactif ;
  • Les prix des requêtes sont à peu près équivalents d’un datawarehouse à une autre ;
  • Snowflake a un avantage minime sur ses concurrents au niveau du temps d’execution et du prix.

La principale différence réside dans la façon dont les calculs sont effectués ; Snowflake et Redshift sont similaires puisqu’ils proposent dans les 2 cas de configurer en détails des clusters de calculs. Redshift permet de paramétrer la mémoire, le stockage et la puissance de chaque cluster, tandis que, de par son architecture qui sépare stockage et calculs, Snowflake gère la mémoire et la puissance comme indiqué dans les parties précédentes.

BigQuery quant à lui ne laisse pas le choix dans la configuration d’un cluster de calcul : l’utilisateur envoie les requêtes une par une directement sur le serveur. Il a néanmoins le choix dans la tarification : soit “à la demande” qui s’adaptera mieux aux requêtes gourmandes mais ponctuelles. Soit en taux-fixe pour une utilisation continue du service de GCP.

Conclusion

Nous avons passé en revue les principaux atouts de Snowflake : cette solution se détache de la concurrence par la simplicité qu’offre le SaaS et sa flexibilité. En effet, nous avons vu qu’il était très facile de configurer des clusters de calculs de manière instantanée.

Snowflake offre en outre une plus grande lisibilité sur sa tarification, qui ne dépend que de la puissance de calcul déployée plus le stockage utilisé. L’utilisateur pourra donc très simplement adapter ses paramètres pour répondre au mieux, et à moindres coûts, à son besoin.

Enfin, Snowflake présente d’autres concepts clés, comme le time travel, le clustering de données, snowpipe etc… qui feront l’objet de futurs articles, auxquels il faudra bientôt ajouter les grandes évolutions prévues lors de son dernier Data Cloud Summit 2020.

Rédigé par Simon Coulet, Consultant Data Driven Business.

(1) Source
(2) Source

Avec le lancement d’Azure Purview, Microsoft devient le premier cloud provider majeur à faire son entrée dans un domaine aujourd’hui incontournable pour les entreprises : la gouvernance des données.

L’exploitation des données et des analytics est devenue de plus en plus critique et stratégique, que ce soit pour optimiser les ressources, revoir les processus et les produits ou réviser les business models, afin d’en tirer un avantage concurrentiel ou comme prendre les bonnes décisions pour traverser les crises.

La gouvernance, maillon essentiel dans la stratégie des entreprises pour accomplir leur objectif de transformation « data-driven », nécessite la mise en place d’une organisation dédiée, la définition et la distribution de rôles à l’ensemble des acteurs qui manipulent, créent ou utilisent de l’information. Elle a pour objet d’établir la connaissance du patrimoine de données et d’assurer la fiabilité des informations mises à disposition.

« La réalisation de cet objectif est un défi constant dans l’histoire des données et de l’analyse, car son écosystème continue à être complexe et hétérogène » comme l’a souligné Julia White lors du lancement de Purview en décembre dernier.

Ce concept n’est en effet pas nouveau et a toujours été un immense challenge, porté par la mise en œuvre de grands projets décisionnels puis par l’émergence des plateformes Big Data.

Microsoft avait déjà fait ses premiers pas dans ce domaine, avec la mise en œuvre des systèmes BI avec sa solution MDS sur SQL server 2008 R2, puis avec l’émergence des solutions cloud et l’ouverture du service Azure Data Catalog en 2016.

Microsoft effectue aujourd’hui une avancée majeure dans le domaine de la gouvernance (Azure Data Catalog se limitant à la découverte et la compréhension des données), en proposant avec Azure Purview une plateforme unifiée de gouvernance des données qui automatise les fonctions de discovery, de catalogue, de cartographie, et de suivi du cycle de vie des données.

La promesse d’Azure Purview est de centraliser la gestion de grands volumes de données et surtout de les répertorier de manière automatisée.

En effet, la solution dispose de fonctionnalités pour classer et cataloguer les données, qu’elles proviennent d’applications internes, hébergées en mode SaaS (via l’API d’Apache Atlas), stockées dans le cloud ou On-Premise ou encore provenant d’applications de reporting comme Power BI.

Grâce à des fonctionnalités d’IA, Purview permet également de reconnaitre automatiquement les données qu’elles soient structurées ou non ce qui permet d’identifier leurs liens et de les classifier ce qui facilite ainsi leur utilisation.

Le service fournit en complément un moteur sémantique pour la recherche des données par mot-clé, par type (numérique, texte, date…) ou par format (csv, json, document…), issu de glossaires gérés directement par les entreprises ou bien grâce à des templates qui sont proposés par la solution.

Enfin Purview permet aussi de reconnaitre différentes typologies de données (comme des données personnelles ou sensibles) afin d’assurer le respect des règles de sécurité et compliance et fournit également des fonctionnalités de gestion des rôles et des accès grâce à l’intégration dans Azure AD.

Microsoft fait ainsi une entrée remarquée dans un domaine concurrentiel ou se côtoient des poids lourds tels qu’Informatica, Talend, Collibra ou bien des startups récentes comme Zeenea ou Data Galaxy.

La valeur ajoutée du nouveau service Microsoft réside dans son probable impact auprès des entreprises dont Azure est le principal service cloud. Son adoption pourrait donc rapidement lui permettre de gagner des parts de marché, et d’asseoir définitivement Microsoft comme le leader des systèmes de gestion de l’information.

Rohan Kumar, Vice-Président en charge des activités Azure Data précise que « l’investissement dans Purview va durer plusieurs semestres et la prochaine étape sera davantage axée sur les politiques de gouvernance », démontrant la volonté de Microsoft de se placer comme un acteur incontournable du domaine de la gouvernance des données.

Avec le lancement de Purview, le géant du cloud a également annoncé la disponibilité générale de Synapse Analytics, qui lui permet de se doter d’une plateforme unique et complète, rassemblant l’intégration, le stockage, l’analyse et donc la gouvernance des données d’entreprise.

Si vous voulez en savoir plus, n’hésitez pas à nous contacter.

Rédigé par Julien Ayral, Manager Data Driven Business.

Si le principe de travail hybride n’est pas nouveau, il a récemment connu une nouvelle impulsion. La crise sanitaire a provoqué un profond bouleversement dans l’organisation du travail en entreprise, nécessitant la mise en place de nouveaux usages. Les meetings dits  hybrides, distanciels et présentiels, se sont développés. Dans un même temps, les outils qui permettent de les mettre en place se sont déployés. Grâce à leur utilisation, il est possible de travailler sereinement, à distance comme en entreprise, sans perdre en productivité et en rendement.

#1 La mise en place de nouveaux usages

Travailler en hybride implique l’utilisation d’outils adaptés permettant de capitaliser les méthodes de travail mises en place, puis de les pérenniser. En télétravail, un bon équipement (ordinateur avec webcam, casque de qualité avec micro), et la possibilité de pouvoir accéder à distance aux données de l’entreprise sont essentiels. Dans un même temps, la simplification des outils de travail permet une meilleure collaboration des équipes entre elles, et donc d’optimiser la productivité. Les applications interactives telles que Whiteboard, Klaxoon, Forms ou Planner facilitent ce travail en équipe. Le déploiement offert par Teams est intéressant pour les meetings à distance, auxquels il apporte une fluidité et une sécurité optimales. Pour des réunions à plus grande échelle, Live Event est particulièrement adapté. 

Pour être simple et efficace, l’expérience de travail doit être intégrée à un environnement plus global. En effet, si les moyens mis à disposition en entreprise ne permettent pas de travailler de manière performante, le développement du travail hybride ne sera pas concluant, entraînant à terme un désintérêt pour l’utilisation des outils déployés. Par le phygital, l’organisation des réunions à distance est simplifié, ce qui est d’autant plus nécessaire aujourd’hui car les équipes sont souvent réparties à travers le monde.

Pour assurer la performance et la productivité des collaborateurs, la configuration et l’équipement des salles en entreprise devient donc essentielle. Depuis l’apparition du Cloud, les terminaux traditionnels comme l’ordinateur, devenus de simples transmetteurs d’information, ne sont plus aussi indispensables qu’avant. Les Microsoft Teams Rooms offrent par exemple une meilleure expérience de collaboration  : équipées de caméras directionnelles (que vous pouvez découvrir chez Saegus ici) et pouvant être complétées par des outils comme le Surface Hub, ces salles permettent de mieux communiquer et échanger tous ensemble. Les logiciels tels que Klaxoon, Miro ou Foreseeds, utilisant la gamification pour accroître l’intelligence collective, complètent cette expérience hybride du travail.

#2 Les bonnes pratiques

L’engagement de tous les collaborateurs est nécessaire à la réussite de cette expérience de travail globale. Il faut accompagner et former chacun à l’utilisation de ces outils, afin que les méthodes de travail mises en place soient bien ancrées. Des temps de formation doivent être envisagés, et des espaces d’échange créés afin de pouvoir discuter des difficultés rencontrées. Dans les Microsoft Teams Rooms, des supports explicatifs et des cas d’usage peuvent être mis à disposition. En favorisant cette adoption à long terme, la productivité sera maintenue en distanciel comme en présentiel.

Piloter ou participer à des meetings hybrides  de qualité peut se révéler ardu, car ils peuvent aussi faire perdre le contact entre les collaborateurs d’une équipe. L’organisation et la durée idéales pour conserver l’attention de chacun sont des points à réfléchir. Pour répondre à ces problématiques, les principes de l’agilité et de la transparence permettent de mieux travailler en équipe. Il est important d’avoir une bonne prise de contact avec les membres de son équipe en étant disponible et en échangeant régulièrement avec eux afin de connaître l’avancée de leurs projets. Il faut aussi veiller à donner de la visibilité sur le travail réalisé pour clarifier certains points, reformuler une demande ou s’assurer de la bonne compréhension d’une tâche donnée. Cette transparence est nécessaire afin de bien faire avancer chaque projet.

#3 Maintenir le relationnel

Pour maintenir un bon relationnel avec ses collaborateurs, plusieurs habitudes peuvent être adoptées. Il est important d’activer sa caméra, notamment lors de meetings avec des personnes que l’on rencontre pour la première fois. Afin de gagner en efficacité, il est préférable d’inviter exclusivement les personnes concernées par les sujets abordés, et de poser des questions ouvertes afin de ne pas monopoliser la parole. En équipe, des temps de partage informel, permettant d’échanger sur la semaine de chacun, peuvent être bénéfiques. En créant ces moments privilégiés, il est possible de mieux échanger ensuite sur les projets, les points d’alerte et les succès. Il convient également de respecter les temps de travail de chacun, en ne prévoyant pas de meeting pendant la pause déjeuner ou après les horaires habituels. Lorsque cela est possible, le maintien d’espaces physiques de rencontre s’intègre pleinement à ces pratiques.

Le mode de travail en hybride, véritable accélérateur de l’efficacité collective, accompagne un changement profond des méthodes et pratiques à tous les niveaux d’une organisation. Dans ce cadre, les pratiques managériales doivent également être transformées. C’est d’ailleurs un enjeu fondamental aujourd’hui : bien piloter et accompagner des équipes (pouvant travailler complètement à distance), afin de veiller à leur bien-être et s’assurer de leur engagement et de la qualité du «  delivery  ».

Cet article vous intéresse ? N’hésitez pas à nous contacter ou à en découvrir davantage sur notre blog !

Rédigé par Khaled Loumi, Manager Digital Workplace, et Laura Jimenez, Consultante Digital Workplace.

À l’heure où le travail à distance prend de plus en plus d’importance, l’efficacité et la performance des équipes sont mises à l’épreuve et ce, dans n’importe quel secteur. Le management d’une équipe peut prendre plusieurs formes : il nécessite un meilleur partage des informations, un suivi des indicateurs, l’animation de réunions ou d’ateliers… des faits qui requièrent des éléments visuels telles que des affiches, des tableaux ou bien d’autres procédures schématisées. Dans un contexte où les échanges paraissent difficiles, l’adoption des outils de communication et de collaboration adaptés est nécessaire, ainsi qu’une démarche pour poursuivre les activités au travers d’un management visuel.

#1 Les principes du management visuel

Le concept de management visuel consiste à s’appuyer sur la perception visuelle des informations, en la rendant plus concrète, lisible et mémorisable. Il a pour objectif de faciliter la prise de décision et de capitaliser l’essentiel de vos activités.

En pratique, il fait appel à différents outils et méthodes pour assurer le suivi d’un projet, des activités ou encore, soutenir la conception de nouveaux produits. C’est aujourd’hui un appui essentiel à la réussite des projets d’équipe.

Les bénéfices de ce concept ? Plus de visibilité sur les activités et leurs planifications, identification rapide des points de blocage des processus en cours et leurs causes, une vision 360° d’un projet, mise en place d’une culture du feedback en continu et bien plus encore.

Des années 50 à aujourd’hui, plusieurs méthodes ont vu le jour, telle que « Kanban » inventée par Toyota. Une méthode incrémentale qui a fortement marqué les premiers modes organisationnels et de production industrielle. Fondée sur ses fameuses étiquettes, elle permet d’optimiser la production en indiquant sur chacune d’entre elles les tâches à réaliser dès qu’une nouvelle commande arrive. Plus tard, l’apparition du Lean management consiste à partir directement des problèmes à résoudre à tous les niveaux de l’entreprise. Elle repose sur le principe d’amélioration continue. Enfin aujourd’hui, le Framework (cadre de travail) Scrum agile s’appuie sur une approche itérative qui fait appel à des équipes pluridisciplinaires et proactives.

Comment faire adopter les outils de productivités et rendre votre management visuel efficace ? Par où commencer et à travers quelle démarche ? La suite de cet article vous conduit pas à pas dans une démarche d’implication de vos équipes dans la mise en place de votre management visuel.

#2 Les cas d’usages du management visuel ou l’art d’identifier les besoins de votre organisation dans le cadre d’un projet

Lorsque l’on pense management visuel, on peut penser au partage d’informations, au suivi de tâches, ou encore à l’animation d’ateliers. Voici quelques exemples pouvant être couverts par la mise en place d’un management visuel :

  • Je souhaite suivre les indicateurs d’avancement de mon projet ; 
  • J’aimerais animer un atelier de brainstorming pour trouver de nouvelles idées ;
  • J’ai besoin de suivre l’avancée des tâches d’un projet initié avec mon équipe ;
  • Je souhaite résoudre une problématique rencontrée lors d’un échange avec un client ;
  • Dans une logique d’amélioration continue, je voudrais mettre à jour le processus de recrutement de mon entreprise ;
  • Je souhaite faciliter la prise de décision à travers un dashboard adapté.

Cette liste n’est évidemment pas exhaustive et toutes les activités, du Commerce au Juridique en passant par les Ressources Humaines, y sont confrontées. L’usage identifié doit correspondre aux besoins de l’organisation et aux objectifs de vos équipes. Ce point de départ est fondamental.

Vous hésitez encore dans la définition de vos usages ? Interrogez vos collègues, pensez à vos propres priorités, à ce qui vous anime au quotidien ou devrait vous animer davantage.  

Vous êtes habitué au fameux tableau avec les post-it pour trouver de nouvelles idées que vous avez accroché au-dessus de votre bureau ? Des solutions existent afin de regrouper à la fois les usages de visualisation (reportings, tableaux de performance, roadmap…) et d’animation (projets, comités, ateliers…) et ce, aussi bien physiquement qu’à distance.

Dans un contexte hybride, il est difficile pour les équipes de se rassembler autour d’une table. Pourtant, de nombreuses entreprises ont réussi à déployer des outils leur permettant aujourd’hui de gérer la majorité voire la totalité de leur activité à distance, notamment en ayant recours au management visuel.

#3 Mise en œuvre du concept à travers les outils de productivité

Aujourd’hui, de nombreux outils permettent de gérer et de suivre les projets des entreprises à distance. En voici quelques-uns qui pourraient faciliter la visualisation de vos activités.

Jira Software, outil historique de la gestion de projet IT agile, s’est adapté à l’évolution du marché, aussi bien dans les domaines IT que non IT, couvrant une majorité des besoins tels que : suivi de la charge des membres de l’équipe, automatisation, rapport, roadmap projet, utilisation Kanban ou Scrum, Jira répond aux besoins de suivi de projet et s’adapte à tous les concepts.

Trello, qui se différencie par sa simplicité, compte aujourd’hui plus de 50 millions d’utilisateurs actifs à travers le monde dont plus de 500 000 en France. À travers des tableaux très visuels, organisés en listes et comprenant elles-mêmes des cartes, son usage pour la gestion des tâches est très apprécié par de nombreuses entreprises de par sa prise en main rapide. Rachetée par Atlassian début 2017, Trello porte depuis l’image d’une solution plus sécurisée du fait de sa connexion à Jira. Enfin, son intégration avec des éditeurs tiers, tels que les outils Office 365 ou d’autres solutions de gestion de projet, renforce son positionnement et le rend plus accessible.

Plus compétitive encore, ClickUp est également la plateforme de management de projet dédiée aux équipes. Née à San Diego en 2016, ClickUp est une solution très visuelle qui permet un grand nombre de vues disponible dès sa version gratuite : mind map, diagramme de gantt, liste, tableau, calendrier… ainsi qu’un espace conversationnel dans chaque espace de travail. Elle s’adapte aussi bien aux projets IT que non IT. Ces nombreuses intégrations et fonctionnalités la positionne aujourd’hui comme un service d’excellence avec la volonté de rassembler tous les usages de la gestion de projet en un seul espace. Grâce à une stratégie freemium poussée, aujourd’hui des millions d’utilisateurs et plus de 100 000 entreprises sont conquis par son offre.

Microsoft, le leader des solutions workplace, met à disposition Planner un peu plus tardivement et se positionne directement en concurrence de Trello et Jira. Avec plus de 260 millions d’utilisateurs actifs, Planner bénéficie pleinement de son intégration à l’écosystème Microsoft 365, aux côtés des outils de communication et de collaboration essentiels à la situation actuelle tels que Microsoft Teams et Sharepoint Online. Son gros + ? Sa combinaison avec Power Automate qui permet d’automatiser l’avancée de chaque tâche une fois terminée.

Cependant, le déploiement de ces outils nécessite une approche et des techniques d’adoption permettant de faciliter l’implication de vos équipes. En voici un exemple concret.

#4 L’adoption des outils pour un management visuel efficace

Pour embarquer vos équipes, osez mettre en œuvre votre intelligence collective. C’est ce qu’à réalisé récemment une grande entreprise pharmaceutique avec le soutien de Saegus pour l’adoption de Jira Software et ce, en 4 étapes.

Étape 1Comprendre et analyser 

Démarrez par une analyse de votre environnement et de votre fonctionnement actuel (outils, culture, organisation). Quels sont vos pain points et vos besoins ? Quelles solutions vous aideraient à y remédier ? L’implication de vos équipes est cruciale : la compréhension de leurs attentes et besoins permettra d’adapter le processus et de choisir les bons outils. 

Étape 2 : Co-construire 

Participez aux ateliers de paramétrage et à la configuration des outils adaptés à votre environnement de travail. Pour cela, identifiez des collaborateurs volontaires avec une appétence pour les outils digitaux qui prendront en main les outils avant la phase d’adoption par l’ensemble de l’équipe. L’objectif de cette équipe pilote sera de tester ces outils et de les valider avant de l’étendre à plus grande échelle.

Étape 3 : Déployer 

Pour la phase d’adoption, mettez à la disposition de vos équipes les ressources adaptées à leur niveau de maturité pour appréhender les outils et les rendre autonomes : sessions de découvertes des outils et démonstrations de cas d’usages les ciblant, puis mise à disposition de guides utilisateurs et communication des bonnes pratiques. Et, pourquoi pas y ajouter une FAQ avec les questions fréquentes de vos utilisateurs ? Dans cette phase, prenez le temps de récolter les retours utilisateurs pour faire évoluer votre dispositif.

Étape 4 : Étendre à plus grande échelle 

Enfin, redéfinissez votre organisation en intégrant de nouvelles équipes dans la démarche, avec l’aide de votre équipe pilote.

En résumé, l’adoption des outils passe par celle des usages. Par exemple, les ateliers de Design Thinking permettent d’identifier les pain points et d’adopter à terme une démarche par itération fondée sur les retours utilisateurs.

Aujourd’hui, après plus de 10 ateliers de cadrage10 guides utilisateurs, l’ouverture de 5 258 tickets et la création de 24 projets Jiraplus d’une centaine d’utilisateurs ont adopté et pris en main l’outil. Une adoption réussie qui permet à l’organisation d’assurer son management visuel à distance et ce, grâce à l’implication et à l’engagement de tous les acteurs du projet.

Rédigé par Laura Morisseau, Consultante Digital Workplace

Sources :
https://www.lesechos.fr/2016/07/taiichi-ohno-la-revolution-du-juste-a-temps-1112071
https://www.latribune.fr/opinions/tribunes/agile-lean-management-quelle-methode-pour-l-innovation-821137.html
https://cutt.ly/mhIWcNl
https://www.atlassian.com/fr/software/jira/guides/use-cases/who-uses-jira
https://www.journaldunet.com/management/efficacite-personnelle/1417796-le-visual-management-la-performance-par-l-implication-des-equipes/
https://www.zdnet.fr/actualites/atlassian-s-empare-de-trello-pour-425-millions-de-dollars-39846918.htm
https://www.presse-citron.net/clickup-le-service-de-gestion-de-projet-par-excellence-realise-une-belle-levee-de-fonds/

Ce constat part d’un phénomène paradoxal  : les établissements financiers souffrent d’un mal bien connu dans d’autres industries. Alors qu’ils peuvent contribuer à l’essor économique d’une nation (création d’emploi, financement des acteurs innovants, soutien des tissus économiques locaux), être de véritables facilitateurs de la mondialisation (la banque HSBC a été créée pour faciliter le climat des affaires entre l’Europe et l’Asie) ou encore s’illustrer comme le bras armé des politiques publiques de relance en temps de crise sanitaire, ces établissements font face aujourd’hui à des problématiques nouvelles : ils n’attirent plus les talents, se font disrupter par des acteurs différents et peinent à séduire les investisseurs en bourse.

Prenons l’exemple d’un autre secteur. Si l’on se penche sur la stratégie d’Alexandre BOMPARD, PDG du géant européen Carrefour, on constate qu’elle n’est en rien différente de celles de nos patrons de banques françaises :

  • Simplifier les processus pour gagner en agilité et se recentrer pour obtenir une meilleure expérience client ; 
  • Gagner en productivité pour s’offrir les marges de manœuvre nécessaires à la transformation ; 
  • Développer un univers omnicanal pour faire face aux plateformes en ligne ; 
  • Monter en gamme.  

Et c’est bien là le problème : la maturité des banques vis-à-vis du digital n’est souvent guère plus avancée que celle des acteurs traditionnels de la grande distribution, quand bien même leur avenir en dépend. Notons par ailleurs qu’en plus de ces difficultés, les banques doivent faire face au quotidien à des travaux herculéens en matière de règlementations : les établissements européens traitant sur le marché commun doivent respecter des directives très strictes (MIFID, accords de Bâle…) mais ont aussi à s’adapter aux contraintes locales lorsqu’ils cherchent à traiter à l’international. Les pénalités en cas de non-respect étant – comme l’actualité nous le rappelle régulièrement – très importantes.

Comment les banques en sont arrivées là, comment tentent-elles d’en sortir et que pouvons-nous attendre comme changements majeurs dans les prochaines années ? Cet article reviendra modestement sur ces questions sans pour autant faire preuve d’un jugement de valeur sur des établissements parfois plusieurs fois centenaires et dont le rôle dans toutes les sociétés reste central.

#1 Une obligation à gagner en agilité

Agilité. Ce mot à la mode est dans la bouche de tous les managers. Que ce soit au niveau informatique ou métier, l’agilité est devenue depuis presque une décennie le mot magique, la formule de politesse à utiliser à chaque fin de phrase. Derrière ce terme on pourrait penser qu’il ne s’agit en réalité que d’une méthodologie de travail dont l’objectif premier est de faire travailler, autour d’un même projet, quelques protagonistes au nombre restreint et aux fonctions bien précises, chacun représentant l’ensemble des parties prenantes. Ce n’en est qu’une brève introduction.

Il s’agit en fait d’une culture où travailler ensemble s’entend moins autour d’un objectif long terme, que d’objectifs intermédiaires et tactiques, permettant d’évoluer justement au gré des contraintes changeantes afin de s’assurer que les moyens dépensés collent toujours au mieux à la réalité qu’ils doivent servir. Autrement dit, éviter de financer un projet dont les objectifs initiaux ont tellement changé que le projet n’a plus lieu d’être. Ainsi on demandera aux équipes IT de travailler main dans la main avec les équipes métiers sur des itérations plus régulières pour sortir, morceau par morceau, le projet initialement demandé et faire en sorte qu’il corresponde parfaitement aux attentes … même si celles-ci ont évolué en cours de route. 

Pour cela il faut “désiloter” les organisations, rendre les cellules plus autonomes, réduire les délais de prise de décision, accepter l’erreur, le pivot et le stop lorsque nécessaire. Il faut en d’autres termes travailler dans un esprit startup alors que l’on se trouve dans des groupes de plusieurs dizaines voire centaines de milliers de collaborateurs. Une culture, là encore. L’objectif pourrait résider dans la mise en place plus rapide de nouveaux produits, dans la réduction des coûts de certains projets et dans la fédération des équipes autour du programme commun. Le but des banques est alors de savoir se mettre en ordre de marche pour réagir plus rapidement face à leurs concurrents de tous types : des GAFAM au Fintech en passant évidemment par les néo-banques et autres plateformes d’intermédiation de services financiers.

Nouveauté, ces concurrents ne se contentent plus de proposer des services simples à faible rentabilité, ils proposent désormais des produits plus complexes à plus forte valeur ajoutée qui étaient jusqu’à présent chasse gardée des banques traditionnelles. Un patron de banque française laissait entendre il y a quelques mois qu’il imaginait bien son établissement devenir bicéphale avec d’un côté une banque en ligne pour l’ensemble des tâches dites standard – car avec un coefficient d’exploitation bien inférieur à la moyenne du groupe – et de l’autre des établissements physiques pour maintenir le contact mais en proposant principalement des services proches de ceux offerts par les banques privées pour répondre aux attentes des clients. En résulterait alors la migration de toute l’activité retail classique vers l’une ou l’autre des entités. Et ce ne serait pas chose facile tant la différence de compétences est importante.

#2 L’omnicanal pour améliorer l’expérience client

Comme nous le constatons depuis plusieurs années, les établissements ferment peu à peu leurs agences bancaires et réduisent leur présence en physique. Ce phénomène est plus fortement observable chez certains que chez d’autres, mais tous suivent cette tendance. Frédéric OUDEA expliquait lors d’un passage au Cercle LesÉchos que les clients des banques ne s’y rendaient qu’une à deux fois par an et ce uniquement pour parler de projets importants tels que l’acquisition de biens immobiliers ou la constitution d’un patrimoine pour la retraite. Pourquoi donc garder autant d’agences ouvertes ? En revanche, les interactions entre les banques et les clients n’ont jamais été aussi importantes : la deuxième application mobile ouverte par les Français tous les matins est… leur application bancaire.

Face à ce constat les conclusions se tirent d’elles-mêmes : gardons le contact via les applications et outils numériques et rencontrons-nous pour les grandes occasions ou celles nécessitant une qualité d’information plus élevée que celle fournie par un chatbot. Une fois encore pour basculer complètement vers ce modèle il faut plus d’experts du numérique que de conseillers clientèle. Un travail titanesque attend les directions des ressources humaines qui sont de nouveau au cœur de la transformation digitale des entreprises.

#3 Un nouveau business model

Apple – dont la valorisation boursière est supérieure à celle de l’ensemble des sociétés du CAC40 – a débuté par des services de paiement et propose désormais des services financiers. Amazon, deuxième plus importante capitalisation boursière derrière la firme à la pomme, en propose également une pléiade. Si Apple ou Amazon disruptent le service bancaire occidental, ce n’est rien comparé à leurs homologues chinois – Alibaba en tête – dont le catalogue de services financiers n’a plus rien à envier aux services d’une banque traditionnelle. En Europe, le financement entre particuliers n’est plus réservé aux levées de fonds et même si les néobanques peinent à atteindre leur seuil de rentabilité (caractéristique type d’une startup), elles captent chaque trimestre de nouveaux clients. En devenant des usines dans lesquelles l’ouvrier qualifié est un ingénieur informaticien, les banques voient naître de nouvelles perspectives de développement. La première d’entre elles : devenir une plateforme de services, un vrai lieu de rencontre comme Amazon ou Cdiscount dans lequel elles peuvent mettre en relation et en confiance des acheteurs et des vendeurs. C’est d’ailleurs le principal atout d’une banque : la confiance qu’on lui accorde. Ces plateformes d’intermédiation existent déjà dans l’univers de la finance de marché mais devraient se développer pour la partie banque de détail.

Les banques ont également une quantité de données incommensurable qu’elles doivent stocker et qu’elles tentent d’exploiter au mieux pour faire naître de nouveaux produits ou anticiper certaines tendances (ndlr, une similitude surprenante avec le monde de la santé). Pour ce faire, leur plateforme de données doit être robuste et scalable tout en respectant des contraintes fortes en matière de législation. On pourrait imaginer un nouveau service proposé aux entreprises pour stocker leurs données sensibles dans les nouveaux coffres-forts virtuels. Sans oublier les cryptomonnaies que commencent à proposer les banques américaines et asiatiques et une multitude d’autres produits qui vont au-delà de l’abonnement téléphonique et de l’assurance habitation.

Enfin, il est fort à parier que dans la refonte de son modèle économique la banque devra intégrer, en profondeur, une dimension responsable et écologique. Il n’y aura pas de transformation réussie en vue de préparer l’avenir sans une volonté forte d’y intégrer le développement durable. Ne plus considérer ce facteur comme un poids mais comme une opportunité peut faire la différence et aider les banques à se réinventer.

Toutes ces mesures passent par une stratégie digitale forte avec des choix clivants et difficiles. Il ne sera pas possible de réussir ce challenge sans y engager l’ensemble des collaborateurs qui – plus que jamais – doivent se sentir partie prenante de ces ambitions nécessairement partagées. La concurrence est endémique mais vient aussi de plus loin. Les chaînes de valeur autant que les appétits s’étendent vers l’Asie, marché le plus dynamique. Les cours de bourse des banques françaises vont jusqu’à sanctionner certaines d’entre elles lorsque les marchés considèrent qu’elles sont trop en retard sur leur transformation digitale. Certaines cotations vont jusqu’à valoriser une banque moins que ses propres actifs. C’est un peu comme certaines usines dont les machines valent des millions mais que personne ne veut puisque les produits qu’elles manufacturent n’ont pas de débouchés.

La transformation doit s’accélérer. Améliorer sa vélocité, c’est un peu comme vouloir améliorer sa collaboration, son innovation ou son agilité, ce sont d’abord des éléments qui constituent une culture. Et contrairement aux outils informatiques, il ne suffit pas de les installer. Une culture se nourrit, se partage et s’encourage dans la durée et même si les décisions à prendre ne sont pas toujours faciles, nous avons encore en France de grands capitaines d’industries qui ont souvent pris l’habitude d’ouvrir la voie.

Rédigé par Olivier Chanoux, Co-founder de LumApps, éditeur d’une solution permettant aux entreprises de mettre en place un Intranet social et collaboratif. LumApps a levé 70 millions de dollars lors d’une série C menée par Goldman Sachs en janvier dernier ; et Sébastien Mazin-Pompidou, Client Executive Director chez Saegus.

On aurait tort de considérer les ateliers distanciels comme les parents pauvres des ateliers physiques. Ceux que l’on anime à défaut de ne pouvoir se déplacer. Si le passage au télétravail généralisé depuis Mars 2020 a mis en valeur une certitude, c’est bien celle-ci : il est temps de répandre la pratique des ateliers à distance ou en format hybride, c’est-à-dire avec plusieurs participants en présentiel avec l’animateur et des participants à distance.

Les ateliers à distance ont de nombreux avantages. Leur durée plus courte oblige à aller droit au but et à concentrer les activités. Un atelier de 3h30 en présentiel avec accueil des participants et pauses devient un atelier multi-distanciel de 1h30 à 2h. Le ratio temps passé / valeur ajoutée est donc plus grand. Deuxièmement, vos participants (entre 4 et 12 en moyenne) ne se déplacent pas, certains de loin, et donc économise des frais logistiques non négligeables. Et je ne parle même pas de l’impact carbone ou plastique des ateliers “traditionnels” ! De ces deux éléments s’en dégage un autre, fondamental pour la co-création. Vous parvenez à mobiliser plus de personnes, et à toucher une cible plus large.

Un atelier à distance de 2 heures est un événement auquel l’on peut plus facilement concéder une place dans son agenda qu’un déplacement physique d’une demi-journée ou plus. Alors, c’est parti ! Il ne vous reste plus qu’à préparer, préparer, préparer. Et animer, bien sûr.

Que vous ayez ou pas l’habitude d’animer des ateliers présentiels, les ateliers à distance présentent leur lot de challenges, mais surtout, d’opportunités. Dans cet article vous retrouverez une expérience condensée des ingrédients essentiels pour des ateliers à distance réussis, efficaces et pertinents. Certains seront des évidences, mais les plus grandes évidences sont aussi souvent les plus invisibles et ont besoin d’être rappelées. J’ajouterai des notes spécifiques pour les ateliers hybrides qui apportent une couche supplémentaire de complexité.

#1 Qu’attendez-vous de cet atelier ?

Pourquoi faites-vous cet atelier ? Quel est votre objectif ? Celui des participants ? Dessinez ce à quoi vous souhaitez parvenir en fin d’atelier : comment ? De quoi vos participants auront-ils besoin ? Quels seront les freins de la distance (ex : le fait de ne pas se connaître) ? Les opportunités (ex : travailler sur un format directement exportable) ?

Tout atelier peut tenir en 2 à 3 heures, quitte à avoir plusieurs modules sur la semaine. S’en tenir à cette durée permet d’éviter la “fatigue de la visioconférence” qui survient beaucoup plus rapidement qu’un atelier présentiel. Du fait de ce format court, c’est à vous de vous adapter et de clarifier vos objectifs. Ce travail amont est indispensable pour enlever tout superflu.

Une fois que vous avez une vision claire des objectifs et de l’aboutissement de l’atelier, il sera beaucoup plus simple de séquencer les bons exercices. Est-ce que vous faites une session de validation des apprentissages de votre immersion ? Est-ce un atelier collaboratif de découverte d’un sujet ? Est-ce un atelier d’idéation, de prototypage ? De priorisation de backlog ?

Dans un format présentiel, on peut se permettre d’être exhaustif, de raconter l’histoire du projet et donner de nombreux exemples. En atelier à distance, vous devez prouver rapidement à vos participants qu’ils sont au bon endroit et qu’ils vont mener des exercices à haute valeur ajoutée pour eux. Clarifier vos objectifs vous contraindra à réfléchir différemment car vous devrez renoncer à certains exercices, à certaines introductions, sans déprécier la qualité de l’atelier. Prioriser vos objectifs clés et séparer le grain de l’ivraie est votre point d’entrée pour aller droit au but et concevoir des ateliers condensés et utiles pour tous.

Note pour les ateliers hybrides : réfléchissez à vos objectifs comme si votre atelier était uniquement à distance, cela vous évitera un biais commun qui nous amène à privilégier inconsciemment les participants physiques.

#2 Quelle expérience participant vous permettra d’atteindre ces objectifs ?

Les ateliers à distance ne laissent aucune place à l’improvisation. Une fois vos objectifs en tête, vous devez travailler et itérer sur le format de l’atelier. Est-ce un format plutôt libre d’expression tour à tour sur des thèmes ? Une succession d’exercices de co-création ou d’idéation ?

Réfléchir au format des exercices et leur matérialisation pour les préparer est clé. Surtout à distance, il est très difficile de partir de la page blanche. Avoir un canevas, un template, des guides et exemples pré-remplis à disposition aident à se projeter. L’équipe de participants peut ainsi plus facilement s’organiser et parvenir au résultat attendu.

Grâce à des outils de collaboration, de tableau blanc ou de design thinking digitalisé, vous pouvez concevoir pas-à-pas un atelier personnalisé. Cela permettra aussi de rendre visible le parcours de bout-en-bout de l’atelier et donner le sentiment de progression des participants. Vous pouvez ainsi parsemer vos canevas de conseils, d’ice-breakers, insérer un minuteur.

Une fois le format de l’atelier clarifié, sélectionnez le meilleur outil pour y parvenir. Les plus utilisés sont Miro, Klaxoon, Foreseeds ou encore Whiteboard. Certains outils correspondront davantage à un type d’atelier que d’autre, donc le choix n’est pas anodin. Un article suivra très bientôt sur des recommandations d’outils à utiliser en fonction de vos objectifs, types d’exercices et cible participante. Vérifiez bien que les accès sont possibles si les participants sont sur des connexions sécurisés. Souvent, les groupes et organisations limitent les connexions aux outils, et ce n’est pas quelque chose qu’il vous faut découvrir le jour de l’atelier.

Note pour les ateliers hybrides : Assurez-vous que les outils que vous choisissez sont utilisables à la fois pour un participant seul derrière son écran, comme un ensemble de participants en présentiel dans une salle. Réservez, si vous le pouvez, du matériel adapté comme des outils tactiles et interactifs, des pieuvres pour garantir une qualité de son si plusieurs personnes sont dans la pièce. Les Surface Hubs de Microsoft garantissent une expérience de qualité pour les ateliers à distance ou hybrides.

#3 Tout le monde, notamment les participants, est-il au même niveau d’information ?

Lors d’une préparation d’ateliers multi-distanciels, nous avions demandé et rappelé aux participants de réserver la salle de leur département qui contenait une Surface Hub, l’écran géant tactile Microsoft qui permet d’améliorer la qualité des réunions. Nous avions indiqué cette consigne plusieurs fois, jusque la veille, où nous envoyons un dernier mail récapitulatif. En fin de journée, nous recevons un appel de l’un des participants nous expliquant qu’il sera en télétravail, pourra-t-il se connecter ? Or, tout l’atelier avait été spécifiquement pensé sur l’outil “Tableau Blanc” (Whiteboard) dont la plupart des fonctionnalités ne sont disponibles que sur Surface Hub.

Loin de moi l’idée ou l’intention critiquer ce participant ou bien d’autres. Cet exemple met en valeur une règle universelle de la préparation des ateliers : tout ce qui est évident pour vous, les informations que vous êtes certain(e) d’avoir passé et rappelé, tout cela ne suffit pas. Car les participants n’ont pas les mains dans la préparation de l’atelier, ils oublient. Rien de plus humain. Vous, préparateur, avez la vue holistique, globale, les participants ne voient eux que leur participation, le moment t de l’atelier.

Ne sous-estimez jamais l’importance de la redondance de l’information : au-delà des emails textuels, privilégiez des appels direct si vous le pouvez, et des informations dont la mise en forme visuelle attirera davantage l’attention que du texte simple. J’ai l’habitude de toujours rédiger un email mis en forme sur MailChimp qui reprend les objectifs, les horaires, les participants, toutes les informations de connexion. Dans le cadre des formations, j’ajoute des éléments concrets introductifs, liens vers des vidéos ou articles.

Ces différents rappels doivent être progressifs et ne pas surcharger les participants d’une masse d’information. D’abord, rappelez l’atelier et ses horaires, demandez par exemple de confirmer la présence. Ensuite, rappelez les objectifs et validez l’accès aux outils. Enfin, renvoyez les liens vers les invitations de visioconférence et donnez des conseils et guides d’utilisation des outils qui seront utilisés lors de l’atelier. Vous ne “spammez” pas vos participants, vous les informez.

Conseils pour les ateliers hybrides : soyez très clairs sur vos consignes pour les personnes en présentiel et à distance. Par exemple, ne donnez pas RDV aux participants présentiels à 9h si votre atelier commence à 9h, car vous savez qu’ils iront prendre un café, discuteront avec vous. Clarifiez bien les règles de l’hybride , comme de limiter les discussions en aparté dans la pièce qui parasitent l’écoute des personnes en ligne.

#4 Avez-vous répété avec l’ensemble des co-animateurs ?

“J’ai animé des dizaines d’ateliers. Je sais parfaitement quoi faire, quoi dire, je n’ai pas besoin de répéter.” J’ai plusieurs fois entendu cette remarque, souvent exprimée sur un ton moqueur, de la part de quelqu’un d’expérimenté. Et j’ai malheureusement souvent assisté à des ateliers à distance désorganisés, avec des moments de flottement, des consignes peu claires, des facilitateurs qui se retrouvaient débordés. Il est beaucoup plus difficile d’avoir une dynamique engageante, fluide et humaine à distance qu’en physique.

Or, la clé d’un bon atelier où chacun prend du plaisir et où l’intelligence collective prend tout son sens est un atelier préparé et répété. Prenez l’habitude de faire des répétitions complètes, et si possible d’y inviter des personnes extérieures qui pourront vous donner un avis. Si vous êtes plusieurs facilitateurs, répartissez-vous les prises de parole, qui projette, qui prend des notes à quel moment, comment passer d’un outil à l’autre, quelles consignes donner à quel moment. Lors de ces exercices, anticipez les potentiels problèmes et questions, et surtout, discutez de comment y répondre. Cela renforce la dynamique d’équipe solidaire des facilitateurs.

Répéter les ateliers permet à d’autres personnes qui ont peut-être moins d’expérience que vous sur l’animation de gagner en confiance et de se faire la main, car rien ne vaut la pratique. Si chacun a en tête le déroule précis, que celui-ci est noté dans un fichier détaillé (par exemple un excel), chacun pourra se sentir en confiance. Cadrer, préparer, répéter sont le secret du dynamisme et de la force de certains ateliers dont on ne voit pas le temps passer, et de s’adapter si survient le moindre problème.

Il nous est arrivés lors de la préparation d’une série de webinaires solidaires que le Wi-Fi d’un collègue le lâche juste avant le lancement du webinaire. Grâce à la préparation millimétrée, nous avons pu ré-ajuster les rôles pour que le webinaire se déroule sans anicroche.

Conseils pour les ateliers hybrides : répartissez-vous bien les rôles entre les facilitateurs dédiés aux participants en ligne, et ceux davantage tournés vers les participants présentiels, pour vous assurer que vous savez qui aider à quel moment sans vous marcher sur les pieds.

#5 Et l’animation en tant que telle ?

Si vos participants se connaissent en amont, parce qu’ils travaillent dans la même équipe, cela vous facilitera grandement l’animation. Mais qu’ils se connaissent ou pas, les règles et bonnes pratiques de facilitation sont assez différentes du présentiel. Ayez en tête 3 aspects qu’un bon facilitateur à distance doit avoir en tête : le lien, la collaboration et les conseils.

Tout d’abord, le lien. Commencez par une introduction, un tour de table, un ice-breaker ou energizer si le groupe s’y prête. Assurez-vous, avant de rentrer dans le vif de l’atelier, que chacun a pu prendre la parole au moins une fois. Commencez par un discours, une question simple qui peut recréer le lien social informel qui se crée naturellement en physique. Lors d’un webinaire pendant le confinement en France, nous avions commencé en demandant aux participants de répondre à une question (quel est l’endroit qu’ils souhaiteraient visiter dès le confinement levé) qui a tout de suite décontracté l’atmosphère. Assurez-vous, surtout sur des outils comme Miro ou Klaxoon, que chacun est bien identifié et reconnaissable de ses pairs.

Prenez toujours le temps de présenter les consignes pas-à-pas, d’où l’importance du travail amont, et de choisir les outils adaptés. Donnez des exemples concrets, illustrez de manière très simple. Vos participants doivent écrire des post-its digitaux ? Créez-en un avec eux, en montrant chacune des étapes, écrivant le texte et le plaçant au bon endroit. Face à un tableau digital, nous pouvons vite nous sentir submergés et ne plus savoir que faire.

Ne laissez jamais vos participants face à une page blanche ou un moment de doute. En début d’exercice, le plus simple est souvent de laisser les participants travailler un temps individuel, puis collectif. Graduellement, la dynamique s’installe et les discussions seront de plus en plus naturelles et spontanées. Idéalement, selon les possibilités de chacun, la caméra permet d’identifier quand quelqu’un s’apprête à parler et d’éviter de se couper la parole. Zoom et Teams développent de plus en plus de fonctionnalités (chat, système de vote) qui permet de pallier l’absence de vidéo.

Lors du déroulé de l’atelier, pensez à nommer directement les gens. Interpellez-les, posez-leur des questions. Sinon, il est fort possible d’arriver à cette situation mainte fois vécue, la question posée, le blanc gênant qui se prolonge, et plusieurs personnes qui se coupent la parole en voulant répondre.

Récapitulez toujours le pourquoi de l’exercice, ce à quoi il faut parvenir, ainsi que ce qui vient d’être réalisé, et tentez de parvenir à une dynamique naturelle et constante.

Conclusion

Et le moment de grâce arrive. Des individus assis chacun derrière leur écran deviennent le temps d’un atelier un collectif engagé, pour qui la distance n’est plus un frein.

Le conseil que vous retrouverez systématiquement quant à l’animation d’ateliers est l’importance de la pratique. A chacun de se faire son expérience, d’être entouré, au début, de recevoir des feedbacks, et d’être dans une démarche d’amélioration continue. Lors d’un atelier à distance, j’ai toujours l’impression de devoir être deux fois plus alerte, deux fois plus attentive à la dynamique globale et son avancée. C’est un moment qui consomme beaucoup d’énergie, différemment que les ateliers présentiels.

J’ai vu d’excellents facilitateurs en présentiel se prendre les pieds dans le tapis sur des ateliers à distance car ils étaient persuadés que “ça irait” comme toujours sur leurs ateliers habituels. Mais l’exercice est déroutant et nécessite qu’on s’y attarde, qu’on y mette une énergie différente. Un excellent facilitateur d’ateliers en présentiel ne sera peut-être pas excellent sur le même exercice à distance. Alors préparez, répétez, entraînez-vous. Et surtout, prenez du plaisir à animer ces ateliers à distance qui ne doivent pas vous effrayer.

Rédigé par Marouchka Hebben, Consultante Acceleration Tactics

La concurrence exacerbée qui s’observe dans le monde commercial impose aux différents acteurs d’affirmer leurs propres différentiants pour capter et consolider leurs parts de marché. Pour cela, le recours au marketing est devenu presque indispensable, permettant de s’adresser à tous les consommateurs ciblés et de développer avec eux un lien particulier. Mais ces démarches ont un coût, et il est fondamental de vérifier l’efficacité des campagnes marketing afin d’optimiser la rentabilité de ces projets. À cette fin, il faut bien souvent s’appuyer sur des études statistiques, qui doivent être conduites avec méticulosité et esprit critique.

En effet, il existe de nombreux risques pouvant fausser les conclusions de telles études. Cet article présente ainsi un cas usage des statistiques pour mesurer la performance d’une campagne de marketing opérationnelle. Elle est réalisée en deux temps : d’abord une analyse comparative avec contrôle, puis une modélisation afin de mesurer l’impact d’un biais de sélection dans les résultats précédents. En fin d’article, la méthode de rééchantillonnage correspondante est décrite accompagnée du code Python correspondant, afin de remédier à ce biais.

Cet article s’adresse tant à des responsables marketing qui souhaitent parfaire leur culture statistique, qu’à des Data Analysts / Data Scientists qui apprécient l’inspiration que peut apporter une étude de cas pour leurs activités.

#1 Cas d’usage des statistiques en marketing opérationnel : clienteling et mesure de performance

Dans le retail, le clienteling est une pratique du marketing opérationnel visant à assurer une plus grande proximité avec le client en magasin, avec une approche la plus personnalisée possible. Une des stratégies de clienteling d’une enseigne renommée a été de mettre à disposition, sur les bons supports, au bon moment du parcours client, les bonnes data « actionnables » (produit et client) par les conseillers de vente afin d’améliorer le CA par client identifié. Voici deux exemples d’incitation client-centrique que peuvent formuler les vendeurs :

  • À un très bon client : s’assurer qu’il a l’application mobile de l’enseigne ou l’inciter à la télécharger.
  • À un client achetant principalement un type de produits : proposer des produits identifiés comme connexes et disponibles en magasin.

Une étude fut menée dans différents magasins pour évaluer l’impact de cette campagne de clienteling sur le comportement d’achat des clients. Ces comportements étant mus par de très nombreuses variables, il est indispensable d’écarter les éventuels facteurs confondants pour éviter des conclusions hâtives sur les effets de la campagne. Il a donc fallu déterminer une méthodologie d’analyse robuste. Pour cela, l’enseigne a été accompagnée de l’expertise de Saegus pour mener à bien cette étude qui est décrite dans le présent article.

#2 Méthodologie : l’importance des contrôles comme garde-fous

Déterminer une méthodologie d’analyses robuste commence par la détermination des KPIs (Key Performance Indicators) d’intérêts. Le plus important d’entre eux est le Chiffre d’Affaires (CA) généré par chaque client sur la période associée. Mais le CA se décompose en au moins deux autres variables : le Panier Moyen (PM) et la fréquence d’achat. Pour une plus grande précision dans la compréhension des éventuels effets de la campagne, ce sont ces deux KPIs qui sont retenus.

Afin de mesurer les éventuels effets de la campagne, nous avons procédé à une double vérification sur les deux KPIs étudiés : « 1) ont-ils progressé d’une année sur l’autre pour les clients ciblés ? 2) Les éventuelles progressions observées sur les clients ciblés se distinguent-elles des possibles progressions observées chez un groupe de clients non-ciblés ? ». Ces contrôles croisés sont fondamentaux puisqu’il faut pouvoir rapporter les éventuels effets (point 1) à une tendance de références (point 2) permettant d’exclure les effets contextuels (inflation, particularité des collections d’une année sur l’autre, particularités inopinées des clients ciblés, etc.).

En pratique, pour le 2e point, une cohorte de clients non-ciblés — dite “témoin” ou encore “contrôle” — issus du même magasin a été constituée a posteriori, reflétant avec la plus grande fidélité le groupe de clients ciblés. Pour cela, un groupe de clients n’ayant pas bénéficié de la campagne de clienteling a été constitué à partir de la population de façon à correspondre le plus fidèlement au groupe cible (données socio-démographiques, scores variés, comportement d’achat, etc.). Concrètement, pour construire ce groupe contrôle, nous avons utilisé la librairie Python pymatch. Le groupe cible compte 3622 clients, le groupe témoin 2039 clients, pour une population de clients de 20323.

#3 Résultats : évaluation de la significativité statistique de la progression des KPIs

Dans le tableau ci-dessous se trouvent les résultats pour les 2 KPIs, confrontés entre l’année N-1 et l’année N, sur le groupe cible et le groupe témoin. La significativité statistique des différences d’une année sur l’autre, ainsi qu’entre les deux groupes (dernière ligne “Diff. T – C”) est indiquée par un code couleur : un fond vert exprime une différence significative contrairement à un fond rouge.

Cette significativité exprimée par la p-value est aisément calculée grâce à des tests statistiques via le module stats de la librairie scipy :

  • t-test à deux échantillons appariés pour les tests appliqués à un même groupe sur les deux années consécutives pour mesurer la progression du KPI
  • t-test à deux échantillons non-appariés pour comparer la progression du KPI chez les deux groupes

Cette p-value mesure la probabilité que cette différence soit fortuite : si elle est inférieure à 0.05, nous pourrons conclure avec un risque d’erreur de moins de 5% qu’il y a effectivement un effet. Autrement dit, dans ce cas, l’affirmation « la différence est notable » est associée à un indice de certitude d’au moins 95%. Il est important de noter qu’a priori, un résultat significatif n’exclue donc pas la possibilité qu’il s’agisse en fait d’une coïncidence statistique (mais d’autant moins probable que la p-value est proche de 0).

L’étude de la significativité est fondamentale dans le cadre de petits échantillons car elle permet de donner du relief aux chiffres, avec des conclusions quantitatives. Elle n’est pas une fin en soi et a ses limites – par exemple elle ne dit rien de l’intensité de l’effet qui est également crucial – mais facilite l’interprétation, comme nous le montrons dans la suite de l’article. Nous pouvons notamment constater que le PM présente une contraction significative d’une année sur l’autre pour les deux groupes, mais la différence d’amplitude entre les deux groupes n’est pas statistiquement significative : les résultats ne permettent pas de conclure que les missions de clienteling influent le PM (mais n’exclue pas non plus en l’état cette éventualité). En ce qui concerne l’autre KPI relatif à la fréquence d’achat, alors que le groupe témoin voit sa fréquence diminuer significativement, ce KPI progresse nettement dans le sens inverse pour le groupe cible, celui de l’augmentation. La différence de tendance entre les deux groupes est extrêmement significative. Ce résultat en apparence concluant va être analysé plus finement dans la suite de l’article.

#4 Rectification des résultats en estimant l’impact du biais de sélection

Après toutes les précautions prises, nous pourrions nous targuer d’un résultat positif : les campagnes semblent doper la fréquence d’achat des clients. Mais une telle conclusion n’est-elle pas trop prématurée ? Il semblerait que si, puisqu’il y a ce qu’on appelle un biais de sélection du groupe cible : plus un client vient au magasin, plus il a de chances de se voir solliciter par une incitation liée à la campagne. Ainsi, le groupe cible risque fortement de ne pas refléter fidèlement la population sur ce KPI puisque la fréquence moyenne de ce groupe aura tendance à être plus élevée. Mais comment distinguer les effets de ce biais de sélection avec les éventuels effets de la campagne de clienteling ?

Il faut pour cela faire appel à la technique du bootstrap. Cette méthode de rééchantillonage permet d’estimer la valeur moyenne de fréquence d’achat sur un sous-groupe de la population en tenant compte du seul biais de sélection. Concrètement, on effectue de nombreuses fois une attribution aléatoire des 5032 missions réalisées au cours de la campagne auprès de la population des clients du magasin. Pour simuler ces attributions, il faut pouvoir représenter la population de clients. La table des effectifs de ces derniers et de leurs fréquences d’achat sur la durée de la campagne est présentée ci-dessous.

En effectuant cette attribution aléatoire de missions auprès de cette population un très grand nombre de fois (ici, le processus est répété 1000 fois), il est possible de visualiser la distribution statistique de la moyenne d’échantillon de la fréquence d’achat. Dans ces conditions, cette distribution permet de refléter le biais de sélection mentionné précédemment. Cette distribution et sa moyenne sont donc ensuite comparées aux valeurs moyennes de la population, du groupe témoin et du groupe cible. Pour faciliter la discussion, ces valeurs sont représentées sur le graphique ci-dessous.

Sur le graphique, la distribution des moyennes d’échantillon présente une moyenne à 3.15 (en rouge). Il y est également représenté (voir légende) : la moyenne de fréquence d’achat du groupe cible, celle du groupe témoin et celle de la population de laquelle sont extraits les groupes cibles et témoins. Il est à noter sans trop de surprise que la moyenne de fréquence d’achat du groupe témoin – qui est à 2.08 – est très proche de celle de la population (2.12). Par ailleurs, la moyenne des échantillons liés au bootstrap est largement supérieure à celle de la population et du groupe témoin, mettant en exergue la réalité du biais de sélection.

En ce qui concerne le groupe cible, il apparaît que sa moyenne est très nettement au-dessus de la distribution de moyennes d’échantillons liée au seul biais de sélection. Un test statistique (t-test à un échantillon appliqué à la distribution vis-à-vis de la moyenne du groupe cible) révèle la significativité majeure de cet écart (p << 0.001). Ce biais de sélection ne suffit donc pas à lui seul à expliquer l’écart de la fréquence d’achat moyenne du groupe cible au groupe témoin. Ainsi, seulement après toutes ces vérifications et ces nombreux contrôles, nous pouvons finalement conclure que les missions de clienteling semblent accroître la fréquence d’achat des clients.

#5 Présentation du code Python associé à la méthode de bootstrap

Nous présentons ici l’implémentation de ce qui a été décrit précédemment concernant l’usage du bootstrap pour estimer l’effet du biais de sélection. Cette partie du projet, singulière et spécifique, a été codée “à la main” pour garantir une analyse sur-mesure. Le code correspondant est détaillé ci-dessous, et vous permet de répliquer et d’adapter la démarche. Si cet aspect technique vous parle moins, vous pouvez directement passer à la conclusion ci-bas.

La première section de code présentée ci-dessous permet de charger les données liées aux effectifs de clients par fréquence d’achat (autrement dit la table présentée précédemment). Par ailleurs, deux listes sont créées :

  • clients_visit : cette liste énumère exhaustivement chacune des visites de tous les clients de la population, ces dernières étant référencées par le numéro du client (de 1 à 20323, ordonnés par ordre ascendant de fréquence d’achat). Par exemple, si le client numéro 1515 est venu 3 fois sur la période, son identifiant (1515) apparaîtra 3 fois dans la liste.
  • clients_freq : cette liste associe à chaque identifiant client encodé par l’index dans le tableau la fréquence d’achat de ce dernier sur la période (en valeur). Ainsi, la 100e valeur du tableau correspond à la fréquence d’achat du client 99 (la numérotation des clients commencent à 1, rendant la première valeur d’index 0 du tableau “silencieuse”).

La section de code ci-dessous permet de définir la fonction get_sampled_mean_freq qui attribue aléatoirement les 5032 missions de clienteling à l’ensemble des visites représenté par le paramètre clients_visit. Pour refléter au mieux la réalité terrain, un même client étant venu de nombreuses fois au magasin peut se voir solliciter plusieurs fois dans le cadre de cette campagne. Il est cependant important de ne les compter qu’une seule fois au moment de calculer la moyenne de la fréquence d’achat de l’échantillon (d’où l’usage de la fonction unique). Une fois l’échantillonnage effectué, les fréquences d’achat des clients sélectionnés sont récupérées (grâce au paramètre clients_freq). Cela permet ainsi le calcul de la moyenne correspondante qui est retournée par la fonction.

Grâce aux sections précédentes, il suffit désormais d’appliquer 1000 fois la fonction get_sampled_mean_freq afin d’obtenir 1000 moyennes de fréquence d’achat associées chacunes à différents échantillons. Elles sont stockées dans la liste sampled_mean_freqs qui permettra de décrire la distribution de ces moyennes. C’est précisémment l’histogramme de sampled_mean_freqs qui est représenté sur la figure ci-haut.

Et voilà comment en quelques lignes de code et grâce à la méthode de bootstrap, il est possible de révéler la contribution du biais de sélection à la valeur moyenne d’un KPI, ici la fréquence d’achat.

Conclusion

Pour résumer, mesurer l’impact du clienteling sur le comportement d’achat des clients s’est avéré moins trivial qu’il n’y paraissait, avec de nombreuses étapes d’analyses. Il aura fallu notamment :

  • Appliquer une méthodologie rigoureuse et systématique afin de définir clairement les objets d’étude
  • Mettre en place les contrôles nécessaires à l’exclusion d’effets contextuels biaisant les résultats
  • Mesurer quantitativement les effets d’intérêts
  • Prendre de la hauteur sur le résultat ce qui permit d’identifier un autre biais caché lié à la “sélection” des cibles
  • Mesurer l’effet isolé de ce biais pour pouvoir préciser l’impact de la campagne de clienteling
  • Communiquer les résultats aux métiers et les convertir en action (phase essentielle non retranscrite dans cet article)

L’usage des statistiques se révèle donc indispensable à la bonne compréhension de certains phénomènes, et garantissent des histoires à rebondissements palpitantes. Et vous, quelle est votre histoire ? N’hésitez pas à venir nous la partager en prenant contact avec nous !

Rédigé par Clément Moutard, Consultant Data Driven Business.

Notes
Thanks to Eliot Moll.

L’Expérience Utilisateur est au cœur des préoccupations des entreprises. Né dans les années 1990, le terme « Expérience Utilisateur » englobe toutes les interactions de l’utilisateur final avec l’entreprise, ses services et ses produits. Produire un contenu en phase avec les attentes des utilisateurs est un moyen d’améliorer l’expérience utilisateur.

Le feedback permet justement de comprendre ces attentes. Il va venir mettre en exergue les points d’amélioration possibles afin d’améliorer l’expérience initiale de l’utilisateur. Le feedback est donc considéré comme un outil stratégique incontournable d’amélioration continue de l’expérience utilisateur.

Tirant ses sources du verbe “to feed” qui signifie “nourrir dans le but de faire progresser”, la notion de feedback apparaît lors des tous premiers ateliers avec la mise en place de questionnaires (Kurt Lewin, A dynamic theory of personality, 1935).

Depuis, outre les ateliers, la récolte de feedbacks est apparue dans d’autres types de situations. L’intention derrière la récolte de feedback demeure cependant identique : améliorer l’expérience de l’utilisateur.

La récolte de feedbacks est aujourd’hui entrée dans les habitudes des utilisateurs. Si nous connaissons tous les questionnaires de satisfaction et les sondages, d’autres techniques de récolte de feedback ont vu le jour ces dernières années afin d’assurer une récolte de feedbacks pertinente en termes de contexte, timing, questions posées, etc.

Pensées pour être plus interactives et engageantes, elles permettent de s’intégrer de manière plus subtile dans l’expérience de l’utilisateur, tout en ayant gare à la sursollicitation. L’objectif ? Donner envie aux utilisateurs de donner leur avis afin de récolter un plus grand volume de feedbacks, et plus qualitatifs.

Avant de se lancer dans la récolte de feedbacks, il est indispensable de se poser quelques questions :

  • A-t-on déjà effectué une demande de feedbacks auprès des utilisateurs cibles ? Dans quel contexte ?
  • Si oui, quels ont été les retours ? Ont-ils été suffisants ? Ont-ils été éclairants ? Pourquoi ? Quelles ont été les stratégies d’amélioration mises en place suite à cette récolte de feedbacks ?
  • Si non, pourquoi aucun feedback n’a été récolté jusqu’à ce jour ? Y a-t-il des obstacles à la récolte de feedbacks ? Lesquels ? Comment les contourner ?
  • Quelles sont les questions que l’on se pose aujourd’hui ? A-t-on déjà des KPIs sur lesquels s’appuyer ?
  • Quelle est la nature des feedbacks que l’on souhaite récolter (quantitatifs ou qualitatifs) ?
  • Est-il possible d’exploiter certains outils de récolte de feedbacks déjà été en place auprès des utilisateurs ?

Une fois avoir pris du recul sur ces questions, un travail préparatoire est entamé afin de cadrer la récolte de feedback.

#1 La récolte de feedbacks : les fondamentaux

Dans quel contexte récolter des feedbacks ?

Les contextes dans lesquels la récolte de feedbacks est importante sont variés. À titre d’exemple, nous pouvons retrouver :

  • Des tests sur prototype
  • Un produit, service ou espace (nouveau ou existant)
  • Des ateliers de co-création
  • Des activités de formation
  • Des évènements
  • Des prestations

Qui récolte les feedbacks ?

Tout le monde a la possibilité de récolter des feedbacks.

Chacun peut, à son échelle, demander un feedback à quelqu’un. Cela peut valoir dans le cadre professionnel mais aussi personnel, sur une tâche réalisée, une activité, ou autre. Si l’on adhère aux philosophies agiles et aux nouvelles approches user-centric, la récolte de feedback doit devenir un automatisme et faire partie intégrante de notre manière d’aborder une situation.

Auprès de qui récolte-t-on les feedbacks ?

Pour que la récolte d’un feedback et son analyse soient les plus précises possibles, il est important de savoir qui est la personne qui va émettre le feedback. Plus on souhaite que le feedback soit qualitatif, plus la qualification de la personne qui émet le feedback est importante.

#2 Bien préparer la récolte de feedbacks pour des retours de qualité au profit de l’expérience

Préparer la mise en contexte : expliquer aux utilisateurs la raison pour laquelle leur feedback est important

Les feedbacks doivent être honnêtes et sincères, et sans jugement de la part de la personne qui les récolte.

Avant tout chose, il est important de mettre la personne à l’aise et de préciser qu’elle peut s’exprimer librement, et de manière anonyme. Il est également important de rappeler le contexte (pourquoi le feedback est récolté) sans trop en dire pour ne pas influencer l’utilisateur.

Préparer les questions : la qualité des questions va définir la qualité des feedbacks

Des questions trop orientées peuvent introduire un biais dans les réponses. Des questions peu précises entraîneront des réponses floues et peu applicables.

Pour définir les questions à poser, il faut se demander si l’information récoltée permettra de mettre en place des actions concrètes.

Appliquer la technique de l’entonnoir pour poser des questions de plus en plus précises :

  • Qualifier l’utilisateur (âge, sexe, activité, etc.)
  • Poser des questions introductives, générales et simples pour comprendre le contexte : “Que pensez-vous de… ?”
  • Poser des questions ouvertes mais dirigées pour comprendre le besoin : “Quels sont les éléments les plus appréciés ?”, “Quels sont les éléments les moins appréciés ?”
  • Demander des notations, toujours avec une question de suivi pour justifier : “Sur une échelle de 1 à 10, dans quelle mesure êtes-vous satisfait de cette page ?”, “Pourquoi ?”
  • Ouvrir le champ des possibles : “Avez-vous quelque chose à rajouter ?”, “Avez-vous des suggestions d’amélioration ?”

Après avoir récolté les feedbacks, n’oubliez pas de remercier les utilisateurs !

Préparer l’observation de l’utilisateur dans son environnement :

L’observation est plus efficace si elle est réalisée directement sur le terrain, dans le contexte des utilisateurs afin de récolter les données issues des comportements, d’attitudes, de verbalisation… Elles offrent la possibilité de tester ses hypothèses sur les utilisateurs.

Anticiper l’analyse et l’intégration des feedbacks

Une fois les feedbacks demandés auprès des utilisateurs, ils doivent être retranscrits. Il est important de préparer une méthodologie d’analyse via des grilles par exemple. La retranscription va dépendre des objectifs. Mais une méthode simple pourra vous permettre d’analyser le contenu.

Après avoir retranscrit et lu les données, vous pouvez les trier en quatre catégories :

  • Les éléments les plus appréciés
  • Les éléments les moins appréciés
  • Les questions en suspens
  • Les idées d’amélioration

Après les avoir analysés et priorisés, la personne en charge de récolter les feedbacks pourra les intégrer dans l’expérience cible de l’utilisateur. Attention, tous les feedbacks ne doivent pas être systématiquement intégrés !

#3 Choisir le bon outil de récolte de feedback

À l’ère du digital, les utilisateurs sont de plus en plus bombardés par les demandes de feedbacks. Comment faire pour que les feedbacks de vos utilisateurs soient aussi nombreux que qualitatifs ?

Pour ce faire, des outils à contre-courant existent pour récolter des feedbacks engageants pour les utilisateurs.

Récoltez des feedbacks à chaud

Qu’est-ce la récolte de feedbacks à chaud ?

La personne en charge de récolter les feedbacks peut demander ce qui a été apprécié, moins bien apprécié ou mérite d’être amélioré, pendant ou immédiatement après l’action, la tâche ou l’activité réalisée. Cela permet de récolter des feedbacks non biaisés par d’éventuels échanges ultérieurs entre les utilisateurs.

Voici quelques exemples d’outils de feedbacks à chaud que vous pourriez utiliser pour disrupter la récolte de feedbacks.

L’observation est une méthode de recherche qualitative qui tire ses sources de l’ethnographie.

Elle consiste à observer activement les personnes, les interactions qui entrent en jeu dans les situations d’usage des produits, projets ou activité.

La richesse de cette méthode réside dans l’aspect exploratoire qui permet de découvrir, sans hypothèses initiales et à partir d’une grille de critères, le comportement des utilisateurs dans des situations réelles.

Il existe de nombreuses techniques d’observation des participants. L’observation peut ensuite être accompagnée de questions de suivi.

La « Heat Map » est une carte thermique qui permet d’observer le comportement des utilisateurs sur une plateforme web.

Par l’intermédiaire d’un code de tracking intégré à votre plateforme, c’est un moyen de récolter les feedbacks en comprenant ce qui intéresse le plus les utilisateurs et, au contraire, ce qui ne fonctionne pas. Il est également possible de filmer automatiquement les visiteurs du site pour comprendre ce sur quoi ils cliquent.

L’emoji Exit Strategy

Cette technique de récolte de feedback est utilisée en fin d’activité et consiste à entourer un émoticône qui reflète l’état d’esprit de l’utilisateur.

Les cartes postales

Une carte postale vierge est remise à chaque participant au début de l’événement et sur un côté de la carte postale, ils sont invités à noter trois objectifs ou trois éléments qu’ils souhaitent apprendre ou atteindre lors de l’événement.

Lorsque l’événement est terminé, les participants sont invités à brièvement noter de l’autre côté de la carte postale dans quelle mesure l’événement les avait aidé à atteindre leurs objectifs.

Récolter des feedbacks à froid

Qu’est-ce que la récolte de feedbacks à froid ?

La personne en charge de récolter les feedbacks peut demander les retours quelques jours, semaines, voire mois, après la réalisation d’une activité, action ou tâche. Cette prise de recul de la part des utilisateurs est importante. Les apprentissages issus de ce type de feedbacks sont généralement différents et viennent compléter les feedbacks à chaud déjà récoltés.

Il est donc recommandé de combiner ces deux pratiques.

Quelques exemples d’outils de feedbacks à froid :

Voici quelques exemples d’outils de feedbacks à froid que vous pourriez utiliser pour disrupter votre récolte de feedbacks. Ces outils peuvent être utilisés également à chaud. Sachant qu’ils peuvent être automatisés, ils peuvent utilisé à froid, une fois que l’utilisateur aura fait son inscription sur la plateforme par exemple.

Le questionnaire

On ne présente pas plus le questionnaire. Pas facile de disrupter le questionnaire mais il existe des outils de questionnaires qui vous permettront de révolutionner le design en personnalisant l’interface.

Typeform est un exemple.

Le Chatbot Feedback permet de demander un feedback directement sur la plateforme. Il peut être demandé suite à un évènement ou un achat sur la plateforme.

Le NPS est une échelle de 1 à 5 qui demandent aux utilisateurs de jauger leur expérience suite à leur interaction avec une plateforme, produit ou service. Vous trouverez des outils qui demandent seulement d’attribuer une note et parfois de justifier avec un commentaire leur note.

Il existe plusieurs autres outils de feedbacks possibles pour disrupter votre récolte de feedbacks :

  • Campagne CRM : Puisque la campagne est personnalisée, elle vous permettra d’obtenir une conversation des utilisateurs, cela veut dire que ces derniers reviennent sur la plateforme. Par exemple, quand l’utilisateur s’enregistre sur une plateforme, vous pourrez paramétrer un e-mail automatique pour poser une question simple.
  • Les réseaux sociaux : Certains utilisateurs partagent leurs opinions directement sur les réseaux sociaux. Prenez le temps de les écouter en cherchant les mots clés de votre activités.

À vous de faire votre choix !

Rédigé par Sonia Keredine, Consultante Acceleration Tactics

L’Excellence tant sur la qualité des animateurs que sur la qualité des animations de sont au rendez-vous !”

3 collaborateurs de l’Observatoire des Réseaux Sociaux d’Entreprise sont venus se former chez Saegus. Pendant 2 jours de formation intensive, les stagiaires ont appris les fondamentaux du Design Thinking, une approche itérative centrée sur l’humain et l’utilisateur final. Elle est constituée de 5 phases : comprendre, définir, imaginer, créer et tester.

Cette approche permet de générer des solutions en mettant les personnes qui vont les utiliser au centre du processus de conception. Le Design Thinker va d’abord s’atteler à comprendre l’utilisateur, son contexte, ses attentes, ses difficultés. Cela passe par l’empathie. Cette compréhension du besoin va faire émerger une problématique précise. Pour répondre à cette problématique, une phase d’idéation, ou de génération d’idées, va ensuite apporter des prémices de solutions qui seront immédiatement prototypées et testées auprès des utilisateurs, sur le terrain.

Dans les faits, un Design Thinker fait et apprend perpétuellement. Tout comme nos apprenants !

Revenons ensemble sur les moments forts de la formation en 3 points clés.

#1 Le contexte de l’Observatoire au centre de la formation

“La formation avec une problématique réelle permet de mieux comprendre le Design Thinking.”

Dans le but de créer une cohérence entre ce qui est vu en formation et le contexte professionnel des apprenants, une problématique servant de base de travail a été définie en amont de la formation. Nous avons choisi, avec l’Observatoire, une problématique stratégique : repenser les Learning Expéditions menées par l’Observatoire des Réseaux Sociaux d’Entreprise.

L’une des principales activités de l’Observatoire est effectivement l’organisation de Learning Expeditions. Celles-ci donnent à des groupes de collaborateurs l’opportunité de vivre une expérience tournée vers la découverte de nouvelles approches de travail et d’aller à la rencontre d’entreprises à la pointe de l’innovation.

En faisant tourner les cas pratiques de la formation autour de leurs besoins concrets, les membres de L’Observatoire ont pu facilement ramener les concepts du Design Thinking à leur contexte.

#2 Une rencontre : une équipe d’apprenants composée de membres de l’Observatoire et de Saegusiens

Très intéressant et agréable de suivre la formation avec d’autres Saegusiens.”

Le principe des formations intra-entreprises est essentiel pour la Saegus Institute afin de rester centré sur la problématique de l’entreprise formée. Il est cependant possible d’associer des collaborateurs de Saegus, également apprenants, à ces formations, notamment lorsque celle-ci requiert un nombre minimum pour constituer une véritable équipe.

C’est ainsi que les 3 membres de l’Observatoire, Jean-Marie, Widad et Mathilde, ont travaillé pendant deux jours aux côtés de 4 Saegusiens aux compétences variées, Yanni, Laure, Nicolas et Raphaël. Ensemble, ils ont, dès le début de la formation, trouvé un nom d’équipe et créé leur propre mascotte. Les Saegusiens, quant à eux, ont pu travailler sur un cas réel avec le client et découvrir un nouvel univers.

Les formatrices, des consultantes en activité sur leurs domaines d’expertise, ont également eu un rôle très important à jouer pour apporter du dynamisme à l’équipe et libérer la créativité de chacun. Les ice-breakers qu’elles ont animés ont par exemple été essentiels pour détendre l’atmosphère et établir une relation de confiance. Elles ont aussi beaucoup insisté sur des principes clés du Design Thinking :

  • Pas de jugement ;
  • Le « non, mais » est proscrit, pour laisser place au « oui, et » ;
  • Toutes les idées sont les bienvenues, même les plus folles. 

Grâce à la réunion de ces différents ingrédients, dynamisme, écoute, créativité et bienveillance ont prédominé tout au long de la formation. Cette cohésion d’équipe a permis aux apprenants de véritablement se mettre dans la peau de Design Thinkers, habitués à travailler en équipe hétérogène et à adopter ces principes.

#3 Théorie, pratique… et pratique !

“Très bon rythme entre théorie et pratique.”

Pour véritablement comprendre et intégrer les concepts du Design Thinking, il est essentiel de donner des exemples concrets et d’appliquer immédiatement les apprentissages par la pratique. Ice breakers, cas pratiques, moments d’échanges et de co-création : tous ces éléments viennent rendre tangibles des notions complexes.

Tout au long de la formation, la théorie et la pratique s’entrecroisent ainsi afin de créer un équilibre entre l’écoute et la création. Pendant les phases de pratique, les formatrices ont pu s’assurer que les enseignements avaient bien été intégrés. Le rôle des formateurs est essentiel pour contribuer à la prise d’autonomie de l’équipe et à maintenir un bon rythme de travail.

Pendant ces moments dédiés à la pratique, toujours centrés sur la problématique de départ, les apprenants ont créé leurs personas sont repartis du besoin, ont généré de nouvelles idées, les ont priorisées, et ont créé les parcours cibles des futures Learning Expeditions. En deuxième jour de formation, grâce au travail réalisé la veille, ils ont créé leur premier prototype !

Le passage de la certification Saegus au Design Thinking est venu conclure la formation et ancrer les concepts clés du Design Thinking. Bien entendu, parce que la récolte de feedbacks est un élément essentiel du Design Thinking et de la Saegus Institute, nous avons demandé les retours à chaud des apprenants. Un questionnaire de satisfaction a été envoyé par la suite.

Si vous aussi vous avez envie de vous former au Design Thinking, renseignez-vous sur le site de la Saegus Institute ou contactez-nous directement !

Rédigé par Sarah Chakir, Consultante Acceleration Tactics