Ici archive

Le métavers est un réseau d’environnements graphiques virtuels en ligne, accessible grâce à des équipements de réalité virtuelle ou augmentée. Les utilisateurs sont plongés dans une expérience immersive au sein de laquelle ils ont la liberté d’être qui ils souhaitent et d’aller et de faire ce qu’ils veulent sans limite. Le film “Ready Player One” est un bon exemple pour illustrer le métavers – les personnages vivent dans l’Oasis, une société virtuelle accessible grâce aux mêmes technologies. La réalité a donc rattrapé la science-fiction : il est aujourd’hui possible de basculer dans ce monde parallèle…

L’intention de Mark Zuckerberg de transformer l’entreprise Facebook en un métavers est devenu un sujet incontournable pour les entrepreneurs, et plus particulièrement les acteurs du marketing. En effet, le monde virtuel offre des opportunités commerciales générant de la valeur : il est essentiel de s’y adapter rapidement ! L’exposition des marques et des produits dans le métavers est aujourd’hui la clé pour se positionner sur ce nouveau champ de bataille. Mais comment procéder ?

La publicité OOH virtuelle

L’espace de publicité est le modèle principal de sources de revenus du métavers (ex-Facebook, donc). Les designers et ingénieurs qui créent ces mondes virtuels travaillent ensemble pour permettre aux marketers et publicitaires de diffuser leurs annonces dans des espaces dédiés. À l’image des publicités out-of-home (OOH) que l’on retrouve sur les immeubles, les panneaux publicitaires ou dans les transports en commun, les annonces sont exposées sous des formats multiples non-contraints par les lois de la physique.

Les événements virtuels

En 2019, Marshmello réalisait pour la première fois un concert de musique électronique dans le jeu vidéo Fornite, rassemblant ainsi les joueurs autour d’une expérience musicale immersive. Ce concert a levé les contraintes logistiques et de capacité d’accueil pour laisser place à la créativité. Il a ouvert la porte à de nouvelles opportunités événementielles pour les marques comme l’organisation de défilés de mode, de premières de films ou d’évènements sportifs. Les possibilités sont infinies… sky is the limit !

Le placement de produit virtuel

Le métavers n’est pas qu’un lieu de jeu : il est possible d’y créer son avatar en lui donnant l’apparence et le style que l’on souhaite. Certaines marques de luxes comme Balenciaga et Gucci se sont déjà positionnées sur ce marché en intégrant leurs produits dans le monde virtuel : des boutiques offrent aux clients une nouvelle expérience, ayant pour objectif d’accroitre à terme les ventes dans la réalité.

L’avenir du placement de produit dans le métavers

Notre conviction est que les marques et organisations seront une partie intégrante du métavers dès lors que son usage sera mainstream. Ainsi, nous pouvons imaginer que les entreprises et marques loueront des espaces virtuels pour déployer leurs activités. Mercedes y lancera des véhicules virtuels, Starbucks offrira des espaces virtuels où se retrouver…

Saegus saisit l’opportunité de valoriser les données marketing du métavers pour augmenter les insights consommateur en fournissant un conseil en stratégie. Nos experts du data marketing vous accompagnent sur l’analyse des données du métavers (comportement utilisateur et médias digitaux), la mise en place de stratégie marketing dans le métavers et la réalisation de contenus créatifs digitaux. Le futur est déjà le présent : nous sommes prêts, et vous ?

Vous souhaitez en savoir plus ou être accompagnés par nos équipes Data ?

Rédigé par Tanasit Mahakittikun, Consultant Data

Qu’est-ce qu’une Experience Map ?

Rien de mieux qu’initier une démarche centrée utilisateur par une phase exploratoire – dite d’empathie – afin de mieux cerner les besoins, frustrations ou réussites des publics ciblés.

À ce titre, l’Experience Map est un outil puissant : il permet de représenter les résultats de la phase exploratoire en illustrant de manière holistique et synthétique la complexité des expériences utilisateurs observées.

Une phase exploratoire réussie se traduit par l’identification d’une série de catégories d’utilisateurs types et la synthèse de leurs parcours respectifs sous forme d’Experience Maps.

Ces synthèses sont riches en informations. Cependant, il n’est pas toujours aisé d’identifier celles essentielles à la (re)définition de la problématique traitée et à l’identification de futures solutions.

Cet article vous présente les bonnes pratiques pour créer une Experience Map et l’utiliser comme outil d’aide à la décision.

Dans quels contextes utilise-t-on les Experience Maps ?

Dès que l’expérience utilisateur, client ou collaborateur est au cœur de la réflexion, l’Experience Map est un outil pertinent car il donne une vue d’ensemble des parcours abordés.

Chez Saegus, nous avons notamment utilisé cet outil dans les contextes suivants :

  • Restituer l’expérience sanitaire maternelle et néonatale des femmes au Sénégal afin d’améliorer l’impact terrain d’une Fondation ;
  • Analyser des expériences de recrutement aux États-Unis et Émirats arabes unis ;
  • Croiser les parcours d’achats de consommateur·rice·s. et les expériences d’employé·e·s pour identifier les actions à forte valeur ajoutée pour une chaîne de magasins de bricolage ;
  • Comprendre et analyser les travaux de chercheur·euse·s réparti·e·s sur trois continents différents afin de concevoir un nouvel outil de saisie et d’analyse adapté aux usages de chacun·e :
  • Comparer l’expérience des salarié·e·s de différents métiers et grades afin de trouver un bon équilibre entre le travail en distanciel et en présentiel après un retour dans les locaux.

Comment créer une Experience Map en 4 étapes ?

  • Aller à la rencontre des utilisateur·rice·s : une Experience Map est construite à partir d’interviews et d’immersions terrain en interaction directe avec le public ciblé ;
  • Identifier un persona : sur la base des résultats de l’immersion et votre connaissance du sujet abordé, identifiez le(s) persona(s). Un persona est un·e « utilisateur·rice type » de la solution, expérience ou produit ciblé. Présentez ses caractéristiques principales en bordure de l’Experience Map ;
  • Définir les différentes phases de l’expérience : les Experience Maps sont organisées en fonction des étapes du parcours de l’utilisateur·rice, communément appelées “phases”. Subdivisez donc le parcours en phases et, pour chacune d’elle, décrivez les objectifs, actions, outils et autres informations majeures au cœur de l’expérience du persona ;
  • Mettre en valeur les émotions : pour chaque étape, illustrez l’émotion du persona. Joie, fierté, déception ou frustration, tout doit être représenté – sous forme de smiley ou de courbe d’émotion par exemple. N’hésitez pas à compléter par des verbatims illustrant ce que vivent les utilisateur·rice·s que vous avez interrogé·e·s. Il est essentiel d’identifier des phases ou des actions qui apportent le plus de satisfaction ou de frustration à votre persona.

Comment utiliser une Experience Map comme outil d’aide à la décision ?

Les Experience Maps permettent de circonscrire les étapes des parcours utilisateurs sur lesquelles concentrer les efforts. Prise individuellement, une Experience Map réussie illustre les moments qui concentrent les frustrations ou “pain points” d’un persona. Ces phases sont associées à diverses informations tels que l’intensité de l’émotion, actions réalisées ou besoins exprimés, qui sont autant de critères permettant de prioriser les axes d’amélioration.

Cependant, les Experience Maps sont rarement prises ensemble, car l’analyse croisée d’Experience Maps de personas liées à un parcours commun est moins aisé.

Une solution pertinente est d’aligner les expériences de personas partageant un parcours similaire, par exemple dans le cas de professionnel·le·s de santé, de patient·e·s et d’aidant·e·s associé·e·s à un même parcours de soin.

Pour aligner des Experience Maps, il faut préalablement modéliser un parcours commun aux personas étudiés dès la construction des cartographies, puis mettre en place une représentation consolidée des expériences associées à ce parcours. La représentation ainsi obtenue permet de pondérer les frustrations individuelles et de choisir les “pain points” sur lesquels concentrer la conception de nouvelles solutions ou fonctionnalités.

Pour en savoir plus sur nos approches, découvrez AIM, notre modèle d’accélération sur-mesure pour concrétiser vos programmes, projets, produits et organisations.

Vous souhaitez être accompagné·e·s sur un projet ? Contactez nos équipes Acceleration Tactics !

Rédigé par Jean-Baptiste Briand, Consultant Senior, et Huanxu Liu, Consultant Junior Acceleration Tactics

Maximiser l’efficience et l’efficacité opérationnelle dans un monde en constante évolution est un défi pour toutes les entreprises aujourd’hui, quel que soit leur secteur d’activité. Les challenges opérationnels sont de plus en plus nombreux et complexes : perturbation des chaînes d’approvisionnement, numérisation massive des modes de consommation, augmentation ininterrompue des exigences qualité et guerre concurrentielle pour offrir les meilleurs prix ne sont que quelques-uns d’entre eux. Dans ce contexte, les données de l’entreprise sont un asset qu’il n’est plus possible de ne pas exploiter et valoriser à sa juste valeur.

Martin Alteirac, Senior Manager en charge du secteur Industriel au sein de l’équipe Data Driven Business chez Saegus, répond à nos questions.

Comment les nouveaux usages de la data peuvent-ils contribuer à l’excellence opérationnelle ?

Avant d’être une démarche, l’excellence opérationnelle est un état d’esprit. Un des piliers de cet état d’esprit est à mon sens la faculté à objectiver les problèmes, à être pragmatique, à raisonner sur des faits et pas sur des idées préconçues ou des préjugés.

La data est donc un atout majeur dans la quête de cette excellence car elle permet de mettre en évidence de manière factuelle les points de faiblesses d’une organisation. Deux grands usages peuvent contribuer à l’excellence opérationnelle des entreprises :

  • L’analytics, par sa faculté à apporter à chaque collaborateur·rice une information personnalisée et actionnable et à faire rayonner dans l’entreprise une culture de la mesure de la performance ;
  • La data science, par sa capacité à optimiser et/ou automatiser certains processus métier complexes ou à aider à la conception de nouveaux produits ou services.

Le premier enjeu est d’identifier les fonctions d’une entreprise les plus à même de bénéficier de ces nouveaux usages de la data.

Quelles sont les fonctions de l’entreprises les plus propices au déploiement de ce type de démarche ?

Toutes les fonctions de l’entreprise peuvent bénéficier d’une démarche Data Driven Ops :

  • La production ou les opérations pour délivrer des produits ou services d’une qualité irréprochable tout en optimisant leur coût de production ;
  • La Supply Chain pour servir ses clients toujours plus vite en sollicitant le minimum de ressources ;
  • La maintenance pour garantir que les moyens de production soient les plus productifs possible ;
  • Le procurement où la transformation digitale permet d’acheter toujours mieux et au meilleur prix ;
  • Les ressources humaines pour booster l’efficacité des équipes ;
  • La recherche et le développement pour développer les produits et services de demain.

Bien évidemment l’intérêt de ces différentes fonctions dépend généralement du secteur d’activité concerné :

  • Le secteur du manufacturing sera intéressé par les cas d’usages autour de la valorisation des données issues des équipements ou des systèmes d’information liés à la production : optimisation des rendements, qualité ou maintenance prédictive, optimisation de la planification… ;
  • Le secteur de la distribution B2B ou B2C sera friand de cas d’usages autour de la supply chain, du procurement ou du pricing ;
  • Enfin le secteur énergétique sera concerné par la récupération et l’exploitation de données physiques mesurées par des capteurs posés au niveau des équipements de production et de consommation d’énergie pour prévoir la demande ou la production en temps réel.

D’autres cas d’usages existent (gestion des ressources humaines, des achats) ; chaque entreprise pourra également imaginer des cas d’usages spécifiques sur les problématiques qui lui sont propres. C’est souvent le cas lorsqu’on touche à des sujets de R&D ou d’innovation ayant pour objectif le développement de produits ou services visant à développer son activité.

Comment mettre en place une démarche Data Driven Ops ?

Les données de l’entreprise sont une mine d’or mais, comme pour l’or, les obstacles à franchir sont nombreux pour passer de leur découverte à leur valorisation.

Pour qu’une démarche Data Driven aboutisse il faut donc fédérer des acteurs à même d’apporter les expertises nécessaires :

  • Une expertise métier pour s’assurer que la démarche soit menée par la recherche de valeur ajoutée concrète, qu’elle soit technique, économique ou opérationnelle ;
  • Une expertise technique qui permette de sélectionner les bons outils et les bonnes technologies à mettre au service des métiers ;
  • Une expertise méthodologique sans laquelle les chances de voir la démarche aboutir s’amenuisent à cause des freins techniques, organisationnels ou culturels que ce type de démarche rencontrera à un moment ou à un autre.

Qu’est-ce qui fait de Saegus un partenaire de choix pour ce type de projet ?

Saegus est capable d’apporter à ses clients l’expertise et les ressources nécessaires pour initier, conduire et pérenniser une démarche Data Driven. D’une part, les directeurs et managers du cabinet ont conduit de vastes programmes de transformation au sein des plus grandes entreprises françaises ; d’autre part, ses consultant·e·s possèdent les expertises sectorielles, fonctionnelles et technologiques requises et sont continuellement formé·e·s aux nouvelles technologies et solutions du marché.

Mais plus que tout, nos équipes placent les utilisateurs et les usages au centre de la démarche Data Driven. Cela garantit la meilleure adéquation possible entre les choix technologiques et les besoins de l’entreprise et surtout l’adoption la plus large et durable possible des outils développés.

J’aurai l’occasion de vous parler de nos cas d’usages les plus emblématiques dans de futurs articles. Stay tuned !

Envie d’en savoir plus ou d’être accompagné·e·s par nos équipes Data ?

Un Design System est une bibliothèque de guides et références au service de la construction de standards d’expérience utilisateur de produits d’une marque. Il est propre à chaque marque et permet de garder une cohérence à travers les supports qu’elle développe. C’est une référence essentielle pour les parties prenantes d’un projet ou les membres chargés du développement d’un produit.

Constitué d’éléments qui se répondent les uns aux autres, le Design System doit être pensé comme un ensemble cohérent. Selon la méthode de l’atomic design théorisée par Brad Frost en 2015, les caractéristiques (forme, couleurs, typographie…) d’un premier élément (une “molécule”) définissent un style (l'”atome”) déclinable pour créer l’ensemble des composants. C’est en imbriquant ces composants que l’on peut créer des templates complexes (formulaires, menus…), jusqu’à la création complète d’une maquette.

S’il n’y a donc pas de règles précises à suivre pour la création d’un Design System, quelques étapes clés se dessinent :

  • Déterminer les enjeux et objectifs liés à la conception du Design System ;
  • Faire l’audit de l’existant (s’il y a un existant) ;
  • Concevoir le Style Guide : principes visuels de typographie, palettes des couleurs et règles associées, grilles de structuration des éléments ;
  • Définir les principes de communication de la marque, soit la charte éditoriale (langage, ton…) ;
  • Prioriser puis créer les composants de l’interface ;
  • Assurer la maintenabilité du Design System.

Se posent alors les questions : comment créer un bon Design System ? Quels en sont les avantages ? Comment le maintenir à travers le temps ?

Faire l’audit de l’existant (facultatif)

Lorsqu’une marque est bien implantée, son identité visuelle est souvent déjà existante. Il est alors nécessaire de faire l’inventaire de l’existant : si elle dispose d’une charte graphique – plus techniquement, d’un Style Guide –, quels sont les codes graphiques, les logos, les guidelines qui y sont inclus ? S’il n’y en a pas, quels sont les composants existants de l’identité visuelle de la marque ?

C’est en dressant cet inventaire qu’il est possible de déceler les incohérences et les manquements dans l’expérience utilisateur : par exemple des boutons d’actions, des styles de titres démultipliés ou des ombres qui ne seraient pas similaires. À partir de ce constat, il est possible de proposer des axes d’amélioration qui seront la base du Design System.

La définition des rôles et process

Si elle fait gagner du temps sur les projets développés par la suite, la création d’un Design System prend du temps et de la réflexion, en amont puis en production. Pour faciliter les nombreux échanges entre les parties prenantes, il est nécessaire de définir clairement les process et les rôles de chacun·e – cela favorisera la création d’un Design System pertinent et cohérent et donc, les interactions futures liées à la création d’une interface.

D’abord, en créant une nomenclature commune. Y a-t-il déjà un langage partagé et quelles en sont les définitions actuelles ? Varient-elles d’une BU à une autre ? Établir un langage commun facilitera la création des interfaces et évitera des potentielles confusions ou malentendus, les équipes étant mieux alignées. Il peut être nécessaire de définir des fondamentaux communs (par exemple, un banner = une bannière), puis de simplifier certains termes s’il y a lieu.

Par exemple : m-banner-hover
> M pour molécule (atome > molécule > organisme) ;
> Banner pour bannière, soit le type d’élément ;
> Hover pour l’état ou la variation de l’élément.

Cet exemple va faciliter le dialogue entre les designers et les développeurs, accélérant ainsi leur temps d’exécution. Ce gain de temps leur permet à terme d’affiner des détails poussés comme les micro-interactions. Enfin, une nomenclature commune permettra de vite identifier l’élément autant dans la maquette que dans le code source.

Concevoir le Style Guide

Avant tout, un Design System doit être composé d’un guide de style (Style Guide). Celui-ci se rapproche de la charte graphique d’un produit.

Le guide de style va permettre de recenser ce qu’on appelle les “perceptual patterns” qui font référence aux éléments suivants : couleurs, typographies, espaces, formes, icônes, illustrations, photographies, animations, sons.

Ces éléments vont être utilisés comme atomes dans la conception globale des composants.

Définir les principes de communication de la marque

La charte éditoriale est une composante clé du Design System. C’est le travail de l’UX Writer : en travaillant les éléments de langage (ton, mots-clés, informations…) en accord avec l’image de la marque, il·elle harmonise les principes de communication pour accompagner au mieux les utilisateur·rice·s tout au long de leur parcours. Par exemple : pour une interface médicale, il est préférable d’utiliser des mots simples à un vocabulaire scientifique – c’est ce que préconise Oxygen, le Design System de Doctolib.

Nous ne vous en disons pas plus, car vous pouvez retrouver notre article détaillé sur l’UX Writing ici !

Prioriser puis créer les composants

Quels sont les composants (header, bouton, card…) les plus fréquents dans l’interface développée ? Lesquels sont les plus utilisés ? Ce sont eux qu’il faudra développer en premier. Ensuite, il faudra se demander : quels sont les composants propres à l’entreprise ? Comment développer des micro-interactions cohérentes ?

Le milieu de l’UX étant en constante évolution, et les nouvelles tendances étant nombreuses, un Design System doit être holistique. Les composants doivent donc être adaptables et affichables sur différents devices – d’autant plus que ceux-ci sont de plus en plus variés et nombreux -, tout en conservant leurs caractéristiques et fonctionnalités. Ils doivent également s’articuler facilement entre eux. Le but ? Délivrer une expérience homogène mais unique sur chaque support. Pensé ainsi, le DS pourra répondre à un maximum d’usages, de besoins et de contraintes futurs. Lorsque les micro-interactions sont alignées, l’expérience utilisateur est cohérente, simple et facile – impactant à terme l’image d’une marque de manière positive.

Assurer la maintenabilité du Design System

Pour maintenir un Design System dans le temps, les parties prenantes de l’entreprise doivent être impliquées en étant au fait de la nomenclature choisie et des règles établies.

Montrer rapidement les résultats de ce qui a été conçu permet d’engager les équipes à travers des KPIs préalablement définis : a-t-on gagné en temps de production lorsque l’on sort un nouveau produit ? Le taux de rebond a-t-il diminué ?

Conclusion

Si le Design System a été conceptualisé il y a plus d’une dizaine d’années, il est de plus en plus intégré dans les projets. Ses bénéfices sont multiples, mais l’on peut toutefois retenir 3 points : une simplification de la relation designers/développeur·euse·s, un gain dans la rapidité d’exécution et donc, une constance dans l’expérience utilisateur qui sera plus détaillée et cohérente, comme la marque qu’elle représente.

Vous voulez en savoir plus ? Vous souhaitez être accompagné·e·s sur un projet ? Contactez nos équipes à la Factory !

Rédigé par Yasmine Morsi, Consultante Confirmée Factory

(1) https://airbnb.design/building-a-visual-language/

La business intelligence est aujourd’hui “drivée” par plusieurs éditeurs de logiciels – les principaux étant Microsoft avec Power BI, Tableau et Domo :

Ces outils fournissent des tableaux de bord opérationnels sur différents domaines à plusieurs niveaux hiérarchiques pouvant aller jusqu’au CODIR. Conscients des enjeux de cyber sécurité qu’implique ce type de projets, les architectes groupes réfléchissent aux solutions les plus adaptées.

Comment ces outils fonctionnent-ils ? Concrètement, dans une première démarche, un outil de BI stocke la donnée collectée dans ses propres bases de données dont le client ne peut souvent pas choisir le fournisseur et la localisation. Par exemple, un Power BI récupère de la donnée dans une base de données client chez Google Cloud et la stocke dans sa base de données Azure.

C’est ainsi que la plupart des outils de BI proposent à présent au moins deux modes de connexion : l’Import Query et le Direct Query.

Plusieurs défis se posent alors :

  • Est-ce un problème que ma donnée soit stockée dans deux bases de données différentes ? On pense par exemple à une donnée très sensible telle que la donnée financière ;
  • Les connecteurs Live Query sont-ils assez robustes pour interroger un très gros volume de données ?
  • Quels sont les coûts engendrés par le choix de l’architecture ?

Définition : Import Query et Direct Query

Tout d’abord, quelle est la différence entre ces deux notions, qui peuvent varier selon les outils de BI ?

Import Query : le fait de collecter la donnée stockée dans une database dédiée et qui appartient à l’outil de BI.

Direct Query : le fait de lire de la donnée en direct dans la database source sans la stocker ailleurs.

Import Query

La majorité des outils de BI propose ce mode de collecte de la donnée et ce, pour plusieurs raisons.

Mindset

Cela crée de la valeur pour l’outil en question. Évidemment, l’outil de BI garantit la sécurité de la donnée collectée (elle ne la diffusera ou ne la vendra pas), mais elle possède bien une donnée qui ne lui appartient pas et qui est importante aux yeux d’une entreprise. Cette dernière aura donc tendance à se fidéliser auprès de cet éditeur.

Bénéfices pour l’utilisateur

Une fois que la donnée est stockée, l’outil de BI propose aux éditeurs qui la traitent d’y apporter des transformations, comme des jointures avec d’autres bases de données. Il s’agit ici de transformer la donnée brute en une donnée qui répond parfaitement aux besoins de la visualisation dans un tableau de bord.

En matière de performance, la donnée étant stockée chez l’éditeur, les requêtes permettant d’afficher les visualisations lors d’un changement de page seront plus rapides.

Coût

Enfin, un dernier aspect non négligeable, le coût du tableau de bord. Généralement, lorsque vous souscrivez à un outil de BI, vous payez une licence qui vous donne le droit à un certain volume de stockage. Power BI est par exemple gratuit jusqu’à 1 go par jeu de données. Il faut passer sur une licence premium pour augmenter ce volume de stockage à 10 go ou plus. Vous payez donc un volume maximum.

Ainsi, vos frais relatifs à la donnée s’arrêtent là (exceptés donc les autres coûts liés par exemple aux accès utilisateurs). Peu importe le nombre de fois qu’un utilisateur requête une visualisation, votre coût sera fixe. À noter que l’entreprise paiera donc deux fois le stockage de sa donnée, une fois via l’outil de BI et une fois via le serveur où est stockée sa donnée source.

Direct Query

Une entreprise souhaitant stocker sa donnée à un seul endroit n’aura donc pas d’autre choix que d’utiliser ce mode de collecte. Le Direct Query est moins avantageux pour un éditeur d’outils de BI car il perd les points expliqués ci-dessus.

Mindset

La seule valeur ajoutée de l’outil de BI devient la visualisation.

Bénéfices pour l’utilisateur

  • Afficher la donnée la plus fraîche provenant de la base de données ;
  • Un seul point de stockage de la donnée (préférable si la donnée est sensible).

Inconvénients pour l’utilisateur

  • Avec le Direct Query, la majorité des outils de BI ne proposent plus la possibilité de faire des transformations. La donnée devra donc être traitée avant d’être collectée par l’outil de BI dans un BigQuery ou un Snowflake par exemple ;
  • La performance sera impactée en fonction du temps de réponse entre le serveur source et l’outil de BI, qui sera généralement plus long que la méthode Import. Sur un très gros volume de données, le temps d’affichage des visualisations sera trop long et deviendra un frein à l’adoption et la navigation.

Coût

En matière de coût, l’éditeur de l’outil de BI est le grand perdant. Le grand gagnant est en fait le fournisseur de base de données qui contient la donnée source. Par exemple, GCP facture à la requête, même dans un data studio qui appartient à Google, chaque nouvelle requête sur ce tableau de bord engendre des coûts d’utilisation au client. Plus la volumétrie est importante, plus les coûts le seront. Une architecture mal optimisée au sein de GCP sera vraiment coûteuse au quotidien, comme un Direct Query sur une vue classique faisant la jointure entre deux tables très volumineuses. Il sera important de porter une attention particulière à la performance et au nombre de requêtes effectuées. C’est le prix à payer pour avoir la main totale sur sa donnée et être maître de sa localisation.

Bonus : Hybrid Query

Chez certains éditeurs, notamment Power BI, il existe un troisième type nommé “Hybride”. Ce mode combine les modes import Query et Direct Query au sein d’une même table.

Concrètement, vous pouvez cibler une partie de votre table pour qu’elle vous renvoie la donnée en live query – comme les données du mois précédent, tandis que la donnée antérieure à ce mois sera récupérée via l’import Query.

Bénéfice pour l’utilisateur

Dans le cas où l’utilisateur requête une base de données avec une très grosse volumétrie, cela améliorera le temps d’affichage de son tableau de bord en lisant la plus grosse partie de la base (la donnée historique par exemple) via l’Import Query. Il pourra tout de même avoir de la donnée en temps réel (la donnée la plus fraîche par exemple) via le Direct Query sur une partie ciblée de la base de données.

Conclusion

La sensibilité de la donnée et le coût à terme sont deux points essentiels à considérer pour choisir une approche adaptée afin d’ingérer de la donnée dans des outils de BI pour réaliser un tableau de bord.

D’un point de vue relatif à la sécurité, une entreprise n’a pas intérêt à stocker sa donnée dans plusieurs base de données.

Cependant, un connecteur Direct Query n’est pas assez robuste sur des très gros volumes de données : nous l’avons vu, le temps de chargement sur une page sera un frein à la navigation sur le tableau de bord. En revanche, il est très efficace sur des petits volumes de données, si les tables alimentant les visualisations ont été factorisées en amont au sein de l’entrepôt de données. Il pourra également répondre au besoin d’afficher de la donnée en temps réel.

À ce jour, la solution la plus pertinente, notamment pour de gros volumes de données, est de choisir un même fournisseur pour stocker et lire la donnée. Par exemple, un Power BI ingérant de la donnée en Import Query depuis Azure la stocke également dans Azure – si le serveur est différent, il s’agit bien du même fournisseur.

Pour résumer :

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Maxime Rousseau, Consultant Senior Data

Sources
(1) https://www.qlik.com/fr-fr/gartner-magic-quadrant-business-intelligence

Collaborer efficacement en entreprise est un sujet de taille auquel de nombreuses organisations tentent de répondre, et ce de plusieurs manières à travers l’utilisation d’outils collaboratifs ou l’amélioration de l’environnement de travail. Dans cet article, nous vous présentons Confluence, la solution de l’éditeur Atlassian favorisant le partage de la connaissance et la collaboration à travers une plateforme à l’interface intuitive et ludique.

Qu’est-ce que Confluence ? Quels sont les principes de base ?

À l’instar de l’hydrologie où plusieurs cours d’eau se rassemblent pour n’en former qu’un seul, Confluence est ce lieu où les connaissances de chacun s’organisent, se structurent et se centralisent. Pour bien comprendre le fonctionnement de Confluence, nous allons plonger à l’intérieur de ses concepts primordiaux.

Les pages de Confluence sont la base de votre contenu, elles fonctionnent de la même manière que celle de Wikipédia à une différence près : elles sont dynamiques. Cette caractéristique leur vient de l’utilisation des macros lors de la rédaction de contenu et il en existe près d’une centaine (création automatique de sommaire, mention des collaborateurs, affectation de tâches, incorporation de lien, affichage dynamique de tickets Jira et bien d’autres encore). L’outil propose des modèles pour la création de page afin de gagner en temps et en facilité. Il en existe pour presque tout, des plans de projet aux notes de réunion, en passant par les guides de dépannage, etc. Et si vous ne trouvez pas votre bonheur, vous pouvez toujours créer vos propres modèles.

Les espaces de Confluence regroupent les pages et symbolisent un espace de travail dédié pour une équipe ou un projet. Vous pouvez par exemple choisir de regrouper tous les projets d’un département au sein d’un seul espace, ou de créer un espace pour chaque projet. De plus, chaque espace possède une page d’accueil et un blog, ce qui permet de faciliter la communication des annonces auprès de vos équipes. L’organisation de votre contenu se fait à l’aide d’une arborescence de pages hiérarchisées permettant de retrouver le travail simplement et rapidement.

Quelles sont les principales forces de Confluence ?

Si l’on devait imaginer un top 3 des fonctionnalités proposées par Confluence, la première position reviendrait à la recherche avancée. Cette barre de recherche ne permet pas seulement de trouver le nom d’un document, mais aussi de parcourir l’ensemble des données et des métadonnées de chaque page et de chaque espace. C’est-à-dire qu’à partir d’un minimum d’informations renseignées, Confluence propose une liste de résultats pertinents pouvant répondre à ce que nous cherchons. La recherche peut également être affinée grâce à des filtres comme les contributeurs, les étiquettes, le type de document ou encore par date de la dernière modification. En somme, une fonctionnalité puissante qui permet de gagner du temps.

La deuxième position sur ce podium serait attribuée à l’édition des pages étant donné les innombrables macros disponibles par défaut dans Confluence qui permettent de rendre le contenu dynamique et agréable à la lecture. Mais aussi par le grand nombre de modèles que Confluence nous propose lors de la création des pages, facilitant ainsi le quotidien des utilisateurs.

Et enfin la troisième place serait attribuée à la sécurité et à la gestion des permissions de chaque espace. En effet, il est impératif pour une organisation de contrôler qui peut voir, modifier et gérer le contenu. Par exemple, un espace de support utilisateur pour un outil quelconque doit pouvoir être visualisé par les personnes concernées, mais pas pour autant modifié par ces dernières. Confluence intervient en proposant une interface ergonomique de gestion des droits. Une formation rapide sur son fonctionnement et vous deviendrez un véritable expert de la sécurité de votre espace.

À qui s’adresse Confluence ?

Que vous soyez une grande ou une petite entreprise, une équipe multidisciplinaire ou ayant une expertise spécifique, Confluence est fait pour vous. Imaginé et développé avec un sens de l’esthétique, Confluence sera dès les premières utilisations d’une simplicité remarquable. À l’image de Notion qui s’impose auprès des étudiants Anglo-saxons, Confluence cherche à s’imposer dans le monde des organisations en tant qu’encyclopédie d’entreprise. De plus, Atlassian a déjà un pied dans l’étrier avec Jira.

Confluence est un outil puissant à lui seul, mais lorsqu’il est couplé à un autre produit ou une autre app, les résultats sont extraordinaires !

Atlassian

Comment implémenter Confluence dans un système déjà existant au sein d’une grande entreprise pour optimiser les processus et la capitalisation documentaire ?

#1 Cas d’usage rencontré auprès de l’un de nos clients

Dans le cadre de sa transformation digitale, le service Digital Marketing d’une grande entreprise souhaite améliorer ses processus autour de la maintenance applicative de ses applications. Son objectif : capitaliser et gérer les bases de connaissances de leurs projets d’un point de vue documentaire, mais aussi de gestion de projet. À ce jour, les créations de nouvelles demandes sont effectuées par de nombreux canaux – oralité, mail, conversation sur des outils tiers et Jira. La capitalisation documentaire est théoriquement effectuée sur Google Drive, mais dans les faits l’information se perd ou est difficile à retrouver. À la suite d’une étude du marché, l’outil Confluence Cloud a donc été validé dans le but de capitaliser et gérer les bases de connaissances des projets, tout en étant intégré avec Jira dans un second temps.

#2 Les outils déjà présents au sein de l’entreprise (intégration d’application tierce dans Confluence)

Cette entreprise a donc deux outils en partie adoptés par l’ensemble des collaborateurs qui sont Jira pour la gestion de projet, et Google Drive pour la capitalisation documentaire. Il est donc important d’intégrer ces outils dans les nouveaux processus lors de l’implémentation de Confluence. C’est un autre avantage de Confluence : son ouverture à l’intégration d’application tierce grâce à la Marketplace Atlassian. En effet, celle-ci propose une multitude de plugins conçus par d’autres éditeurs ou directement par Atlassian.

Jira étant un produit de la suite Atlassian, il peut être nativement intégré à l’instance Confluence après quelques paramétrages. Concernant Google Drive, grâce à la dernière version de Confluence Cloud, il est possible d’importer des Google Docs sans passer par un plugin de la Marketplace. Cependant, pour les fonctionnalités d’hybridation Google/Confluence, il est nécessaire d’y intégrer une app spécifique, par exemple pour l’affichage en temps réel de document Google Drive au sein d’une page.

#3 Comment Confluence a-t-il permis de répondre à la problématique posée ?

Confluence concorde parfaitement avec les besoins pré-identifiés de l’entreprise, à savoir :

  • La création d’une base de connaissances communes pour toutes les équipes et les départements afin de favoriser le partage de connaissances ;
  • La gestion des notes et des processus d’approbation des comptes-rendus ;
  • La possibilité d’avoir un suivi des actions centralisé ;
  • Une intégration obligatoire avec Jira Serveur et Jira Cloud ;
  • Et enfin, des indicateurs et des tableaux de bord consolidés pour favoriser la collaboration inter-équipe.

#4 Un accompagnement pas à pas : les solutions mises en place pour adapter Confluence aux besoins de l’entreprise

C’est ici qu’intervient Saegus pour délivrer une offre sur-mesure visant à optimiser la valeur de l’outillage et son adoption par les utilisateurs de l’entreprise. Trois axes d’intervention ont été définis :

  • L’initialisation de l’instance Confluence et des paramétrages associés auprès d’une population pilote, avant de passer à l’échelle. Le tout de façon itérative pour assurer la montée en compétences et l’autonomisation des leaders d’équipe ;
  • L’adoption de Confluence par les utilisateurs finaux en accompagnant les équipes dans leur montée en compétences à travers des parcours d’adoption sur-mesure (formation, jeux, “deep dive”) ainsi que des ressources d’auto-formation​ ;
  • Le support afin de maintenir l’accompagnement et l’adoption sur le long-terme​ des utilisateurs grâce à la mise à disposition d’un centre dédié​. Ce support permet également de faire évoluer les outils et de répondre aux besoins pouvant voir le jour à la suite de leur utilisation régulière.

Conclusion

En résumé, Confluence permet de collaborer en temps réel et de manière efficace grâce à ses fonctionnalités de partage, modification et communication.

Confluence permet aussi de trouver l’information facilement et donc de gagner du temps, ce qui par conséquence optimise les processus internes d’une entreprise. Grâce à son interface intuitive et ludique, Confluence boost la créativité des collaborateurs et permet d’obtenir un feedback rapidement sur son travail.

Son adaptabilité est l’une de ses forces : Confluence s’intègre parfaitement au sein d’une organisation possédant déjà de nombreux outils.

Mais au-delà de ses principales fonctions, Confluence est plus qu’un simple outil de prise de notes ou de référentiel documentaire. Il y aurait encore beaucoup de sujets à aborder, mais si nous devions définir Confluence en deux mots, nous choisirions ceux portés par la philosophie de Saegus : le Fun et l’Excellence !

Si vous souhaitez être accompagné dans l’adoption de ces outils ou dans vos projets de transformation agile, n’hésitez pas à contacter nos expert·e·s Acceleration Tactics !

Rédigé par Charles Werling, Consultant Acceleration Tactics

Qu’est-ce que 30sec ?

Je suis loin d’être la seule à apprécier la bonne chère avec quelques camarades au loisir d’une terrasse. Je me trouve pourtant bien dépourvue quand vient l’heure du paiement (je ne sais pas compter).

Tada ! 30sec est une application qui permet de partager et régler rapidement l’addition en quelques clics.

Mon user journey

  • Un accès très simple : après avoir scanné le QR code de ma table, je n’ai eu qu’à entrer mon prénom ;
  • Une absence de calcul mental : je n’ai qu’à cliquer sur les plats en haut de l’écran pour constituer mon addition ; les autres convives peuvent en faire de même. Il est possible d’ajouter un pourboire pré-rempli ou de le personnaliser juste en dessous de manière très claire. Pratique lorsque l’on n’a pas de monnaie !

Les petits plus

  • J’ai le sentiment que l’usage du QR code, dont je doutais il y a quelques années, s’est vraiment installé dans nos habitudes avec les cartes des restaurants, le passe sanitaire et la présence de Google Lens ou similaires sur la majorité des devices mobiles ;
  • Pas besoin d’attendre l’addition même en heure de pointe ;
  • Vous pouvez choisir le prénom que vous voulez !

Les moins

  • Le paiement par carte de ticket restaurant n’est pas disponible ;
  • Le site internet de 30sec apporte peu d’informations, vous devez donc vous fier à mon expérience ;
  • L’app est disponible uniquement dans une sélection de restaurants pour l’instant.

Ce que j’ai apprécié en tant que designer

  • J’ai payé en 30 secondes (un peu plus pour contempler cette merveille d’expérience utilisateur) ;
  • La possibilité de payer par GPay en deux taps sur mon téléphone intelligent ;
  • L’envoi du ticket par mail ou la possibilité de le télécharger directement sur mon téléphone ;
  • Tout régler sur un seul écran, de manière sécurisée, avec une confirmation claire à la clé.

Bon appétit !

Rédigé par Anne d’Andigné, Consultante Confirmée Factory

Microsoft vient d’acquérir Ally.io, une entreprise de pointe dans le domaine de l’OKR (Objective & Key Results).

Au second semestre de l’année 2022, la solution Ally intégrera la famille Microsoft Viva en tant que nouveau module, établissant ainsi une connexion plus profonde avec le travail, les objectifs et les résultats dans un monde hybride.

Depuis son lancement en 2018, Ally.io a été adoptée dans 80 pays par plus de 1 000 entreprises de la high-tech, de l’industrie, des services financiers et de la santé de premier plan.

En moins de trois ans, Ally.io a permis à ses clients de créer plus d’un million d’OKR. La société a été nommée Startup de l’année par Geekwire en 2020.

“L’alignement du travail des employés sur la mission stratégique et les priorités fondamentales de l’entreprise est une priorité pour chaque organisation. Pour ce faire, les dirigeants doivent investir dans des outils qui communiquent la transparence autour des enjeux des grandes entreprises et créent des moyens de cascader les objectifs ambitieux et de rendre compte des résultats à tous les niveaux d’une organisation. Lorsque les équipes perçoivent l’impact qu’elles exercent, les employés restent plus engagés, concentrés et motivés dans la croissance de l’entreprise et leur propre épanouissement personnel”, déclare l’éditeur.

Le logiciel d’Ally.io est spécialisé dans une approche appelée “objectifs et résultats clés” qui consiste à identifier des objectifs et à évaluer les progrès à l’aide de mesures. Google fait partie des entreprises qui ont adopté le modèle, que l’ancien PDG d’Intel, Andy Grove, a décrit dans son livre de 1983 “High Output Management”.

Ally.io permet à tous les membres de l’organisation de bénéficier d’une plus grande visibilité et lisibilité du processus de travail entier, et de faire le lien entre le travail quotidien et les objectifs stratégiques de l’entreprise.

Un logiciel OKR qui s’intègre nativement aux outils du quotidien

Les principales fonctionnalités comprennent des modèles prédéfinis, un reporting personnalisable, l’importation et l’exportation de données, un tableau de bord des activités, la gestion des flux de travail et le suivi des progrès. La plateforme Ally permet aux administrateurs d’adopter un cadre pour mesurer les objectifs et résultats clés, d’importer les OKR (Objectives and Key Results) existants et d’envoyer des invitations aux membres de l’équipe.

Elle permet aux responsables de représenter graphiquement la conformité et les dépendances, d’attribuer une pondération aux résultats clés et de créer des flux d’approbation.

Les utilisateurs peuvent comparer les progrès enregistrés entre plusieurs trimestres, ajouter des commentaires sur les OKR, configurer des alertes ou des rappels et partager des rapports.

Ally.io s’intègre aux systèmes et aux outils d’entreprise, tels que Slack, Microsoft Teams, Asana, Jira, Tableau.

Au cours de la prochaine année, Ally intégrera le cloud Microsoft, fera évoluer les intégrations existantes avec Microsoft Teams et sera affiché dans Viva, Office, Power BI et l’ensemble d’applications et de services Microsoft 365.

Si vous êtes impatient·e de découvrir l’application, elle est accessible aujourd’hui dans le store de votre Teams.

Il est possible de souscrire pour un essai gratuit de 14 jours, en préparation de l’adoption de l’application dans votre entreprise en tant que module Viva.

Qu’en pensent les utilisateurs ?

Sur le site Software Advice la note globale est 4.5/5.

Combien cela va nous coûter ?

Au lancement de Viva, chaque module était disponible séparément avec une licence de 4USD par utilisateur et par module – à l’exception de Connexion, inclus dans Microsoft 365.

Bientôt, nous pourrons souscrire à l’ensemble des modules avec une seule licence de 9USD pour toute souscription jusqu’au 1er septembre 2022, qui passera à 12USD par utilisateur au-delà de cette date.

Avec le rachat d’Ally, Microsoft poursuit sa stratégie d’acquisition

Ally.io “rejoindra la famille Microsoft Viva dans le cadre de la plateforme d’expérience employés (EXP) conçue pour aider les entreprises à adopter la nouvelle vie professionnelle numérique”, explique Kirk Koenigsbauer, COO de Microsoft. “Aligner le travail des employés sur la mission stratégique et les priorités fondamentales de l’entreprise est une priorité pour toutes les organisations. Pour ce faire, les dirigeants doivent investir dans des outils qui communiquent en toute transparence autour des grands paris de l’entreprise et créent des moyens de d’échelonner les objectifs ambitieux.”

Le montant de l’opération n’est pas connu, mais on sait que la startup a levé 76 millions de dollars depuis son lancement.

Que vous soyez UX Writer chevronné·e, designer, researcher ou que vous travailliez avec ces profils, il est toujours bon de se rappeler quelques bonnes pratiques liées à la microcopie et à l’usage du texte dans les interfaces sur lesquelles vous allez intervenir.

Voici donc quelques conseils qui me servent beaucoup dans mon métier !

Apprenez une nouvelle langue

En amont du projet, effectuez une recherche approfondie sur le sujet, le vocabulaire ou tout type de jargon lié au domaine du projet. Participez autant que possible à la recherche utilisateur, prêtez une attention particulière aux mots utilisés par les utilisateur·ice·s en interview. Vous aurez des repères, surtout si vous travaillez sur des applications techniques ou spécifiques à certains métiers ou domaines particulier, comme le secteur médical ou encore scientifique.

Back to basics !

De manière générale, n’hésitez pas à fréquemment recourir au dictionnaire pour vraiment percevoir la signification d’un mot. Cela vous aidera à être plus précis·e dans votre formulation des textes de l’interface. 

Analysez les applications

Et sites que vous aimez utiliser. Comment avez-vous réussi du premier coup à chercher un itinéraire sur Citymapper, à publier une annonce sur Le Bon Coin ? Pourquoi avez-vous eu du mal à commander un taxi sur une application VTC ?  

Détachez-vous de la vision produit

Mettez-vous à la place de l’utilisateur·ice. Récemment, j’ai ajouté une fonctionnalité d’export de données depuis une interface. Je pensais nommer le bouton “exporter”, mais peut-être le mot “télécharger” signifiera-t-il mieux que l’utilisateur·ice aura son fichier enregistré localement sur son ordinateur à l’activation de ce bouton.

Relisez votre texte à haute voix

L’entendre énoncé tout fort peut vous aider à imaginer comment il sera perçu. Cette technique vous poussera aussi à raccourcir vos phrases si vous finissez à bout de souffle en lisant le label d’un champ !

Lexical system

Définissez un vocabulaire commun avec votre équipe et votre client et décidez précisément qui est quoi. Cela peut se formuler à travers un document Word ou quelques slides toutes simples – une sorte de glossaire commun. Partagez ce document entre clients, équipe marketing, designers, développeur·euse·s pour être sûr·e d’adopter le même langage lorsque vous parlez d’une fonctionnalité, d’un composant ou d’une étape du projet. Vous éviterez tout quiproquo surtout pour des systèmes complexes où les synonymes sont facteurs de confusion. Faites en sorte que toutes les parties prenantes adoptent ce langage commun.

Par extension, il pourra servir :

  • aux Scrum Masters à repérer les US ;
  • aux Project Owners à nommer et affiner les prochaines fonctionnalités ;
  • aux développeur·euse·s à nommer leurs classes CSS pour une passation plus efficiente ;
  • aux UX/UI pour nommer précisément les composants du design system/kit UI, etc.

N’utilisez plus de Lorem Ipsum

Lorsque vous n’avez pas reçu le contenu. En tant que designer, vous connaissez la douleur de ne jamais l’avoir à temps, ce qui ralentit votre production. Qu’à cela ne tienne ! Saisissez cette opportunité pour vous atteler au texte et faire un brouillon de premières propositions de wording. Du reste, votre maquette sera même plus claire pour vous.

Comme le dit si bien Laura Wright,

Copy shouldn’t be an afterthought. Use the vocabulary and language you discovered during the research phase when designing any part of the UI. Try to verbalize and create rough content instead of using Lorem Ipsum. Placeholding with drafted text brings content to the forefront of the design process.

Designing with words: Tackling UX writing as a UX designer, Laura Wright

La peer review entre designers

S’applique aussi au texte ! Demandez à vos collègues d’effectuer une tâche sur votre prototype et voyez comment ils·elles s’en sortent. Si vous remarquez une légère hésitation, l’heure est venue de tester une autre formulation.

À vos plumes !

Rédigé par Anne d’Andigné, Consultante Confirmée Factory

Depuis ces dernières années, les solutions low-code se multiplient : accessible à un plus large nombre de personnes appelées “citizen developers”, le low-code atténue la barrière entre IT et métiers.

Qu’est-ce que le low-code ?

Le low-code est un environnement qui permet de développer des applications avec peu de code, contrairement au développement traditionnel. Les solutions low-code mettent ainsi en avant une interface graphique user-friendly souvent accompagnée de modèles prédéfinis pour accélérer et faciliter les développements. On estime que les lignes “low-code” représentent 20% du nombre moyen de celles créées dans les process classiques de développement.

Il est souvent fait mention de “no-code”. Il s’agit ni plus ni moins d’une sous branche du low-code qui pousse le concept jusqu’au point où coder n’est plus nécessaire pour développer.

Le contexte

Ces dernières années ont été marquées par l’accélération de la transformation numérique au sein des entreprises, renforcée et précipitée par la pandémie du Covid-19. Face à cette situation, les Directions des Systèmes d’information (DSI) ont vu une augmentation des demandes et des besoins qu’elle n’arrive souvent pas à prendre en charge face à la multiplication des projets et du fait de ressources financières et humaines limitées. La pénurie de développeurs sur le marché renforce d’autant plus ce constat.

La mise en place de solutions low-code a été l’une des réponses à cette situation.

Parce qu’ils requièrent moins de compétences techniques, ces outils permettent aux utilisateurs métiers de gagner en indépendance en créant rapidement leurs propres applications (interface de saisie, requêtes métiers, rapports de pilotage simple…). Un nouveau profil a alors émergé dans les entreprises, le “citizen developer” : généralement un profil métier avec une forte appétence pour le digital qui devient le pont entre la DSI, les solutions low-code et les équipes métiers.

Le citizen developer facilite ainsi la création d’applications au plus proche des besoins métiers. De ce fait, le time to market se voit réduit. Mendix, un des acteurs clés du marché low-code, considère que le temps de développement est divisé par deux ou plus par rapport à un développement traditionnel. À noter que la mise en place de ces solutions est accompagnée par les DSI dont le rôle évolue, devenant de véritables partenaires des métiers.

Le marché du low-code

D’après une étude réalisée par Forrester, cabinet d’étude et de conseil, le marché des solutions low-code est estimé à 21,2 milliards de dollars en 2022, contre 3,8 milliards de dollars en 2017.

Gartner, société américaine de conseil et recherche, prédit quant à elle que le low-code représentera 65 % des applications développées en 2024. La société a également publié en août 2021 un magic quadrant positionnant les différents acteurs du low-code actuels selon 4 axes : les challengers, les leaders, les solutions de niches et les visionnaires.

Parmi les leaders du low-code, on remarque Mendix, ServiceNow, Salesforce ou encore Microsoft, dont l’offre Power Platform propose 4 solutions low-code complètes :

  • Power Apps : transformez vos idées en solutions professionnelles, en permettant à chacun de créer des applications personnalisées destinées à relever les défis de l’entreprise ;
  • Power BI : prenez des décisions professionnelles fiables et avisées en fournissant à chacun des informations exploitables fondées sur des données ;
  • Power Automate : dopez la productivité et l’efficacité de votre entreprise en donnant à chacun les moyens d’automatiser les processus organisationnels ;
  • Power Agent : créez facilement des chatbots pour converser avec vos clients et vos employés, sans aucun codage requis.

Le low-code a donc un bel avenir devant lui avec des acteurs et des offres en plein essor !

Plus que de révolutionner le développement, c’est une invitation à réfléchir aux rôles et interactions des différents services dans les organisations et aux avantages concurrentiels qu’ils peuvent procurer.

L’enjeu est de déterminer la bonne solution et les cas d’usages avec une gouvernance associée, permettant ainsi de rassurer aussi bien les métiers que l’IT et offrir ainsi une alternative au shadow IT.

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Claudio Anfuso, Consultant Senior Data