Ici archive

Je pourrais écrire sur l’engagement des heures entières,

Quelle notion plus belle que l’engagement ?

Tant de définitions pour un même mot, c’est bien la preuve que cette notion est riche, vaste, et presque infinie.

Qu’est-ce qu’un engagement ?

Un acte, une promesse, un contrat, un franchissement ?

L’engagement peut aussi être politique, militant, social, cérébral… Et quelle que soit sa finalité, l’engagement se donne pour mission d’accomplir, de convaincre, de fédérer et de transformer.

Je ne cesse d’écrire sur le Design car je crois en son pouvoir de transformation.

Et forcément, quand le design se met au service de l’engagement, c’est pour accélérer les actes car son champ d’action est extrêmement vaste.

Je vous propose de découvrir ensemble quelques cas concrets.

Connaissez-vous la marque Pom’Potes ?

Bien évidemment, ce nom est devenu un générique ! Pom’potes est à la gourde ce que Bic est au stylo.

Il y a quelques mois, Pom’Potes s’est lancé dans une refonte de sa proposition de marque pour assumer pleinement ses engagements : ceux d’une marque qui agit concrètement pour l’après en encourageant les enfants à découvrir et protéger le dehors.

Concrètement, cette marque s’investit sur plusieurs sujets :

  • La réduction de son empreinte environnementale d’abord, en travaillant sur la recyclabilité de ses gourdes et sur la quantité de plastique dans ses bouchons ;
  • Des partenariats institutionnels pour apprendre dès le plus jeune âge à équilibrer ses goûters avec des actions de sensibilisation dans les écoles ;
  • Des actions de communication et d’activation pour encourager les enfants à jouer dehors.

Et devinez quoi ? C’est le Design qui est utilisé à foison pour accélérer la communication des engagements. La dernière opération de la marque, les Olym’potes, propose à tous les #dégourdis de réaliser des jeux et des défis avec leur packaging de gourdes (carton et gourde elle-même)

Cette action originale permet aux enfants de jouer en extérieur tout en proposant de l’up-cycling de packaging.

Et si je vous parle de JO&JOE, sauriez-vous me dire de qui il s’agit ? Ou plutôt, de quoi il s’agit ?

JO&JOE est une marque du groupe Accor qui propose des nouveaux complexes hôteliers pour ré-inventer l’auberge de Jeunesse. JO&JOE imagine un lieu de vie où le voyage n’est pas qu’une histoire de destination, mais surtout d’expérience.

Et ici encore, c’est le Design qui frappe fort : une identité résolument rupturiste, un design d’espace et d’environnement inédit qui allie le beau, l’utile et le responsable.

Le complexe de Gentilly, par exemple, est construit en bois massif pour éviter d’utiliser de l’eau sur le chantier (il s’agit alors d’une construction sèche). Ce sont également des artistes locaux qui sont venus personnaliser la décoration intérieure.

JO&JOE est une maison ouverte sur le monde extérieur qui s’inscrit dans l’écosystème local.

Et pour terminer en beauté, si nous nous intéressions quelques instants au groupe de luxe numéro 1 dans le monde ?

LVMH, un groupe d’excellence mondialement connu et reconnu. Est-ce que les engagements d’un groupe aussi statutaire n’auraient-ils pas intérêt à se vêtir d’une charte visuelle et rédactionnelle complètement inédite ?

Le groupe a récemment dévoilé sa nouvelle stratégie environnementale baptisée LIFE 360 (LVMH Initiative For the Environment) qui prône l’alliance de la nature et de la créativité.

Et là encore, le Design joue un rôle majeur. Car oui, dès qu’il s’agit d’un sujet d’engagement, LVMH vient encore en rupture de code pour créer un univers inédit : plus illustratif, plus personnifié, plus créatif. Comme si le Design permettait au groupe de prendre un « nouveau souffle » pour mieux respirer demain.

Que ce soit en retail, en corporate, en consumer branding… l’engagement devient nécessaire. Et pour lui donner de la force et des « raisons d’y croire », le Design prend toute la place qu’il mérite. La place de l’accélérateur, la place de l’éclaireur, la place du transformateur.

J’ai parlé récemment de mon amour des marques engagées.

Je crois profondément que toutes les marques peuvent s’engager. Et que le Design, ici encore, agira comme une arme puissante, une baguette magique, un coup de fouet… Je le répète donc ici : utilisez le Design pour vous engager !

Créez à l’infini, imaginez le monde de demain, portez-le avec des messages forts, hauts en couleur et créatifs. Une fois de plus, Vive le Design.

Rédigé par Charlotte Zekraoui, Senior Manager Factory

Power Platform, le service Microsoft qui permet aux utilisateurs d’analyser les données, de développer des solutions, d’automatiser des processus et de créer des agents virtuels avec des outils “low code” devient de plus en plus accessible à tout le monde. 

En déployant des outils Power Platform à l’échelle d’entreprise, il arrive très souvent que les ressources (flows, apps, bots, rapports…) restent non gérées ou mal gérées : par conséquent, la sécurité de l’information risque d’être négligée. En plus d’établir une stratégie d’adoption des outils, il faut mettre en place un système de gouvernance autour de Power Platform. 

Chez Saegus, nous profitons de multiples leviers pour atteindre cet objectif : 

Tout d’abord, nous établissons une architecture cible de la Power Platform en définissant les environnements à créer et la stratégie pour les gérer, reposant sur un audit réalisé sur les besoins potentiels dans les départements métier.  

Dans un second temps, l’objectif est de restreindre la circulation de données au sein de l’entreprise. Nous utilisons des règles de DLP (Data Loss Prevention), qui limitent les connecteurs de données autorisés pour chaque environnement. 

Enfin, nous utilisons Center of Excellence (CoE) Starter Kit, un outil recommandé par Microsoft pour faciliter la gouvernance de Power Platform. Avec CoE Starter Kit, les administrateurs peuvent monitorer les activités (connexions, publications, création des ressources, etc) dans le tenant, gérer les permissions des ressources, et suivre les KPIs sur l’utilisation de Power Platform. Une autre partie de CoE Starter kit sert au nettoyage des ressources non utilisées et à la gestion de la communauté des utilisateurs à travers des applications qui récoltent des idées, des cas d’usages, et qui partagent des bonnes pratiques et des modèles de solution. Nous aidons nos clients à personnaliser ces solutions pour les adapter au contexte de l’entreprise. 

Grace à ces leviers, nous déployons des environnements organisés et sécurisés, tout en créant une communauté d’utilisateurs connaissant les bonnes pratiques d’utilisation de Power Platform. 

En résumé, la gouvernance de Power Platform n’est jamais négligeable. Elle est la base d’une meilleure adoption des outils Power Platform et doit donc être au cœur de la stratégie Power Platform de l’entreprise.

Pour en savoir plus, n’hésitez pas à contacter nos expert·e·s Digital Workplace !

Rédigé par Yuan QI, Consultant Workplace

Les solutions d’intelligence artificielle se démocratisent depuis quelques années. Utilisées initialement à des fins marketing ou d’optimisation (production, supply chain…), de plus en plus de fonctions régaliennes y trouvent un intérêt, notamment les directions des ressources humaines.

En effet, les solutions d’aide au recrutement faisant usage de l’IA et de la donnée se sont massivement développées au cours de la dernière décennie – le profiling, la recherche par mots-clés ou l’utilisation d’un réseau comme LinkedIn en sont les exemples. La première étape d’un processus de recrutement est principalement basée sur l’utilisation de données caractérisant le candidat (diplôme, expérience, compétences, ancienneté dans un poste, etc). Toutes ces informations, accessible sur un CV ou un profil, permettent d’effectuer efficacement des recherches, des filtrages, et aboutissent à une pré-sélection de candidats à rencontrer. L’utilisation des technologies permet d’automatiser tout ou partie de cette première phase avec une grande efficacité. Dans ce cadre, les outils d’IA établissent des scores de pertinence sur les profils, en fonction des fiches de poste (rapprochement par similarité par exemple).

Cependant, la crise sanitaire a été un accélérateur de nouveaux cas d’utilisation, jusque-là confidentiels. Dès mars 2020, 89% des employeurs américains ont commencé à réaliser des entretiens en ligne (source journal du net, mars 2021). Pour pallier l’impossibilité de se rencontrer, et puisque l’enregistrement vidéo était quasi-systématique, les méthodes d’analyse par intelligence artificielle post-entretien ont été massivement utilisées. L’éditeur HireVue, spécialiste de l’analyse de video « comportementales » a communiqué sur une hausse de 80% de sa technologie par rapport à l’année précédente (en nombre de video analysées). Si cette adoption s’est majoritairement faite aux États-Unis, ce mouvement est nettement engagé en Europe.

Les ressources humaines sont un domaine par nature profondément humain, et donc variant. L’intelligence artificielle, a contrario, est systématique et analytique. Dans l’usage, quelles problématiques techniques et éthiques cela pose-t-il ? Quelles sont les limites ?

Interprétabilité et variables : les biais possibles de l’intelligence artificielle

Pour réaliser une prédiction (par exemple recommandation d’embauche ou non), l’intelligence artificielle va apprendre à faire sa prédiction sur l’analyse de différentes variables descriptives du phénomène observé. Ces variables sont déterminées par les data scientists, ou directement par l’IA (on parle alors d’approche non supervisée), en fonction du jeu de donnée d’apprentissage soumis.

Comme le souligne Frédéric Brajon, Co-fondateur de Saegus en charge de la Data et de l’IA, cette phase critique est souvent sous-estimée : “l’attention est trop souvent portée sur la performance des modèles mathématiques ; mais les premiers biais, absolument majeurs, apparaissent dans les phases préparatoires. La pertinence des variables descriptives retenues bien-sûr, mais également la nature même des données d’apprentissage ; les données sont-elles représentatives du phénomène observé ? Y a-t-il un risque de discrimination dans l’échantillonnage retenu ? Un risque éthique ? Ces questions fondamentales sont souvent négligées, par manque de temps, limite de budget ou inexpérience. Or, le meilleur modèle mathématique produira toujours des recommandations biaisées s’il n’a pas appris sur une base solide. Par exemple, dans le cas de recrutements, si ma base d’apprentissage a une sur-représentation d’un genre ou d’une tranche d’âge, il y a fort à parier que l’algorithme “pénalise” les candidatures différentes (pas parce qu’elles sont moins pertinentes pour le poste, mais parce que l’apprentissage a montré que celles-ci étaient moins fréquemment recrutées dans le jeu de données).”

L’apprentissage des modèles est donc essentiel, et le champ des possibles est large : quelles caractéristiques définir pour recruter ou non un candidat ? Quel poids leur donner les unes par rapport aux autres ? Comment prendre en compte des notions subjectives (le feeling), ou non liées directement à la personne (un candidat possédant un peu moins d’expertise qu’un autre, peut-être meilleur pour le poste, en raison d’une compatibilité de caractère avec le personnel en poste). En ce sens, l’intelligence artificielle aura tendance à reproduire les mêmes recommandations, or la richesse humaine d’une entreprise tient également à sa multidisciplinarité et sa multiculturalité ; comment prendre en compte ces paramètres ?

Julien Cotte, Directeur des Talents de Saegus, appuie ce point : “l’essence même d’une entreprise est représentée par ses salariés dans toutes leurs singularités. Les idées viennent parce que nous sommes différents, parce que nous avons des expériences différentes et une vision qui nous est propre sur les sujets à adresser dans notre domaine de compétences. Si l’intelligence artificielle suit à la lettre les critères de sélection, deux biais peuvent apparaître : l’impossibilité de recruter car personne ne pourra répondre totalement aux exigences du poste et l’homogénéisation des salariés ce qui, au final, appauvrirait les compétences de l’entreprise. Certes, il s’agit d’une vision très négative de l’utilisation de l’intelligence artificielle mais c’est le risque que je vois si nous souhaitons aller vers le tout IA pour le recrutement. L’IA doit être un outil d’aide, pas la seule décisionnaire. Le manager doit prendre en compte son envie de travailler avec le candidat, le recruteur doit pouvoir identifier si la personne s’intègrera bien à la culture de l’entreprise. Tout cela, en prenant en compte que l’IA n’est pas infaillible et que l’homme non plus.”

Par ailleurs, les exigences de recrutement peuvent varier d’un pays à l’autre et d’une entreprise à l’autre. Il est donc légitime de se poser la question de savoir si un traitement d’IA mis au point au US sera pertinent en France ? Faut-il ré-entrainer les algorithmes en fonction du pays ? Du secteur ? De la culture d’entreprise ?

Enfin, l’expérience du candidat est également à prendre en compte. L’usage de l’intelligence artificielle, invisible, peut être déstabilisante. En Europe, tout candidat doit être informé de l’usage de l’intelligence artificielle dans le cadre de son entretien d’embauche, et donner son accord. On peut s’interroger sur la liberté d’accepter ou de refuser dont dispose réellement le candidat, et sur l’impact de sa décision sur sa candidature.

Un cadre légal qui s’impose

Face à ces possibles discriminations, un cadre légal est nécessaire et commence à se dessiner.

Face à ce phénomène, une proposition de loi a été déposée aux États-Unis, l’Algorithmic Accountability Act, mais n’a finalement pas été adoptée. Toutefois le débat est ouvert.

L’Europe est quant-à elle précurseur de la préservation des droits à l’usage des données personnelles avec la réglementation RGPD. Mais cette règlementation ne protège pas d’une potentielle dérive éthique. En effet, dans le cas cité en exemple (recrutement), l’analyse des données personnelles du candidat peuvent être totalement anonymisées et détruites post traitement (donc en conformité avec la loi), n’en reste pas moins le problème éthique.

En France, certaines commissions parlementaires se sont emparées de ce sujet, et proposeront à l’avenir des recommandations législatives pour encadrer l’éthique non pas de l’IA, mais des usages que l’on en fait.

Car c’est certainement là que se trouve la clé de la solution. Encadrer les usages plutôt que la technologie brute.

“Comme toute nouvelle technologie, il y a du bon et du moins bon. Il est donc essentiel que les pouvoirs publics se saisissent de ce sujet pour encadrer la pratique et permettre une utilisation saine et efficace. Que ce soit le recruteur ou le candidat, je reste persuadé que les nouvelles technologies comme l’Intelligence Artificielle vont permettre de renforcer la relation candidat/recruteur. La technologie avançant très vite, la législation se doit d’être agile et en veille permanent sur ce sujet”, souligne Julien Cotte.

L’intelligence artificielle, une voix décisionnelle ou secondaire ?

Quel poids faut-il donc donner à la recommandation de l’algorithme ? Sa voix doit-elle être décisionnelle ou secondaire ?

L’exhaustivité de l’Intelligence Artificielle la place en dehors de la logique et des spécificités humaines. Les possibilités qu’elle offre sont intéressantes et challengeantes, mais l’IA doit rester une aide. La décision finale doit être humaine, dans toutes les finesses que cela comprend. A minima, une action humaine sera toujours nécessaire à certaines étapes du processus, par exemple par le manager qui travaillera en lien étroit avec la personne recrutée.

Et inversement, l’objectivité de l’intelligence artificielle peut avoir un impact positif : si le recruteur dispose d’un biais négatif ou discriminant, l’IA peut au contraire le contre-balancer.

L’idéal serait de trouver une complémentarité entre l’Intelligence Artificielle et l’humain. La vision de remplacer l’humain par l’Intelligence Artificielle dans le domaine des ressources humaines ne semble pas être la bonne voie. Par contre, identifier les écueils de l’humain dans le domaine du recrutement (lecture trop rapide des CV, non prise en compte des lettres de motivation, fatigue lors d’un entretien, biais culturel…) reste une piste d’innovation et d’optimisation qui pourrait être bénéfique à tous.

Une autre évolution semble nécessaire à explorer : si les recruteurs se dotent de cette technologie, ne serait-il pas intéressant que le candidat puisse avoir le même outil à sa disposition ? Le candidat pourrait alors obtenir une recommandation de l’IA pour identifier si le manager qu’il rencontre semble correspondre à ses attentes, si la présentation de l’entreprise rentre dans ses critères…

Ainsi, toutes les parties prenantes pourraient avoir le même outillage pour mener leurs entretiens. N’est-ce pas ça la véritable innovation ?

Conclusion

Quelles perspectives donner à la place de l’intelligence artificielle dans les processus de recrutement ?  

Comme dans quasiment toutes les fonctions, l’IA a une utilité certaine dans le cadre des ressources humaines et doit être intégrée aux réflexions.

Le paradoxe est que pour rendre une IA réellement efficace… Il faut l’utiliser. On voit bien ce phénomène avec les services de reconnaissance vocale ou visuelle proposés par les GAFA (notamment avec les assistants personnels). Les commandes vocales étaient très succinctes il y a 10 ans, alors que maintenant l’on peut parler et dicter des messages en langage naturel avec son smartphone.

Le phénomène d’apprentissage sera le même avec le domaine RH, plus l’on soumettra des vidéos de recrutement à l’IA, plus son analyse sera pertinente dans la durée.

Par contre, il convient que le législateur harmonise un cadre éthique d’utilisation de ces outils (opt-in du candidat, sans qu’un refus de sa part n’élimine la candidature par exemple), et que chaque entreprise place l’utilisation de ces technologies à la place qui convient, en assistance et en complémentarité à l’humain, et non en remplacement total, particulièrement pour ces domaines ou l’informel, le « bien-être ensemble » et la confiance ont tant de valeur pour construire des équipes performantes et durables. Il est également souhaitable que les candidats puissent également bénéficier des avantages de l’IA afin de rendre l’exercice du recrutement le plus équitable possible.

Envie d’en savoir plus ? Retrouvez notre table ronde sur les enjeux de la reconnaissance faciale par l’intelligence artificielle avec comme invité d’honneur Didier Baichère, Député et Vice-Président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques. Pour vous inscrire , c’est ici !

Rédigé par Frédéric Brajon, Associé et Co-fondateur, et Julien Cotte, Directeur des talents

« La donnée est l’or noir du 21ème siècle » formule beaucoup entendue depuis l’avènement des technologies Big Data au début des années 2010. De grandes promesses, qui, si l’on s’en réfère à l’analogie pétrolière nécessite :

  1. de la matière première ;
  2. l’acheminement de cette matière (l’extraction) vers des unités de traitement (raffinage) pour la rendre utilisable ;
  3. une capacité à la distribuer pour la rendre accessible au plus grand nombre.

Le « véhicule » (produit de consommation) étant quant à lui caractérisé par les outils de visualisation, les applications métiers, ou des services. Ses interfaces doivent être savamment pensées pour garantir au « conducteur » une utilisation fiable, agréable et sécurisée.

Depuis longtemps les entreprises ont appris à traiter l’information interne générée par leur propre fonctionnement : activités de production (supply, fabrication), corporate (finance, RH, marketing,…), sales (CRM, ecommerce, ….) ou autres pour servir des usages également internes (Business Intelligence dans les années 90 et 2000, et maintenant Big et Smart Data). De fait, le marché de la « Data » était caractérisé comme un marché de solutions. Cette orientation est particulièrement bien représentée par les fameux quadrants proposés par Gartner, qui répertorient et classifient les éditeurs de logiciels (voir ci-dessous).

Et si nous imaginions une classification des distributeurs de données, qu’en serait-il ?

La distribution d’information n’est pas à proprement parler une nouveauté non plus. Depuis plusieurs années ce mouvement est porté par l’Open Data, dont les services publics ont été précurseurs avec la plateforme Open Data gouv. Des sociétés ont également fondé tout ou partie de leur modèle économique sur la revente de données, à l’image de sociétés telles que Duns and Bradstreet, Bloomberg, ou encore des spécialistes des données météo, dont Météo France.

Mais cela reste du point à point ; la donnée vendue par un distributeur à un consommateur en relation commerciale directe.

La prise de conscience collective que la donnée (y compris personnelle) est un marché à part entière favorise l’émergence d’un nouveau type d’acteurs – les « data plateformistes ». Cette prise de conscience est bien entendue fortement portée par l’action des GAFAM et BATX qui ont construit leur puissance sur la revente de données d’utilisation de leurs services. Cela a d’ailleurs conduit à la mise en place de règlementations (la RGPD en Europe par exemple) visant à protéger les personnes d’une utilisation abusive de leurs données personnelles.

Mais nous assistons à la montée en puissance d’un autre phénomène. La structuration des activités de « raffinage » et de revente des données sur des Data Market Place, véritables Hub de données B to B, B to C ou pourquoi pas C to B. Les fonds d’investissement ne s’y trompent pas et soutiennent ce mouvement. Nous pouvons citer à ce titre des plateformes telles que Refinitiv ou plus récemment des jeunes pousses françaises comme Dawex.

Des initiatives ont même émergé sur des marchés spécifiques, à l’image du service de notation de la santé des sols proposé par Greenback, fondé par le créateur de DeVialet, ou même l’investissement de l’État Français (financement de 3,2 M€ via la BPI) dans la plateforme AgDataHub qui partage les données numériques de 280 000 exploitations agricoles.

Fait particulièrement intéressant, ce mouvement a bien été compris est anticipé par des acteurs innovants du marché de la donnée, tel que l’éditeur Snowflake. Acteur majeur du big Data, et plus précisément des outils dits de « modern Datawarehouse », solution de stockage et de traitement de données nativement conçus pour le Cloud, Snowflake partage une vision très intéressante. Fort d’une adoption massive de sa technologie dans le monde entier, Snowflake propose à ses clients des services de « Data Sharing ». Il s’agit de la possibilité de publier nativement des données (et d’en acquérir) soit en point à point, soit en publiant ses données sur la bibliothèque d’échanges de données (Snowflake Data Market Place) de la plate-forme, à l’image de « First American Data & Analytics » qui vient d’y publier son catalogue.

Ce principe de Marketplace commence également à percer sur l’IA, et plus précisément via l’émergence de plateforme Low Code permettant d’accéder à des services de Machine Learning pré-packagés (tels que Azure Cognitive Services, Prevision.io, en encore Dataiku qui enrichit sa bibliothèque) – nous creuserons cet aspect dans un article à venir.

Les solutions se structurent, mais les entreprises seront-elles capables de s’approprier et de créer de nouveaux services en mettant à disposition leurs données ?

Quels nouveaux usages observons-nous ?

Pour rester sur des analogies avec le marché de l’énergie, quittons l’or noir pour nous pencher sur l’énergie solaire. Nous observons une transformation profonde des usages, dans lesquels les consommateurs d’hier deviennent des « micro » producteurs, partiellement autonomes, voire totalement autonomes, parfois même excédentaires – auquel cas le surplus d’énergie est revendu pour être redistribué.

Cette démocratisation des fonctions de partage ou de distribution des données via des marketplaces est similaire.  Les entreprises productrices de données peuvent revendre leur « surplus » d’information, ou même créer des services spécifiques de données « prêtes à l’emploi » (comme GreenFlex dont la valorisation des données est le produit principal). La donnée n’est plus uniquement la source, elle devient le produit.

Comment se structurera le marché ?

Il est encore difficile d’imaginer une marketplace qui dominerait le marché mondial de l’échange de données, même si cette option n’est pas à exclure à long terme (vers un « Amazon du Data set ? »). Il nous semble plus probable que nous voyions émerger dans un premier temps multitude de « commercialisateurs » à l’image du e-commerce. Il est facilement imaginable que chaque entreprise crée une offre « donnée » accessible sur son site institutionnel ou e-commerce.

Le défi à relever sera alors l’exposition et le référencement de ces catalogues de données ainsi que les modèles économiques qui en découleront (à l’unité, au To, à la requête, à l’abonnement).

Les marketplaces révèleront alors tout leur potentiel puisqu’elles pourront garantir une meilleure exposition, la gestion financière des transactions, une couverture juridique, et pourquoi pas proposer des services additionnels (bouquets de données complémentaires ou recommandations / priorisation de jeux de données en fonction de leur intérêt fonctionnel, note de qualité, prix, feedbacks utilisateurs, etc).

Il serait même opportun d’associer deux types de services : l’accès aux Data Sets, plus un service d’IA (low code) qui permettrait de le valoriser ou de contextualiser l’information, et d’en faire bénéficier de plus petits acteurs (PME, ETI,…) qui n’ont pas la capacité d’investissement suffisante pour s’équiper en interne.

Un mouvement lancé…

Les solutions existent, le besoin de consommation également ; donc même si les entreprises sont encore réticentes à l’idée « d’ouvrir » leurs assets, gageons que la loi du marché s’appliquera à nouveau. Si la demande existe ; l’offre se structurera rapidement. C’est en tout cas notre conviction, et la raison pour laquelle nos experts Saegus accompagnent d’ores et déjà de grandes entreprises et organisations à prendre ce virage et à réfléchir à de nouveaux modèles.

Rédigé par Frédéric Brajon, Associé et Co-fondateur de Saegus

La difficile valorisation des projets de MLOps

Dans un monde numérique bouleversé par une digitalisation généralisée, les entreprises font de plus en plus appel aux nouvelles technologies afin d’augmenter leur efficacité. Les Nouvelles Technologies d’Information et de Communication (NTIC) s’intègrent progressivement depuis les années 70 avec, par exemple, l’apparition des micro-ordinateurs, puis plus fortement à la fin du XXe siècle avec l’utilisation d’internet et des courriers électroniques. Plus récemment, les entreprises profitent d’outils ERP (Enterprise Ressource Planning) pour faciliter leur gestion, ou encore s’appuient sur des objets connectés pour suivre, harmoniser et automatiser leurs activités.

Ces nouveautés génèrent de très nombreuses données devenant ainsi le nouvel or noir du numérique. Les entreprises ont à leur disposition de nombreuses solutions permettant de les valoriser : « modern Datawarehouse », Business Intelligence, Data Viz, etc. Les domaines d’applications sont nombreux et touchent tous les secteurs. En particulier, sur la base de ces données, il devient ainsi possible de mettre en place des analyses descriptives, diagnostiques, prédictives, voire prescriptives. Ce type d’approche mobilise très souvent des solutions basées sur le Machine Learning qui a suscité un fort engouement ces dernières années.

En effet, selon une étude de NewVantage Partners, on observe que 55% des 65 entreprises de FORTUNE 1000 ont investi en 2019 au moins 50 millions de dollars dans des projets Big Data et IA. Cependant, aux vues des investissements des entreprises dans ce domaine, il est inacceptable de constater que – selon Gartner – jusqu’en 2020 seulement 13% des projets de Machine Learning ont été industrialisés.

Pour expliquer ce paradoxe, Saegus a étudié les nombreux freins à l’épanouissement de la Science des Données dans les organisations : la délicate gestion des Data Scientists, un usage sous-optimal des ressources (outils, données et humaines), des enjeux culturels ralentissant l’adoption de la culture Data par toutes les parties prenantes, etc. Tous ces facteurs contribuent à la dégradation de la rentabilité des initiatives en Sciences des Données (voir notre article correspondant). Parmi ces freins, l’opérationnalisation des modèles constitue une difficulté majeure. Autrement dit, le grand enjeu que rencontre cette discipline est la mise en production des solutions de ML et tout ce que cela implique. Par analogie, cet enjeu est comparable à ceux de la culture DevOps qui est présentée plus en détail dans la suite de l’article.

Zoom sur le DevOps

Les problèmes de l’ancien modèle

Comme décrit dans la précédente section, depuis l’émergence de l’informatique, les entreprises s’appuient massivement sur les outils et les services liés au numérique, secteur en perpétuelle évolution. Le déploiement de ces derniers est complexe, voire problématique et nécessite une méthodologie élaborée. Par exemple, en génie logiciel, 66% des projets dépassent le budget et un tiers des projets ne tiennent pas les délais selon une étude de McKinsey & Oxford. Avant l’apparition du DevOps, comme nous pouvons le voir sur le schéma ci-dessous, deux équipes indépendantes intervenaient lors de la création de nouveaux produits digitaux. Une équipe de développement se chargeait de collecter les besoins métiers et de développer le produit, puis de tester le bon fonctionnement de celui-ci. S’il était conforme aux attentes, une autre équipe « opérationnelle » prenait le relais et assurait son exploitation dans un environnement de production.

Cette approche pose de nombreux problèmes. Tout d’abord, la présence de deux équipes a divisé les responsabilités et a créé des objectifs antagonistes. L’équipe de développement a pour objectif de modifier et faire évoluer l’application le plus rapidement pour suivre les exigences et les besoins des utilisateurs. Elle corrige les bugs, et ajoute de nouvelles fonctionnalités – parfois dans un délai court, tentant de minimiser les coûts et en n’attachant pas toujours une priorité maximale à la qualité. L’équipe des opérationnels assure le maintien de l’application et garantie sa stabilité et sa qualité. Pour cela, elle utilisera plus de temps et augmentera le coût nécessaire pour le déploiement d’une nouvelle version. Cette dissonance de priorité et d’objectifs peut entraîner des blocages et des allers-retours entre les deux équipes, ayant des conséquences néfastes sur le projet.

De plus, il arrive qu’il y ait peu de communications continues entre les deux équipes sur les problèmes rencontrés et les besoins changeants. Pour être performante, l’entreprise doit déployer sa solution le plus rapidement possible. Celle-ci présentera par la suite de nombreuses mises à jour permettant de corriger les bugs et d’améliorer le contenu. Le manque de communication pénalise le rythme de développement et d’exploitation de tels projets, rendant la surveillance et le déploiement des applications ardus, alimentant ainsi le risque de blocages.

Pour résoudre les dysfonctionnements de cette approche, la méthodologie du « DevOps » est apparue en 2007, imaginée par Patrick Debois.

Qu’est-ce que le DevOps ?

Le DevOps est avant tout une philosophie qui permet aux entreprises d’évoluer vers une approche dynamique orientée client pour le développement et la livraison de leurs applications, complétée par un contrôle de la qualité de la production irréprochable. Ainsi, les nouvelles évolutions sont intégrées et déployées continument et itérativement sur tout le cycle de vie du projet. La conception et la gestion du cadre d’opération des solutions sont traitées tout au long du projet, des prémices lors de la phase de cadrage jusqu’à la surveillance post-production. Cette méthodologie permet à l’entreprise de gagner en agilité et d’accélérer le « Time to Market » des produits. Pour cela, elle combine les compétences entre les équipes de « développement » et « opérationnelles » autrefois séparées, qui suivront des principes communs :

  • Culture : améliorer les attitudes de l’entreprise au service du développement
  • Automatisation : automatiser le plus possible les différentes procédures
  • Lean : optimiser l’utilisation des ressources afin de diminuer les coûts
  • Mesure : localiser rapidement les erreurs, analyser le comportement des utilisateurs en mettant en place des remontées d’informations efficaces
  • Testing : mise en place de nombreux tests (unitaires, fonctionnels, d’intégration) garantissant le bon déroulement des développements itératifs
  • Partage : mieux communiquer entre les équipes sur les problèmes et les améliorations possibles de l’application

Les composantes du DevOps sont présentées dans le schéma ci-dessous. Les deux équipes « Dev » et « Ops » sont imbriquées et partagent un même cycle sur lequel les différents segments du DevOps se suivent chronologiquement. Sa représentation, sous la forme du symbole de l’infini, témoigne d’une logique d’itération dans le temps : à la fin d’un cycle, un autre redémarre.

Grâce à l’automatisation des tâches, le DevOps fluidifie et accélère les interactions entre les parties prenantes du projet, ce qui supprime les temps morts. Le déploiement continu associé à l’automatisation des tests accélèrent le développement. Ces gains de temps provoquent mécaniquement une réduction des coûts et accélèrent la mise à disposition de l’application.

Un métier pluridisciplinaire a émergé de cette philosophie : l’ingénieur DevOps. Tout d’abord, il doit posséder des compétences techniques de développement et d’exploitation de logiciel. Il présente également une expertise sur de nombreux outils spécifiques au DevOps.  Il doit également faire preuve de compétences « humaines » : il sait prendre du recul pour comprendre le point de vue des autres, et en faire la synthèse afin de mener à bien le projet.

Généralisation de la culture “Ops”

De nouveaux besoins

Ainsi, cette culture Ops s’est développée en réponse aux besoins rencontrés lors du développement logiciel et d’applications. De nos jours, ces solutions sont souvent constituées de nouveaux types de composants leur permettant d’être plus modulables, sécurisées, innovantes et intelligentes (cloud, ML, grande quantité de données, …). Or, l’intégration de ces nouvelles technologies dans les applications a augmenté les risques pour le bon déroulement des projets. Bien souvent, ce type de produits nécessite l’intervention de nouveaux métiers – Data Scientist / Data Engineer / Data Analyst… Cela ravive les difficultés rencontrées par le passé dans la gestion du cycle de vie des projets. C’est particulièrement le cas lors de l’accompagnement d’un produit d’une phase de développement à une phase de production, a fortiori étant donnée cette nouvelle diversité fonctionnelle de parties prenantes.

Les insuffisances du DevOps au service de la Data et du Machine Learning

L’intégration de modèles d’intelligence artificielle et plus particulièrement de Machine Learning dans des applications a soulevé de nouveaux enjeux. La philosophie DevOps a essayé de s’adapter pour pouvoir répondre à ces nouveaux défis, mais les principes DevOps initialement définis ne suffisent plus pour mener à bien un projet ML. En effet, ces projets présentent de nombreuses spécificités qui ne sont pas couvertes ou sont mal traitées par le DevOps (voir le tableau ci-dessous).

Ainsi le DevOps ne permet pas de répondre à tous les besoins de ces nouvelles technologies, induisant l’émergence de nouvelles disciplines.

Pour prévenir au mieux les risques et accélérer l’intégration de nouvelles fonctionnalités, de nouvelles perspectives et tendances émergent chaque jour autour des idées du DevOps, déclinées pour chaque usage et générant une véritable ère des Ops : « MLOps », « DataOps », « SecOps », « ITOps », etc. Ces différentes notions sont décrites brièvement dans le tableau ci-dessous.

Pour mieux comprendre les dynamiques associées à ces nouvelles disciplines, nous avons mené une étude sur l’évolution de leur popularité sur Twitter, acteur majeur dans l’émergence, l’exposition et la popularité des nouvelles technologies. Après avoir récupéré l’ensemble des tweets mentionnant chacun des termes associés (DevOps, MLOps, DataOps, etc.), nous avons quantifié et dénombré leur nombre comme mesure de leur popularité sur les dernières années. Les courbes de popularité de ces différents termes sont présentées dans le graphique ci-dessous, avec le terme DevOps qui est présenté à part du fait de ses particularités (voir cadrant en haut à gauche).

Dans le monde de la Tech, le mouvement DevOps se positionne comme précurseur et semble être à l’origine des autres disciplines. En effet, nous observons sur le graphique que la première apparition du terme sur Twitter est en 2007, soit deux ans avant l’apparition d’autres mouvements Ops. De plus, nous observons qu’il y a une augmentation pseudo-exponentielle de sa popularité jusqu’à 2015, suivi d’une augmentation plus faible jusqu’à 2017, portant à 725 000 tweets sur le DevOps en une année (soit 2 000 tweets par jour !). L’inversion de la tendance de popularité à partir de 2017 peut s’expliquer en partie par la création de nouveaux mouvements Ops, entraînant un effet de vases communiquant. Ces mouvements complètent la philosophie du DevOps dans certains domaines nécessitant des pratiques plus spécifiques.

Pour autant, les nouveaux termes associés sont nettement moins représentés sur la Twittosphère avec un rapport de x40 par rapport au nombre de tweets sur le DevOps. Cela peut s’expliquer par le fait qu’avant le DevOps, la communauté des ingénieurs logiciels était déjà massive. Les autres disciplines (Big Data, Machine Learning, …), nettement plus jeunes, n’ont pas encore de communauté mature et manquent d’ailleurs de nombreuses ressources.

À l’origine de tout projet Data, une problématique forte qui s’impose aux organisations est la collecte, le stockage et le raffinage d’une grande variété de données volumineuses. C’est probablement l’une des raisons pour lesquelles nous pouvons voir que la popularité du DataOps augmente fortement dès 2015. Cela a également posé des questions relatives à la sécurité de ces données, d’où l’augmentation de la popularité en parallèle du concept de SecOps.

Il est très intéressant de remarquer que le développement de la popularité du MLOps est postérieur à celle du DataOps. Une première explication de cet ordonnancement fait écho à ce que nous avons décrit précédemment : la première difficulté d’un projet Data est la récupération automatisée de données qualifiées, d’où la primauté du DataOps. Une autre explication complémentaire relève du fait que le DataOps englobait initialement toutes les problématiques liées à l’opérationnalisation des données : du Data Engineering à la Data Science. La stagnation puis la diminution de la popularité du DataOps sur Twitter pourraient s’expliquer par la différenciation des problématiques opérationnelles associées à chaque segment fonctionnel (Data Engineering et Data Science), cédant donc un peu d’espace au MLOps.

En effet, le MLOps s’attache à travailler sur les spécificités d’un projet d’IA et de Machine Learning qui ne sont pas couvertes par le DataOps tels que le versionning, ou encore le monitoring des modèles de ML. La forte augmentation depuis 2018 du nombre de tweets sur le MLOps est un indicateur confortant notre vision sur l’intérêt porté à ce nouveau métier, et en même temps souligne sa prime jeunesse. Par ailleurs, contrairement au DevOps ou au DataOps, ce terme ne semble pas avoir atteint son plateau de popularité sur Twitter, montrant ainsi que le sujet reste pleinement d’actualité. Enfin, les courbes du DataOps et du MLOps se croisent en 2020, laissant penser que les enjeux du MLOps présentent actuellement une importance quelque peu supérieure au DataOps aux yeux de la communauté.

Chacun de ces mouvements est pour la plupart très récent, et de fait, il n’existe pas au sein de la communauté de consensus sur la définition de leurs périmètres, de leurs modus operandi, et des bonnes pratiques associées. En particulier, le MLOps apparaît comme le concept le plus juvénile, et pas des moins complexes. L’impérieuse nécessité d’une vision Ops se résume parfaitement par cette citation de Klaus Schwab, ingénieur, économiste et président du Forum Économique Mondial :

Dans le nouveau monde, ce n’est pas le gros poisson qui manque le petit ; c’est le plus rapide qui mange le plus lent.

Définition, objectifs, périmètre, outils… Retrouvez-nous bientôt pour la suite de cette tétralogie dédiée au MLOps ! En attendant, contactez nos expert·e·s Data pour en savoir plus.

Rédigé par Clément Moutard, Manager Data, et Martin Cudicio, Consultant Data

Ce n’est pas ici que je vais refaire l’histoire des marques et des stratégies de branding,

Pendant des années, toutes les grandes théories se succédaient,

Comment positionner sa marque, quelle place pour son branding, comment générer de la préférence de marque jusqu’à accéder au statut de… LOVE BRAND.

Oui mais voilà,

Tout est bousculé depuis quelques années par les « perturbateurs » que j’appellerais bien volontiers les accélérateurs (puisqu’en bousculant, ils font avancer).

Les MDD qui travaillent leur stratégie avec habileté : fini l’ère du mee-too, place à l’unicité et à l’audace créative ! Qui aurait pu penser, il y a 5 ans à peine, que les MDD seraient capables d’avoir autant d’aplomb ?

Il y a eu également les start-ups et l’ère du « no marketing ». Un branding timide, fait maison, artisanal et simple.

Mais alors, les marques nationales dans tout cela ?

Comment se remettre à la page quand tout est bousculé ?

Comme une peur de faire un faux pas, de prendre une mauvaise route qui, dans ce cas, s’avèrerai être une mauvaise posture.

Bienvenue dans l’ère des marques timides ?

Celles qui s’allègent pour laisser la part belle au produit, vous diront-elles,

Mais surtout celles qui peinent à passer au statut de marque engagée,

Comment continuer à fédérer quand on a utilisé pendant des années des techniques pour vendre, parfois à n’importe quel prix ?

Il est presque étonnant de voir que, pour s’engager sur des nouveaux marchés, nouveaux segments, nouvelles promesses, les marques sont presque obligées de disparaître ! Rassurez-vous, elles ne disparaissent pas, elles laissent la place.

La place à des promesses inédites, des cibles nouvelles ; pour adresser correctement cela, quoi de plus fort que de créer de toute pièce des marques nouvelles ?

(Le point commun entre ces 3 marques ? Elles appartiennent toutes au géant Nestlé !)

Et nous assistons tout doucement à un nouveau terrain de jeu pour les marketeux·ses de demain : des marques patrimoniales et historiques qui laissent la place aux marques filles pour éviter un énième système de « oui mais tu comprends, la règle d’endorsement c’est que le logo de Y doit faire 26,72% de la hauteur de X avec une zone de protection de ½ Y » (j’exagère à peine).

Des marques qui simplifient aussi leurs codes pour s’essentialiser. Le fameux retour du Less is More. Et lorsque Danone lance sa nouvelle plateforme de communication corporate « Danone, One Planet, One Health », il faut bien que la stratégie d’offre et l’expression branding suivent ensuite.

Autre exemple illustrant ce propos ? Les marques qui sont lancées dans la mouvance des grands enjeux sociétaux : la génération des millenials et celle des GenZ. Cette génération qui n’achètera plus comme hier, qui consommera en pensant à demain, celle pour qui les marques doivent se réinventer sans cesse.

AirFrance avait fait une tentative, sans doute un peu trop tôt ? Avec le rachat et l’animation de sa marque JOON, disparue en 2019.

Mais les grands groupes de tourisme et de transports ne sont pas en reste,

Accor, SNCF, tous veulent eux aussi se lancer dans cette chasse à la cible des « engagé·es », des écos-citoyen·nes.

Et enfin, parce que les start-ups restent les meilleures stimulatrices d’idées, de nouvelles marques viennent encore bousculer nos idées reçues en s’engageant non seulement dans des combats RSE mais en proposant aussi des univers de marques innovants et crédibles à la fois.

Alors, quelle place pour les marques demain ?

Comment travailleront-elles leur identité ?

Comment consommerons-nous autrement ?

Quel sera notre rapport aux marques demain ?

Je crois au pouvoir des marques, je crois profondément qu’elles peuvent participer aux engagements de demain. Je crois en leur capacité à rebondir, à se réinventer. Il y a 15 ans, je démarrais ma carrière en rêvant de travailler pour une Love Brand.

Je crois qu’aujourd’hui, je n’attends qu’une chose, travailler avec et pour les INVOLVED BRANDS. Celles qui innoveront pour une consommation plus responsable, celles qui militeront pour une politique interne plus inclusive, celles qui encourageront les idées d’où qu’elles viennent.

Marques d’hier, d’aujourd’hui et de demain, ENGAGEZ-VOUS !

Rédigé par Charlotte Zekraoui, Manager Senior Factory

Notre mission auprès d’un grand acteur de la construction, comptant plus de 220 000 collaborateurs à travers le monde, a commencé en février 2020. Dans ce cadre, nous avons travaillé en étroite collaboration avec l’équipe chargée d’accompagner l’ensemble des collaborateurs du groupe souhaitant améliorer et maîtriser leur environnement de travail grâce aux outils digitaux. Après deux semaines en immersion pour comprendre le fonctionnement du service, nous avons rendu un rapport d’étonnement concentrant les actions des six mois à venir.

Notre proposition visait à compléter et à booster une base solide d’adoption : masterclasses, formations, fiches pratiques, support fonctionnel VIP et utilisateurs, programme ambassadeur, etc. Le principal objectif était de multiplier par trois le nombre de personnes accompagnées par l’équipe en interne.

À l’heure du confinement, il fallut repenser les méthodes d’accompagnement largement basées sur le présentiel : créer une dynamique d’équipe solide et efficace, répondre à une soudaine augmentation de sessions et de guides d’accompagnement et construire un cadre propice à l’apprentissage à distance étaient au centre de notre réflexion. Nous devions aussi déjà penser à préparer « l’après confinement ».

Cette conjoncture particulière a permis à l’équipe interne d’être identifiée par un grand nombre de collaborateurs, notamment sur les sujets Microsoft 365. En septembre, il était nécessaire de proposer une solution rapide et peu onéreuse pour faciliter le travail des managers, des assistants et du département des ressources humaines pour mieux gérer le retour ponctuel sur site des collaborateurs.

Développée en 1 mois avec l’aide du département Data Saegus et des services applicatifs du groupe, en utilisant les licences Microsoft déjà à disposition, nous avons proposé une Power App visant à faciliter l’organisation du télétravail : accessible sur mobile et desktop depuis Teams, elle permet à chacun d’ajouter ses jours de télétravail sur les quatre semaines à venir. Chaque jour, un récapitulatif des saisies est automatiquement envoyé à chaque manager via Power Automate. Enfin, un tableau de bord Power BI offre une vue d’ensemble spécifique à chaque manager et permet de télécharger un récapitulatif en format pdf. Plusieurs parcours sont disponibles et activés selon les directives gouvernementales : présence ponctuelle sur site, présence ponctuelle à distance, etc.

Grâce à une collaboration entre l’équipe interne, les ressources humaines et les services infrastructures et applicatifs, l’ensemble du dispositif fut livré 1 mois après la réception de la demande. L’ensemble des collaborateurs concernés l’ont adopté en 1 semaine.

Dans l’élan du lancement de la Power Platform, le projet a aussi su dépasser son propre cadre : aujourd’hui, un an seulement après le début de la mission, plusieurs équipes du groupe travaillent à la mise en place d’un centre de service dédié à l’automatisation des processus individuels et d’équipe, notamment grâce aux outils de la Power Platform.

Pour en savoir plus, et pour être accompagné sur un projet d’adoption, contactez nos expert·e·s Workplace et Data !

Rédigé par Sihem Fayard et Maïlys Richard, Consultantes Digital Workplace

Dans un monde numérique en plein bouleversement, les entreprises font de plus en plus appel aux nouvelles technologies afin de tirer de la valeur de leurs données.  Cependant, selon Gartner, seulement 13% des projets de Machine Learning (ML) seraient industrialisés aujourd’hui.

L’un des principaux problèmes empêchant les modèles d’être exploités est lié à la difficulté de les opérationnaliser. Autrement dit, le grand enjeu que rencontre la Data Science est la mise en production des solutions de ML.

Le cycle de vie d’un projet ML est constitué de nombreuses phases et convoquent de nombreux métiers : aux côtés du Data Scientist et du Data Engineer qui modèlent la solution, le rôle du ML Engineer est essentiel dans la gestion à terme du projet.

Ses objectifs sont les suivants :

  • Accélérer l’avancement des projets de ML en gérant le cycle de vie des modèles, de leur phase de développement à la post-production ;
  • En amont, co-articuler le projet avec les pipelines de données qualifiées (pertinentes, fiables, de qualité) développées par le Data Engineer. Ces données sont remises au·à la Data Scientist afin qu’il puisse travailler au développement des modèles de ML ;
  • Organiser la phase d’entraînement des modèles pour faciliter la phase d’intégration et de déploiement (selon des règles comme A/B testing, Canary Rollout) dans des environnements de production. Cela permet au·à la Data Scientist de versionner les modèles pour assurer leur gestion systématique ;
  • Suivre la performance des modèles et des données et, s’il y a lieu, faire remonter les écarts, erreurs et métriques au Data Scientist pour assurer l’absence de semantic/concept drift. Le cas échéant, il est envisageable d’y remédier par un réentraînement des modèles, si possible automatiquement ;
  • Suivre la bonne exposition des services ML, par exemple via l’encapsulation des modèles dans une application en collaboration avec une équipe de développement (DevOps et/ou Cloud Architect).

Le ML Engineer maîtrise les librairies de Data Science (Tensorflow, Scikit-Learn) et les outils de développement (Python, R. Jupyter), de DevOps (Airflow, Git, Ansible), de versionning et de ML Management (MLflow, AutoML, Kubeflow). Il est également à l’aise avec la méthodologie Agile afin d’assurer la gestion de projets (Scrum).

C’est un métier facilitateur et pluridisciplinaire qui s’appuie sur des frameworks de gestion de workflows, de versionning, et de ML management. Son rôle est clé, car il crée de la valeur rapidement.

En conclusion

La discipline du MLOps est récente et les pratiques ne sont pas encore harmonisées au sein de la communauté. Toujours en développement, elle garantit des activités très concrètes et innovantes. Si ces perspectives à la fois ouvertes et challengeantes vous intéressent, n’hésitez pas à contacter nos experts Data ou à candidater pour nous rejoindre ici. Au plaisir d’échanger !

Rédigé par Clément Moutard, Manager Data, et Martin Cudicio, Consultant Data

Avec ses 50 millions d’utilisateurs, Trello est un logiciel de gestion de projet largement adopté qui s’inspire du modèle Toyota et la méthode Kanban (principe de tableaux avec des listes et des cartes). 

Grâce à sa simplicité d’utilisation, Trello s’est retrouvé au cœur des projets de plusieurs milliers d’entreprises ainsi que dans le quotidien des particuliers grâce à sa formule freemium.  

Logiciel créé en 2011 et racheté par Atlassian en 2017, Trello s’offre pour ses 10 ans de nouvelles fonctionnalités ainsi qu’une nouvelle identité visuelle. De la vue micro à la vue macro en un clic ou encore la gestion de plusieurs projets en même temps grâce à une vue personnalisée, les abonnés détenteurs des versions Business Class et Entreprise vont avoir pléthore d’options pour manager leurs projets.  

5 nouvelles vues, des nouvelles cartes et des améliorations diverses et variées, voici ce que propose Trello depuis peu… et ce n’est pas fini !

À quels cas d’usages ces 5 nouvelles vues s’adressent-elles ?

Comment planifier la vue d’un projet, les objectifs d’une équipe ?

Obtenir une vue d’ensemble des objectifs de l’entreprise peut paraître ardu, surtout lorsque l’on souhaite planifier les priorités des prochains mois voire des prochains trimestres.

La vue chronogramme, qui ressemble à un planning de Gantt, vous permet de visualiser rapidement les priorités sur les mois à venir et ajuster les objectifs en répartissant les ressources équitablement. 

Comment gérer les ressources d’une équipe, d’un ou plusieurs projets ?

S’assurer que chaque collaborateur possède une charge de travail en accord avec ses capacités est en enjeu rencontré par beaucoup de managers. Il est encore plus compliqué lorsque ce collaborateur travaille sur plusieurs projets en même temps.

La vue Tableur permet de suivre les tâches de tous les projets sélectionnés. Selon les filtres effectués, il est possible de sélectionner et trier sur des collaborateurs précis pour identifier leur charge de travail et ainsi anticiper des risques et faciliter la prise de décisions.

Comment piloter et suivre son projet ?

Les images (et les graphiques) valent mille mots.

La vue Tableau de bord vous permettra de mieux piloter votre projet grâce à des données et indicateurs créés automatiquement.  
Vous pouvez, en un coup d’œil, voir l’état d’avancement de votre projet en comptabilisant les tâches « en cours » ou « finies » ou encore la répartition d’assignation. Mais libre à vous de personnaliser vos graphiques pour faire apparaitre les indicateurs les plus pertinents pour votre projet.  

Quelles sont les priorités du mois, de la semaine voire même du jour ?

La vue Calendrier facilite la planification des activités d’une équipe ou d’un projet en offrant une vue sur les échéances et les délais accordés à des tâches spécifiques. Cette vue permet d’apercevoir rapidement les tâches critiques à réaliser dans un projet.  

Au-delà de la gestion de projet, cette vue répond à de nombreux cas d’usages tels que la gestion de calendriers éditoriaux d’équipes Marketing pour planifier les contenus à rédiger et publier ou la gestion de candidatures d’équipes RH.  

L’utilisation de la vue Calendrier est simplifiée pour ajuster les dates limites et délais associés aux tâches grâce à un simple glisser-déposer.

Comment des métiers à forte mobilité peuvent gérer leurs activités ?

La vue Localisation, par exemple, est dédiée aux usages liés à la géolocalisation pour suivre des tâches et les visualiser sur une carte. Fonctionnalité très pratique dans le secteur de l’immobilier pour suivre la vente de propriétés selon leur emplacement géographique ou par des équipes commerciales devant gérer leurs déplacements.

L’avis de l’équipe Acceleration Tactics sur les nouvelles vues

Trello avait débuté son évolution avec la mise à disposition des Power-Ups permettant d’agrémenter les tableaux pour couvrir un certain nombre de cas d’usages comme la personnalisation de champs ou encore l’automatisation. Mais grâce à ces dernières évolutions, Trello vient s’affirmer sur le marché comme véritable challenger en comblant les limitations qui empêchaient son utilisation à l’échelle sur des projets complexes. La solution marque un tournant en intégrant nativement des fonctionnalités nécessaires pour la bonne gestion de projet, quel que soit le secteur ou métier.

3 nouvelles cartes viennent également enrichir les possibilités de gestion de l’information au sein des tableaux : quelles sont leurs valeurs ajoutées ?

Une multitude de logiciels tiers sont sur le marché et beaucoup d’entre eux sont utilisés en parallèle de Trello pour augmenter la productivité.  

Les cartes liées permettent de centraliser l’ensemble des ressources du projet et de l’équipe grâce à l’intégration de liens directs dans les cartes. Il est maintenant possible d’ajouter simplement un lien Youtube de la dernière vidéo d’entreprise, ou bien des documents stockés sur Dropbox ou Google Drive.  

Créer un tableau composé de tableaux ?  

Les cartes Tableaux remplissent parfaitement ce rôle pour retrouver tous les tableaux liés à un même projet au sein d’un même tableau. Par exemple, dans une campagne marketing, vous pouvez référencer d’autres tableaux relatifs aux ressources provenant des autres départements.  

Des cartes se mettant automatiquement à jour lors d’une modification dans un autre tableau, c’est l’une des fonctionnalités les plus demandées.  

Les cartes Miroirsont là pour vous faire gagner du temps. Cela signifie que les membres d’une équipe qui travaillent sur différents tableaux seront toujours au courant des dernières informations sur un projet qui les concerne tous, car les cartes miroirs seront automatiquement mises à jour en même temps que la carte originale. (Fonctionnalité disponible dans les prochains mois) 

L’avis de l’équipe Acceleration Tactics sur les nouvelles cartes 

Un point de douleur de la gestion de projet est la dispersion des informations que Trello vient contrer en offrant de consolider les informations en un endroit unique. Trello a bien compris les besoins de ses utilisateurs de gestion multi-projets pouvant impliquer de multiples équipes, nécessitant de la transparence d’information à jour, ainsi que celui de référencer les ressources provenant d’autres logiciels à travers ses nouvelles cartes. Des fonctionnalités attendues qui rendront l’outil indispensable à notre quotidien !

Les multiples tableaux auquel un individu accède peuvent complexifier la gestion quotidienne et l’accès à l’information.   

La nouvelle barre latérale est là pour une meilleure expérience de navigation. Elle est organisée par espace de travail et chaque espace de travail a ses propres tableaux. Vous pouvez y voir vos tableaux favoris, les vues d’équipe et tous vos tableaux. (Fonctionnalité en cours de déploiement)

L’avis de l’équipe Acceleration Tactics en conclusion 

À travers ces évolutions majeures, Trello, jusque-là répondant à des cas d’usages précis, se développe et répond à un plus grand nombre de besoins. Initialement limité à des tableaux de visualisation de tâches simplifiés, Trello évolue vers un produit de gestion de projet et se différencie des autres acteurs du marché, notamment par la synchronisation cross-projet. Nous avons hâte de suivre l’évolution de cet outil !

Pour en savoir plus, et pour vous former à Trello, n’hésitez pas à contacter nos expert·e·s Accélération Tactics !

Rédigé par Claire Ducreux, Consultante Acceleration Tactics.

Crédits photos : © Trello Inc

Comme chaque année depuis 5 ans, le Financial Times et Statista dressent la liste des « 1000 Europe’s Fastest Growing Companies ».

Cette année pour la première fois, Saegus fait partie de ce classement qui répertorie les entreprises européennes qui ont réalisé le plus fort taux de croissance annuel entre 2016 et 2019.


C’est une immense fierté pour nous et l’occasion une nouvelle fois de vous remercier pour cette aventure que nous vivons, ensemble, au quotidien.


Découvrez le classement complet ici.