Ici archive

Martin Alteirac, en charge des activités d’Intelligence Artificielle chez Saegus, et Brice Lavigne, expert en gouvernance Data et IA nous expliquent comment ils accompagnent leurs clients à l’arrivée de l’AI Act. 

Pouvez-vous nous rappeler rapidement ce qu’est l’IA Act en quelques mots ?

L’AI Act est une proposition de réglementation de l’Union européenne (UE) visant à réguler les systèmes d’intelligence artificielle (IA) au sein de l’UE. Le projet de loi a été présenté par la Commission européenne en avril 2021 et vise à établir des règles spécifiques de l’utilisation de l’IA dans ce cadre. L’AI Act classe les catégories d’intelligence artificielle selon des systèmes allant du haut risque (comme les dispositifs médicaux ou les véhicules autonomes) au moindre risque.

Il impose des obligations telles que la transparence, la traçabilité, la documentation et l’assurance de la conformité aux règles de sécurité établies. Il interdit également certaines applications d’IA considérées comme dangereuses, comme par exemple la manipulation de comportements humains de manière trompeuse. 

Pour en savoir plus, n’hésitez pas à consulter notre premier article sur le sujet : L’AI ACT : une opportunité à saisir pour développer sa stratégie AI Driven.

Comment mettre en place une gouvernance IA ?

Lorsqu’une entreprise décide de mettre en place une gouvernance de l’IA, une approche méthodique est essentielle pour garantir son succès. Elle peut être déclinée selon les étapes suivantes.

Première priorité : acculturer et sensibiliser aux risques de l’IA

La première étape consiste à sensibiliser l’ensemble de l’organisation aux risques associés à l’IA. Il est essentiel que tous les acteurs comprennent les conséquences potentielles des décisions liées à son utilisation, notamment sur la réputation, la conformité légale et les opérations de l’entreprise. Cette prise de conscience permet d’obtenir un soutien et une adhésion plus forts à la gouvernance IA. Notre équipe propose des programmes de formation et sensibilisation ciblés pour mettre en lumière ces risques, que ce soit pour les décideurs à haut niveau, product owners, chefs de projets ou praticiens de l’IA en entreprise.

Après la sensibilisation, nous mettons en œuvre une méthodologie structurée pour guider nos clients dans le processus de gouvernance IA :

  • Diagnostic, analyse de risques et Gap Analysis : nous débutons par un diagnostic approfondi de l’environnement actuel de l’IA au sein de l’entreprise, en mettant l’accent sur les risques potentiels. La Gap Analysis identifie les écarts entre la gestion actuelle des risques liés à l’IA et les normes souhaitées en matière de gouvernance et de conformité ;
  • Plan d’action : sur la base des résultats de la Gap Analysis, nous élaborons un plan d’action précis qui détaille les étapes nécessaires pour atténuer les risques identifiés. Ce plan comprend des échéanciers, des responsabilités claires et des objectifs mesurables ;
  • Implémentation des processus : nous aidons nos clients à mettre en œuvre le plan d’action en créant des équipes dédiées, en mettant en place des politiques et des procédures adéquates, et en communiquant efficacement les changements au sein de l’organisation. Une attention particulière est portée à la gestion des risques tout au long de cette phase ;
  • Implémentation technique : enfin, nous nous assurons que les aspects techniques de la gouvernance IA sont en place, en veillant à ce que les technologies sous-jacentes respectent les principes de transparence, d’équité et de confidentialité des données.

En suivant cette approche méthodique, nos clients sont mieux préparés à gérer les risques associés à l’IA tout en maintenant un contrôle efficace sur leurs initiatives. La gouvernance de l’IA devient ainsi un moyen essentiel de préserver la réputation, de garantir la conformité et de sécuriser les opérations de l’entreprise.

Une fois la gouvernance en place, comment s’assurer de son efficacité sur le long terme ?

La mise en place d’une gouvernance de l’IA est une étape cruciale, mais son succès à long terme repose sur une logique itérative d’amélioration continue. Nous proposons la logique d’amélioration continue suivante :

  • Inspection : la première étape consiste à effectuer des inspections, à la fois aléatoires et planifiées, de l’application de la gouvernance de l’IA. Ces inspections visent à détecter les vulnérabilités potentielles dans le processus de gouvernance. Les inspections aléatoires permettent de repérer des problèmes imprévus, tandis que les inspections planifiées suivent un calendrier défini. Cette étape nous aide à maintenir une surveillance proactive et à identifier les zones qui nécessitent une attention particulière.
  • Gap Analysis : une fois les vulnérabilités détectées, nous les présentons aux parties prenantes de l’entreprise, qu’il s’agisse du conseil d’administration, de l’équipe de direction ou d’autres intervenants clés. Ces vulnérabilités sont examinées en détail et une analyse des écarts est réalisée pour comprendre pourquoi elles sont apparues. Cette étape permet d’impliquer activement les parties prenantes dans le processus de gouvernance et de les préparer à corriger les écarts de manière la plus autonome possible.
  • Mise à jour de la gouvernance de l’IA : suite à la conclusion de l’analyse des écarts, des mesures correctives sont définies en collaboration avec les parties prenantes. Ces mesures visent à résoudre les vulnérabilités identifiées et à renforcer la gouvernance de l’IA. Il peut s’agir de mettre à jour les politiques, les procédures, les outils ou même de former le personnel. Cette phase garantit que les leçons tirées des inspections sont appliquées de manière proactive.
  • Suivi et Hypercare : enfin, une surveillance spécifique est mise en place pour confirmer l’efficacité des mesures correctives. Cela implique un suivi rigoureux pour s’assurer que les vulnérabilités identifiées ne réapparaissent pas et que la gouvernance de l’IA fonctionne comme prévu. L’hypercare consiste à accorder une attention accrue aux processus de gouvernance récemment mis à jour pour s’assurer de leur adaptation en continu.

Cette logique itérative d’amélioration continue garantit que la gouvernance de l’IA reste pertinente, efficace et résiliente face aux défis en constante évolution de l’IA et aux besoins changeants de l’entreprise. Elle permet d’assurer une gestion proactive des risques et de maintenir une conformité continue aux normes et aux réglementations en vigueur.

Vous souhaitez en savoir plus ? Contactez nos expert·es.

Rédigé par Brice Lavigne et Martin Alteirac, Managers Data Gouvernance au sein de notre département Data Driven

Au cours des 10 dernière années, l’intelligence artificielle s’est imposée comme la 4e révolution technologique de notre époque. Aujourd’hui, elle est un levier stratégique pour les entreprises, puisque 44% d’entre elles ont déjà investi dans l’IA et 9 sur 10 d’entre elles ont inclus des projets d’IA dans leur trajectoire de développement (source : NewVantage).

Aux prémices de l’intégration de l’IA dans les processus métiers/stratégies d’entreprise, se trouvent les start-up – aujourd’hui, on compte en France 500 start-up développant des solutions d’IA. En s’appuyant sur des chercheurs et laboratoires, elles ont beaucoup innové sur ces usages en se concentrant sur la disruption des process. Pendant plusieurs années, les grandes entreprises ont ainsi pu avoir un regard privilégié sur les avancées de cette technologie – cependant, si ce modèle réduit le risque pour les entreprises, il augmente le time-to-market de solutions pour le métier.

Depuis quelques années, ce modèle de développement est en train de changer. L’évolution des systèmes cloud, des calculs distribués et l’avènement des AI platforms – comme Vertex AI, Databricks ou Dataiku par exemple – facilite le développement, le déploiement et la maintenance de solutions d’IA. Il devient aujourd’hui simple de passer à l’échelle la production d’applications IA et donc de développer en interne des solutions sur-mesure métiers avec des équipes spécialisées et restreintes.

Cela change le paradigme de l’application IA : elle n’est plus un sujet de R&D – technologie différenciante sur le marché – mais devient un produit développé par les métiers. Les enjeux métiers et la stratégie de l’entreprise s’alignent alors sur la production d’applications IA : nous entrons dans le modèle des entreprises AI Driven.

Plusieurs questions se posent alors sous différents aspects :

  • De sécurité : l’AI Driven est la continuité du Data Driven, puisqu’il s’agit de prendre des décisions à partir des données analysées par des outils d’IA. Dans ce cadre, la question de l’explicabilité de l’IA se pose rapidement. Comment comprendre une décision de l’IA ? Comment la rendre transparente afin qu’elle puisse être sûre ? ;
  • De responsabilité environnementale : les calculs d’IA sont aujourd’hui très consommateurs en énergie. Dans l’inclination qu’on les entreprises pour réduire leur impact carbone, constatable par exemple au travers du reporting ESG, la mise à l’échelle des applications d’IA soulève une seconde question d’une IA responsable et écologique ;
  • D’éthique : quand des prévisions annoncent qu’en 2025, 90% des messages marketing passeront par des outils d’IA pour optimiser les campagnes en qualifiant plus précisément les cibles, une troisième question se pose sur l’impact social positif des solutions d’IA ;
  • D’économie : le développement de l’IA relève aussi d’enjeux économiques internationaux. La sous-exploitation du potentiel de l’IA et des applications développées par les entreprises pourrait faire perdre un avantage concurrentiel à ces dernières et mener ainsi à une stagnation économique. C’est pour cela que la France a investi 2,22 milliards d’euros dans le plan France 2030, avec l’objectif ambitieux de capter 15% du marché mondiale sur l’IA embarquée.

Pour adresser ces problématiques et piloter l’arbitrage de l’IA au sein de notre société, la Commission Européenne a proposé en avril 2021 un cadre réglementaire pour les applications d’intelligence artificielle en Europe : l’« AI ACT ».

Il vise à classer et analyser les risques directs ou indirects présents pour les utilisateurs en veillant à ce que les systèmes d’IA utilisés au sein de l’UE soient sûrs, transparents, traçables, non-discriminatoires et respectueux de l’environnement. Le 14 juin, les députés ont adopté une position sur le cadre de la loi ; un accord devrait être trouvé d’ici décembre 2023.

Quelles sont les projets visés dans cette analyse de risque ?

L’analyse de risque doit être appliquée à des solutions d’IA qui entrent dans deux catégories.

La première concerne les « risques inacceptables ». Elle comprend les cas d’utilisation qui implique un danger pour les individus ou la société. Cela inclut :

  • La manipulation cognitivo-comportementale de personnes vulnérables : par exemple, l’usage de l’IA à l’intérieur de jouets pour enfants ;
  • Le score social basé sur des caractéristiques personnelles : par exemple, la validation d’une attribution de prêt selon un comportement social ;
  • La reconnaissance faciale en temps réel à distance : auprès d’individus lambdas dans une gare ou un centre commercial par exemple. Il existe une exception dans le cadre d’enquêtes criminelles majeures, sous l’approbation d’un tribunal.

Toutes les applications se trouvant dans cet ensemble de risque sont interdites.

La seconde catégorie englobe les cas d’usage représentant un « risque élevé » pour les droits fondamentaux ou la sécurité. Ils sont répartis en deux ensembles.

Le premier, l’IA appliquée aux produits relevant de la sécurité des individus : jouets, aviation, voitures, dispositifs médicaux ou ascenseurs, par exemple. Les entreprises qui développent des produits d’IA dans ces domaines, que ce soit dans le processus de recherche, de développement ou de production, devront justifier d’une analyse de risque et d’une traçabilité pour chaque solution développée.

Le second, l’usage de l’IA appliquée aux domaines ci-dessous devra être référencé et répondre aux aspects réglementaires précédemment cités :

  • L’identification biométrique et la catégorisation des personnes physiques.
  • La gestion et l’exploitation des infrastructures critiques
  • L’éducation et la formation professionnelle
  • L’emploi, la gestion des travailleurs et l’accès au travail indépendant
  • L’accès et la jouissance des services privés essentiels et des services et avantages publics
  • Les forces de l’ordre
  • La gestion de la migration, de l’asile et du contrôle des frontières
  • L’aide à l’interprétation juridique et à l’application de la loi.

Le reste des applications rentreront dans la catégorie des risques limités, signifiant que tout ce qui est généré par une IA doit être notifié à son utilisateur.  

Un règlement s’applique spécialement aux applications utilisant de l’IA générative, comme ChatGPT ou MidJourney. Les modèles devront être configurés de sorte à ne pas générer de contenu illégal ou publier des données protégées par le droit d’auteur.

Comment se préparer à la législation sur l’IA ?

Mettre en place un système réglementaire peut être long et couteux, surtout quand il s’agit de l’appliquer à des solutions d’intelligence artificielle dont la documentation et l’historique n’est pas à jour. Afin d’utiliser la structure de l’AI ACT comme une opportunité plutôt que comme une contrainte, il est important de construire dès maintenant et progressivement un système qui répond aux attentes de la réglementation.

 La collaboration sans couture entre les parties actives du projet de développement de la solution IA est une première piste à aborder. Elle concerne plusieurs parties prenantes :

  • Tout d’abord, la stratégie venant du pôle digital ou de la direction donnera l’impulsion et la direction pour atteindre le but défini. Elle peut s’aider d’un comité pour évaluer l’éthique des projets concernés, en accord avec les métiers ;
  • Ensuite, ceux qui développe la solution, qui se trouve à la limite entre la DSI et le data/digital office. Leur but est de s’assurer que toutes les guidelines techniques du projet répondent à l’explicabilité et à la transparence attendue par la règlementation. Ils sont les garants de la documentation et de l’évolution du projet qui, développé avec des méthodologies agiles, peut le pivoter au fur et à mesure de l’implémentation ;
  • Enfin, la partie réglementaire qui a la responsabilité de valider la présence des livrables et de relancer les métiers si besoin.

La réussite de cette collaboration peut se faire par le biais de deux couches qui doivent fonctionner simultanément. Tout d’abord, la gouvernance de l’IA, vise à designer les processus, établir le format des ateliers, instaurer les règles, évangéliser et former les parties prenantes sur l’importance d’une culture IA responsable. Elle permet également d’attribuer les rôles et actions à chaque collaborateur. Elle facilite ainsi le changement.

La seconde couche est de mettre en place une architecture logicielle fiable et les outils nécessaires qui permettent la collaboration de chacun des parties prenantes du projet. Certains défis techniques sont liés à ces outils – on pense par exemple au versioning des data sets, de la justification de leur qualité à l’explication des décisions prises au cours du projet.

L’enjeu est double : mettre en place une solution technique fiable, tout en réduisant la gestion administrative du projet, mais aussi éviter une dette technique qui pourrait ne pas répondre aux attentes d’efficacité, de robustesse et de complexité auxquels doivent répondre ces plateformes.

Remarque : les pénalités qui pourront s’appliquer auprès des entreprises seront sur du même ordre de grandeur que celui de la RGPD, soit 2 à 6% du chiffre d’affaires. Il existera un plafond pour les jeunes entreprises. Il est donc essentiel de se faire accompagner par des experts aussi bien sur les aspects technologiques que ceux de gouvernance.

En résumé

L’intelligence artificielle apporte des opportunités considérables pour les entreprises, mais sa mise en œuvre et son passage à l’échelle nécessite une approche réfléchie et responsable. L’AI ACT est un cadre qui permet de construire des solutions plus pérennes basées sur la sécurité et la protection des utilisateurs finaux. En adoptant une intégration progressive et proactive tout en construisant sur des outils robustes et de confiance, les entreprises peuvent gagner du temps afin de se préparer au mieux aux enjeux concurrentiels et économiques de demain.

Vous souhaitez découvrir comment l’AI ACT peut transformer votre entreprise en un acteur responsable et compétitif de demain ? Contactez nos expert·es.

Rédigé par Brice Lavigne, Manager Data Gouvernance au sein de notre département Data Driven

Nous sommes fiers d’avoir la confiance de nos clients et enthousiastes de leur apporter notre aide, voici nos derniers « success unlocked » :

 

  • Agilisation d’une équipe RH pour un acteur des télécommunications 

Dans l’objectif de mieux gérer ses changements de priorité et d’améliorer la productivité des équipes, un acteur majeur du secteur des télécommunications a confié à Saegus la mise en place d’un dispositif agile pour son équipe RH. Ce client a renouvelé, en début d’année, sa confiance en Saegus afin de renforcer les connaissances de ses ambassadeurs agiles et permettre ainsi d’insuffler ces nouvelles pratiques à l’ensemble du groupe.

#Acceleration Tactics

 

  • Aide à la décision locale au Sénégal pour une Fondation

Suite à des résultats mitigés des projets de lutte contre la mortalité maternelle et néonatale, une fondation a fait appel à Saegus pour concevoir et tester une approche innovante de compréhension des expériences locales pour prioriser des projets à forte valeur ajoutée. S’appuyant sur leurs expertises Design Thinking et Agile, l’équipe d’experts Saegus est retournée sur le terrain pour enrichir les premiers éléments créés suite à une phase d’immersion dans la région de Saint-Louis au Sénégal et co-créer avec une grande diversité d’acteurs, des projets qui partent des réalités locales et sont portés par les experts agissant déjà sur le terrain.

#Acceleration Tactics

 

  • Audit des usages des collaborateurs pour la DSI d’une institution financière

Dans le cadre de sa réflexion sur les outils proposés aux collaborateurs, la DSI d’une institution financière a décidé de missionner Saegus pour auditer les différents besoins des collaborateurs en terme d’usages. Cette DSI souhaite se transformer afin d’être User Centric en s’outillant des solutions en adéquation avec les besoins des utilisateurs finaux.

#Digital Workplace

 

  • Formation support IT et administrateurs O365 pour Sogeprom

Suite au déploiement de la suite Office 365 à l’occasion de l’ouverture d’un nouveau siège, la filiale immobilière de la Société Générale a confié à Saegus les formations des administrateurs et du support IT aux fonctionnalités d’O365 et à l’administration de la plateforme.

#Digital Workplace

 

  • Déploiement de l’outil de Data Visualisation Tableau Software pour Bolloré 

Bolloré T&L a fait le choix de Tableau pour harmoniser le reporting de son activité logistique. Saegus a été choisi pour assurer le développement, à la vue des enjeux et contraintes métiers du Groupe.

#Data Driven Business

 

  • Accompagnement sur Tableau Software pour le département Digital de L’Oréal 

L’équipe L’Oréal « Precision advertising & digital analytics » souhaite développer ses compétences autour de l’outil Tableau Software afin d’effectuer des analyses plus poussées dans leur domaine.

Pour ce faire, elle a fait le choix d’installer Tableau Server afin de se doter d’une architecture robuste et adaptée à l’ensemble de leurs cas d’usages. Les analyses seront ainsi partagées à travers le groupe.

Saegus accompagne L’Oréal dans le déploiement et la bonne utilisation de Tableau par les utilisateurs.

#Data Driven Business

 

  • Cadrage des usages collaboratifs pour le département R&I de L’Oréal

L’Oréal est actuellement en plein déploiement d’Office 365. Pour s’assurer d’un déploiement réussi à L’Oréal R&I, il est indispensable d’identifier les cas d’usages spécifiques aux métiers, de démontrer comment ils peuvent être adressés par le Digital Workplace, et de construire et contextualiser le matériel d’adoption. C’est sur ces axes que Saegus a été identifié pour accompagner le département R&I.

#Digital Workplace

 

  • Plateforme de Showroom pour L’Oréal (département IA)

La division IA de L’Oréal R&I souhaite améliorer sa visibilité en développant une application « Showroom » offrant une interface aux différents algorithmes développés à des fins de démonstration. Nous accompagnons L’Oréal sur le développement d’un MVP.

#Data Driven Business

 

Si vous souhaitez davantage d’informations sur la conduite de ces missions et notre méthodologie, n’hésitez pas à solliciter un rendez-vous avec nos experts.

 

Notre nouveau sujet ce mois-ci a porté sur “l’éthique et l’intelligence artificielle”. Sébastien Mazin-Pompidou, Directeur du Développement chez Saegus, a participé à cette enquête menée avec notre partenaire Odoxa, pour sonder l’avis des Français au regard de l’AI. On y apprend – sans surprise – que la majorité d’entre eux en à peur (56%) ou qu’ils la craignent, la peur pour leur emploi dominant. Si la plupart des sondés considèrent que l’éthique n’est pas suffisamment prise en compte, ils en appellent aux intellectuels, aux entreprises et aux gouvernements pour la définir et la mettre en place concrètement.

 

 

L’IA considérée depuis… 1950 ?

 

L’Intelligence Artificielle intrigue autant qu’elle angoisse. C’est du moins le cas en France. En effet, le récent sondage réalisé par Odoxa auprès des Français, montre que plus de la moitié d’entre eux juge l’Intelligence Artificielle comme une menace. C’est d’autant plus surprenant que ce sont eux qui achètent le plus de biens de consommation équipés d’IA (des enceintes intelligentes en passant par les téléphones et autres gadgets) et qui, par leurs usages, leurs permettent de toujours être plus intelligents.

Le concept d’IA n’est pas nouveau : qui n’a jamais entendu parler du test de Turing ? Test ayant pour but de faire interagir un humain avec une machine sans que ce premier ne s’en rende compte. Ce test, mis en avant par une marque automobile allemande promouvant l’intelligence artificielle embarquée de son dernier modèle, a été imaginé par Alan Turing en … 1950. Aujourd’hui l’IA est partout et ce n’est pas près de s’arrêter.

 

A quelles fins sera-t-elle utilisée ?

 

Avec la naissance des jumeaux Lulu et Nana génétiquement modifiés, annoncée fin novembre, la communauté scientifique internationale s’est offusquée et a globalement exprimé son indignation. Mais globalement, que s’est-il passé ? Depuis quelques années, l’homme sait modifier – au stade embryonnaire – l’ADN. Avec cette avancée, le monde s’est mis à caresser l’idée que l’on pourrait éradiquer des maladies graves, éviter les malformations de tous genres et faire en sorte que plus aucune naissance ne donne lieu à de très mauvaises surprises. Bref, le débat sur l’eugénisme s’est rouvert pour arriver à la conclusion : pas de modification d’ADN d’homme car cela risquerait d’être ingérable. Pourtant, quelques temps après : Lulu et Nana naissent.

Cet exemple est une mise en garde de ce qui va arriver avec l’IA. Si cette dernière est utilisée à des fins commerciales ou même médicales – on sait aujourd’hui qu’une IA est capable de détecter de façon plus sûre et plus rapide une tumeur au cerveau que n’importe quel spécialiste – qu’en est-il du secteur de l’armement ou de l’information ? En effet, obtenir des réponses toujours plus précises aux questions que l’on pose à notre enceinte connectée, améliorer la détection des maladies plus rapidement pour faire bénéficier le patient d’un traitement plus adapté ou encore aider les aéroports dans leur surveillance sont des améliorations dues à l’IA, acceptées de tous.

Mais si on venait à se servir de l’IA dans l’armement pour permettre à des drones autonomes d’aller tuer des terroristes ou dans l’information pour aller modifier des opinions en créant des comptes sur les réseaux sociaux (et en interagissant dessus de façon massive avec des milliers de citoyens) … de suite on comprend les limites éthiques d’une telle innovation.

 

L’IA et les humains : le duo indéfectible

 

Dans une résolution de septembre dernier, le Parlement européen a plaidé pour une interdiction internationale des robots tueurs autonomes. L’objectif étant de garantir qu’il y aura toujours un être humain derrière les robots dotés d’IA. C’est une bonne chose … mais sommes-nous certains que tout le monde respectera cette résolution ?

Avant de sombrer dans une réplique de Terminator et du Skynet, il est important que tout le monde ait conscience que l’IA va véritablement révolutionner notre quotidien. Notre façon de nous déplacer, de consommer et même de penser. De nouveaux métiers vont apparaître entre le philosophe et le développeur et c’est justement à ce moment que la notion d’éthique sera primordiale. Les salariés les plus qualifiés seront ceux capables, à tous les niveaux, de travailler conjointement avec de l’intelligence artificielle : de l’ouvrier dans les usines de voiture au cardiologue, tous les métiers seront modifiés.

Car contrairement à ce que laisseraient croire certains, l’IA aura les mêmes effets sur l’économie mondiale qu’a eu Internet et avant lui l’automobile. L’économie va se transformer, de nouveaux business vont apparaître pour en remplacer d’autres. À nous d’être attentifs aux avancées et de faire en sorte que dans cette bataille l’Europe en sorte grandie … pour éviter que dans 20 ans on fasse de nouveau le constat suivant : les GAFA et les BATX* dominent le monde.

Pour consulter les résultats de notre étude, cliquez plus bas pour la télécharger.

 

*Google Apple Facebook et Amazon (US) et Baidu Alibaba Tencent et Xiaomi (Chine)

 


 

Frédéric Brajon, cofondateur et directeur général de notre startup Saegus, est intervenu sur le plateau du 01 Business Forum aux côtés de Frédéric Simottel, Emile Leclerc, directeur d’études Odoxa, et Laurence Lafont, directrice marketing et opérations chez Microsoft, pour parler de “l’intelligence artificielle, chance ou menace ?”.

 

 

Il y a tout juste un an, une étude menée sur l’Intelligence Artificielle démontrait qu’une majorité de Français voyait en cette technologie une chance de voir son quotidien amélioré, même si beaucoup craignait aussi la place trop importante qu’elle pourrait prendre.

 

Aujourd’hui, la tendance s’inverse et les Français pensent que l’IA peut changer considérablement leur quotidien ainsi que l’organisation de la société. Pour certains d’entre eux, ils craignent même que tout ou partie de leur métier soit remplacé par un robot ou une intelligence artificielle.

 

Malgré cette perception de l’IA moins optimiste que l’an passé, les Français considèrent que nous sommes en retard sur ce sujet par rapport à d’autres pays, preuve que cette technologie est aussi un moyen d’être plus compétitif.

 

C’est d’ailleurs tout l’enjeu du rapport Villani rendu public il y a quelques jours.

 

Pour ce RDV de l’innovation, Frédéric évoque l’encouragement émanant des pouvoirs publics pour favoriser l’innovation et la recherche sur l’IA afin qu’elle serve davantage qu’elle n’affole, notant également les efforts qui doivent être faits pour que la France devienne un acteur de premier plan sur l’intelligence artificielle.

 

Entre vision optimiste, pistes de réflexion sur la façon judicieuse de traiter les bases d’informations et les mesures à prendre pour avancer sans perdre pied, les intervenants vous livrent leur analyse.

 

 

Vous pouvez revoir l’émission et télécharger l’étude complète conduite par notre partenaire Odoxa.

Que se passe-t-il chez Saegus ? Voici un aperçu de la vie du cabinet :

 

  • Saegus sera heureux de vous accueillir à Big Data Paris 2018 aux côtés de notre partenaire Dataiku. Retrouvez-nous au stand #A21 !

Nous vous invitons à venir nous rencontrer sur le stand où nous présenterons des cas pratiques et des retours clients sur le démonstrateur Data Science Studio (DSS). La scène sera animée pendant les 2 jours ! Cliquez ici pour découvrir le programme plus en détails.

Vous pouvez également en profiter pour prendre rendez-vous avec nos experts qui seront ravis de répondre à toutes vos questions et de vous offrir quelques goodies 🙂

 

  • Retour sur l’événement Foreseeds ! Le lancement officiel de l’application de crowd thinking que nous avons développée s’est tenu chez nous le 28 novembre 2017. 

Premier meetup interactif et disruptif, la soirée proposait une session sur le thème « repenser votre environnement de travail pour accélérer votre transformation ».

Nous avons eu le plaisir d’aborder la question aux côtés de Martin Sauer, directeur du digital chez Manutan, et de startuppers, designers, CDO et autres acteurs de la transformation digitale et de l’innovation. Vous êtes curieux ?

 

  • Un nouveau site pour Saegus à la navigation originale

Nous avons refondu notre site internet pour proposer à nos visiteurs une expérience de navigation inédite et immersive.

Notre équipe de Développeurs et designers ont travaillé en mode agile avec l’aide de nos experts du customer experience pour aller plus loin dans ce projet qui ne devait pas reposer sur la seule refonte esthétique.

Toute l’équipe en charge du projet a souhaité s’attarder sur les attentes et besoins de nos visiteurs réguliers pour s’assurer que le contenu proposé réponde aux besoins utilisateurs et leur permette d’obtenir rapidement l’information recherchée. En savoir plus ici.

 

  • Nous avons le plaisir d’annoncer le lancement prochain de notre toute nouvelle offre Acceleration Tactics

Parce que la rapidité d’exécution peut parfois remplacer la bonne idée, mais que nos organisations ne sont pas toujours prêtes pour aller si vite, ou pas forcément encore formées à la bonne méthode, Saegus a mis au point l’offre Accélération Tactics.

La promesse ? Accélérer. Une idée, un produit, un service, un projet voire une organisation. Saegus proposera non seulement la méthode la mieux adaptée, mais également l’outillage immédiatement opérationnel pour démarrer.

Fini de confondre agilité, lean startup, design thinking ou incubation, Saegus vous guide, vous montre, et accélère avec vous. Plus d’informations à venir bientôt.

 

Et sinon, nous poursuivons nos interventions sur le plateau de BFM Business pour vous livrer nos insights sur des sujets tech et digitaux :

 

  • Le 17 février dernier, Frédéric Brajon était aux côtés de Frédéric Simottel sur le plateau du 01 Business Forum l’Hebdo pour nous parler d’intelligence artificielle et d’eSanté comme nouvelle révolution.

Sous l’influence des nouvelles technologies (digital, objets connectés, big data, IA…) nous sommes à l’aube de changements profonds et durables qui vont bouleverser tout le secteur médical, de la recherche et du suivi des patients. Vous pouvez revoir l’émission ici, télécharger l’étude faite avec notre partenaire Odoxa ici ou relire l’article complet.

 

  • Le 23 janvier dernier, c’était David Semhoun qui était intervenu sur le plateau pour aborder, cette fois, l’entrepreneuriat à l’occasion du CES de Las Vegas.

Ce salon est maintenant connu de 22% des français et les innovations présentées intéressent 53% d’entre eux. Ces chiffres, en hausse chaque année, démontrent l’intérêt croissant de la population française sur les sujets d’innovation et leur regard optimiste sur la faculté du pays à la favoriser… Vous pouvez revoir l’émission ici, télécharger l’étude faite avec notre partenaire Odoxa ou relire l’article complet.

 

  •  Le 16 décembre 2017, Frédéric Brajon était intervenu sur le plateau pour évoquer l’évolution du comportement d’achat des français sur les plateformes de ecommerce.

Comment expliquer l’engouement de nos concitoyens pour les achats en ligne face aux canaux traditionnels ? C’est ce que se propose d’expliquer Frédéric au côté des intervenants. Vous pouvez revoir l’émission ici, télécharger l’étude faite avec notre partenaire Odoxa ou relire l’article complet.

 

Si vous êtes intéressés par une de ces news, que vous souhaitez plus d’info et de précisions, n’hésitez pas à nous contacter. Nous nous ne ferons un plaisir de vous répondre.

 

A bientôt !

La Saegus Team

Frédéric Brajon, directeur général de Saegus, Emile Leclerc, directeur d’études chez Odoxa et Racha Abu el Ata, directrice du secteur santé et social pour Microsoft, ont répondu aux questions de Frédéric Simottel samedi 17 février dernier, sur le plateau du 01 Business Forum de BFM Business pour aborder le sujet de la eSanté.

 

« Tech for Humans » – Une nouvelle révolution est en marche… sous l’influence des nouvelles technologies (digital, objets connectés, big data, IA…) nous sommes à l’aube de changements profonds et durables qui vont bouleverser tout le secteur médical, de la recherche et du suivi des patients.

 

Pourquoi une telle impulsion ?

 

Le marché est là (en 2050 la population mondiale de personnes de plus de 60 ans aura doublée), la technologie est prête, l’offre se structure à grande vitesse (en témoigne la présence de plus de 200 sociétés sur le domaine de la e-santé au CES 2018), et l’accueil des populations semble très favorable.

 

Actuellement, l’on peut identifier trois grands types d’acteurs sur un marché encore très morcelé (les providers de technologie, les exploitants – laboratoires, startups… – et les fournisseurs de services d’intermédiation). Ils proposent des produits ou services digitaux allant de la numérisation du carnet de santé, de l’aide à la prise de rendez-vous, au suivi du patient post intervention et au monitoring de paramètres de santé. L’engouement des populations semble donc naturel, puisque en plus de l’assurance d’un meilleur suivi et d’une meilleure prise en charge, l’ e-santé pourrait être une solution pour lutter contre les déserts médicaux via des systèmes de télémédecine ou de téléassistance ou permettre aux usagers de profiter de services médicaux depuis leurs domiciles.

 

Mais la véritable révolution concerne le patient qui, de passif, devient participatif en « offrant » ses données, ses habitudes, son historique à un écosystème qui lui permettra d’accéder à une offre de service préventive et prédictive – Ces données extrêmement confidentielles vont pour la première fois sortir à grande échelle d’organismes de santé spécialisés (hôpitaux, sécurité sociale…) ; il s’agit d’un enjeu majeur pour les régulateurs, qui doivent veiller à mettre en place les bons garde-fou règlementaires (CNIL, GDPR en Europe), tout en laissant une zone de liberté suffisante pour exploiter ces informations, au bénéfice de l’usager.

 

Frédéric Brajon

 

Pour tout savoir, vous pouvez revoir l’émission ici. Vous pouvez également télécharger l’étude faite avec notre partenaire Odoxa.
N’hésitez pas à prendre contact avec nous en vous rapprochant de gaelle.pommereau@saegus.com !

Marc, président de Saegus, est intervenu aux côtés de Microsoft et Odoxa pour aborder un sujet qui divise autant qu’il enthousiasme : l’IA et les robots.

Aptitude des français à innover, massification des données, gouvernance politique attendue, position des plateformistes en France, mais aussi cas d’usage entourant la robotique… Tous ces angles ont été débattus par les 3 experts.

Pour tout savoir, vous pouvez revoir l’émission ici

Vous pouvez également télécharger ici l’étude faite avec notre partenaire Odoxa

En Mars 2017, Saegus est invité à réagir autour du sujet passionnant de l’Intelligence Artificielle. 

Frédéric Brajon, Directeur Général, détaille nos convictions : approche pragmatique, micro services et liens avec la Data Science.

Pour regarder l’émission dans on intégralité, cliquez ici

Pour en savoir davantage sur nos expertises dont la Data Science, cliquez ici