Pour gérer vos consentements :

[Pilotage de la data] Vers un futur articulé autour du data mesh

Publié par Mathieu Neu le | Mis à jour le

Entre la volonté d'affiner les expériences utilisateurs, les nécessités de conformité ou encore le besoin d'anticiper, la valorisation des données devient une quête dans tous les secteurs d'activité. Un contexte qui fait la part belle au data mesh, nouvelle voie à suivre pour les organisations IT.

La donnée semble chercher sa place dans les entreprises. 76 % des dirigeants en France admettent ne pas s'appuyer celle-ci pour prendre des décisions stratégiques. Pourtant, seuls 27 % des décideurs pensent que les données ne jouent pas un rôle important dans les prises de décisions. Ce constat paradoxal est celui d'une étude menée début 2023 par l'institut YouGov pour les éditeurs Salesforce et Tableau. L'information dans les organisations n'a jamais été aussi riche, mais l'exploiter pleinement et efficacement reste un défi majeur. « L'enjeu est aujourd'hui d'avoir une meilleure vision de la donnée tout au long de sa vie, de la maîtriser », souligne Stéphane Messika, président fondateur de Cleyrop, éditeur d'une solution de gestion et d'analyse de la donnée.

Avec une nouvelle approche des systèmes d'information, le data mesh représente un virage technologique qui pourrait bien clarifier ce rapport quelque peu confus aux données, et mieux convaincre les utilisateurs de leur pertinence. Les experts s'accordent à dire qu'il est apparu dans les organisations il y a 5 à 6 ans, et qu'il se démocratise depuis 2 à 3 ans, dans un contexte où toutes les activités se caractérisent par des générations de données toujours plus grandes, en réponse à des besoins et une expérience utilisateur toujours plus enrichis vers des produits et services tiers.

Le big data et l'adoption progressive du cloud ont poussé les organisations à adopter des plateformes modernes, alors que les cas d'usage justifiant cette évolution n'étaient pas clairement identifiés. Les données chargées dans les datalakes, qui forment de vastes réceptacles d'information de toutes sortes, manquaient d'étiquetage et de contrôles au niveau de l'intégrité des données. « De plus, les modèles étaient mal définis, ce qui nécessitait une plus grande préparation des données pour les transformer en informations utilisables. Ainsi, les efforts de modernisation des systèmes en place ont connu une adoption lente et faible. Le data mesh fournit un cadre qui exige que les experts en la matière définissent les fondations et structures des données afin de développer l'analytique et de mieux collaborer avec les ingénieurs et développeurs, afin de créer des expériences numériques plus riches en matière d'intelligence », explique Michele Goetz, Vice-présidente et analyste - Business Insights au sein du cabinet Forrester.

Une configuration à la hauteur des nécessités technologiques

« On fait souvent l'erreur de voir la Data mesh comme une simple évolution des modèles connus depuis de nombreuses années maintenant et qui se distinguent par l'existence de datalakes, de datawarehouses. C'est bien différent de ce constat dans la mesure où le Data mesh vient marier différentes notions. Par le passé, avec les modèles de datawarehouses, les organisations en place permettaient de procéder à des reportings segmentés, au niveau de la finance, des achats, de la supply chain ou d'autres départements. Ces reportings opérationnels existent toujours. Mais avec l'essor d'Internet, des transformations digitales et les afflux d'information toujours plus variés, les données ont eu du mal à être captées correctement », décrit Guilhaume Leroy-Meline, CTO Business Transformation Services, pour IBM Consulting France. Les datalakes, dans lesquels on déverse d'innombrables données non structurées et très variées, sont apparus pour cette raison et sont devenus le terrain d'exploration des datascientists. « Mais cette approche centralisée n'est pas la meilleure configuration pour être agile », poursuit-il.

Le data mesh a vocation à fédérer des données de tous horizons. Il s'agit d'une évolution organisationnelle, vers une sorte de self service de la donnée, en réponse au besoin d'autonomie existant dans les business units, même si celle-ci est toute relative : la fonction achats a besoin de comprendre la satisfaction clients, le degré de qualité des produits, et donc de disposer de données appartenant à d'autres directions. A l'inverse, la satisfaction fournisseurs ou le calcul de devis sont fournies par la fonction achat à d'autres directions. Tout l'enjeu est alors pour une même business unit de disposer facilement des informations pertinentes pour elle, sans souffrir de restrictions liées à un éventuel cloisonnement des données. C'est là que le Data mesh est intéressant. Il implique une dimension à la fois organisationnelle et technique. On peut bénéficier d'une agilité sur une ligne métier, avec des données propres et des données d'horizons variées susceptibles d'intéresser cette même ligne métier.

Des avantages multiples

Des données de domaines différents se retrouvent interconnectées facilement par le biais du Data mesh. La valorisation de ces dernières est dès lors plus simple. « En matière de gestion des chaînes d'approvisionnement par exemple, on peut construire rapidement des API prédisant des risques de retard sur un produit qui va intéresser tel ou tel service », illustre Guilhaume Leroy-Meline. Un autre avantage majeur concerne la décentralisation et le fait que les données ne retrouvent plus répliquées partout, avec des versions de celles-ci qui ne sont parfois pas à jour. Par le biais des API, les données sont systématiquement appelées par le système à leur source, garantissant ainsi leur unicité et leur cohérence. Le data mesh permet en outre de réduire le temps d'accès aux données pertinentes, et donc de prendre des décisions éclairées plus rapidement.

Pour Stéphane Messika, « on décentralise aussi les données, de façon à ce que chacun se sente plus responsable des données qu'il créé et manipule. Les datas doivent être vues comme des produits fabriqués par des data owners. De la même façon qu'avec un produit, on doit s'intéresser à la provenance de la donnée, à son devenir, être capable d'expliquer ce qu'il y a à l'intérieur, comment elle évolue, avec quelle autre donnée elle a été croisée. »

Le règne actuel de l'expérience utilisateurs favorise ce genre d'organisations IT. Dès lors qu'on dispose d'une infrastructure de ce type, il est possible de mettre en place assez simplement des architecture pilotées par des événements (paiements, notifications, commandes, livraisons...). « On répond d'autant mieux aux attentes, donc on améliore la fidélisation », résume Frédéric Favelin, responsable des cloud partners chez le fournisseur de solutions technologiques MongoDB.

La question des coûts à rebours des tendances

Mais l'inconvénient de ce schéma d'organisation est de se retrouver avec une duplicité de la donnée. Il est fréquent de voir deux ou plusieurs business units avoir besoin de recourir à la même information. « Dans l'univers du retail, les données reviennent au niveau des stocks, existent dans les catalogues, mais également au sein des activités de content management au niveau du marketing. Les profils clients peuvent se retrouver au sein des bases commerciales, et aussi dans les programmes de fidélité en aval », illustre Frédéric Favelin. Une duplicité qui pose problème, même si le prix du stockage a beaucoup chuté.

Dans un schéma classique de datawarehouse, il existe une ligne de coûts globale, alors que certaines business units sont plus consommatrices que d'autres. On cherche désormais à facturer à chacune d'entre elles à la hauteur de sa juste consommation. « C'est là qu'intervient le data mesh. On ne diminue pas la faisabilité, en termes de consolidation de données, mais on cherche à répartir l'information en une multitude de silos. Grâce aux APIs, on peut ainsi faire des arbitrages simplement sur les droits d'accès et il est possible de savoir exactement qui consomme quoi, quand, dans quelles conditions... Chaque business unit devient responsable de sa catégorie de données et de ses consommations », ajoute-t-il. Les entreprises sont dans ce contexte davantage pilotées par des enjeux de coûts, de rationalisation des enjeux métiers.

Une maturité IT en devenir

Les experts s'accordent à dire que tous les décideurs ou presque se disent conscients des enjeux de rationalisation de la donnée. Mais dans la pratique, l'évolution dans ce sens reste délicate. La peur de perdre du pouvoir en partageant davantage les données est mentionné comme l'un des freins majeurs. « Si les professionnels des données sont de plus en plus familiers avec les principes du data mesh, la plupart des organisations n'en sont qu'au début de leurs efforts pour la mise en application. Avec cette évolution, les entreprises seront plus compétentes en tant qu'entreprise axée sur la connaissance. La data Mesh oblige les organisations à réfléchir à l'objectif et à la valeur que les données doivent porter dès le départ et tout au long de leur cycle de vie », estime Michele Goetz.

Elle souligne aussi que cette évolution reste malheureusement mal appréhendée. « Au lieu de construire des produits de données prêts à l'emploi avec une valeur quantitative connue, un modèle d'apprentissage automatique et une politique nouvelle, les résultats des projets déployés représentent généralement ce que les projets autour des données ont toujours produit : un entrepôt de données, avec un tableau ou une vue d'ensemble, sans avoir les avantages du data mesh. Les organisations ont encore un long chemin à parcourir pour réaliser les promesses de data mesh. » Les réticences autour du partage de données seraient le coeur du problème. Pourtant, certaines organisations franchissent le pas au-delà des attentes, instaurant « des projets de meta data mesh », comme les nomme Stéphane Messika. « Il s'agit dans ces cas d'un partage de données entre plusieurs entreprises d'une même filière, comme au sein d'une chaîne d'approvisionnement. » Et si l'adoption était facilitée avec un autre atout qu'apporte le data mesh, à savoir une meilleure sécurité ? Frédéric Favelin indique que « ce modèle permet de positionner la donnée au bon endroit, au plus proche de l'utilisateur. On peut répertorier et tracer facilement qui a fait quoi, à un quel moment, et ainsi identifier plus simplement les anomalies. Les règles de sécurité et conformité peuvent être appliquées avec beaucoup plus de rigueur. »

Un levier pour des achats intelligents

Qui dit data mesh, dit décentralisation de la donnée. Une étape essentielle pour réunir des expertises différentes, réparties entre les directions. Pour les départements Achats, Finance et Chaîne d'approvisionnement, l'enjeu est de pouvoir développer des prises de décision automatisées, utilisant l'intelligence artificielle si besoin, sans attendre que certaines que certaines ressources soient centralisées pour pouvoir y accéder. « Les productions peuvent ainsi être mieux adaptées aux contraintes logistiques ou d'approvisionnement existantes, maximisant alors la rentabilité et le chiffre d'affaires », indique Guilhaume Leroy-Meline. Le data mesh fournit une base pour construire des ensembles d'information pertinents en matière de connaissances, dans un modèle de libre-service permettant une meilleure gouvernance. « Ce modèle favorise la bonne connaissance au bon moment sur le bon produit, ce qui valorise la fonction achats et apporte des garanties importantes aussi bien sur les produits sur les processus », poursuit-il. On accède, grâce au data mesh, à des données auxquelles on n'a pas accès en temps normal : les informations externes sur l'impact carbone d'une livraison par exemple sont de plus en plus pertinentes à prendre en compte. « Il s'agit aussi pour la fonction achats ou supply chain de pouvoir partager leurs données à d'autres services, afin de favoriser les collaborations, de réduire les distances temporelles entre les données et les acteurs qui en ont besoin, et ainsi gagner en fiabilité », précise Stéphane Messika.