Blog-Poster-data-gouvernance-culture-data

Gouvernance et culture Data, mêmes objectifs, même combat

Nos articles précédents ont mis en lumière la capacité de la gouvernance de données à répondre avec efficacité à certains cas d’usage, ainsi que son rôle pour aider les entreprises à prendre conscience du caractère essentiel du partage de l’information, dans l’économie moderne.

Depuis peu, émerge la notion de « culture Data ». En quoi consiste-t-elle et qu’implique-t-elle concrètement ? Peut-elle répondre à ce besoin de partage de l’information ?
Dans cet article, nous vous apportons des réponses claires, et vous démontrons dans quelle mesure la culture Data interagit de manière optimale avec la gouvernance des données.

Définition

La « culture Data » est un terme récent, rendu populaire par la réussite des GAFA. Dès leur création, ces entreprises ont basé leur business model sur l’exploitation des données, en développant une approche innovante d’appropriation, d’analyse et d’utilisation de volumes de données parfois gigantesques. Avec la prise de conscience de la valeur des données, cette tendance s’est progressivement répandue, pour finalement s’affirmer comme une culture d’entreprise à part entière, au sein de laquelle les données servent non seulement à créer de la connaissance, mais surtout à aiguiller la stratégie de l’entreprise. La « culture Data » était née.

Ni GAFA, ni start-up, et pourtant …

Dans les conférences sur la digitalisation, on se réfère souvent à l’histoire de Kodak, le géant de la fabrication et du traitement des pellicules photo argentiques. N’ayant pas su prendre le virage du numérique, l’entreprise a, en quelques années, quasiment disparu. Mais cet échec relève plus d’un changement profond des habitudes de consommation auquel Kodak n’a pas cru, que d’un problème inhérent à la transformation numérique de ses propres processus. L’exemple démontre à quel point une entreprise peut péricliter rapidement si elle ne fait pas évoluer son modèle économique. Rien de plus naturel.

Toutefois, les entreprises ne sont pas toutes confrontées à une disruption. L’enjeu pour la majorité d’entre elles n’est pas de se réinventer. Il s’agit plus classiquement de s’adapter au mieux et le plus rapidement possible aux nouvelles habitudes et exigences de leurs clients. La réponse réside clairement aujourd’hui dans la digitalisation des services.

Les changements pourraient paraître moins radicaux d’un point de vue stratégique, mais leur impact ne doit pas être négligé. La question consiste à comprendre comment passer d’un fonctionnement en silo, centré sur la satisfaction d’un objectif métier, à une circulation fluide de l’information pour répondre à des besoins multiples ?

Si une partie de la réponse relève de la technique, celle-ci ne résout pas tout. Le risque est de créer de nouveaux silos, avec des nouveaux métiers spécialisés dans le traitement des données, isolés de leurs collègues producteurs de données. Pour une réussite pérenne, l’entreprise doit prendre conscience de l’importance de la destination des données produites et des nouvelles utilisations potentielles, créatrices de connaissances et donc de valeur.

Ainsi, la Culture Data symbolise la prise de conscience généralisée et collective des acteurs de l’entreprise quant à l’importance et la valeur des données. La donnée produite par un service doit être accessible par tous, pour favoriser d’autres utilisations. Il s’agit, en réalité, d’étendre les notions de travail collaboratif à tout ce qui concerne les données. La culture Data rejoint ici de nombreux principes portés par la gouvernance des données.

Partager ses connaissances

D’innombrables projets de digitalisation foisonnent dans les entreprises aujourd’hui. Mais ils sont souvent freinés par des obstacles internes, principalement liés à la résistance au changement et à une faible compréhension des objectifs. Vos collaborateurs ont besoin de connaître les impacts que cette digitalisation aura sur leur rôle, ainsi que les conséquences sur leur travail quotidien.

Au même titre que la gouvernance des données, la culture Data est un ensemble de bonnes pratiques visant à étayer la cohérence des actions menées autour de la donnée. Chaque producteur et chaque utilisateur potentiel de données a besoin de s’approprier un nouveau mode de fonctionnement. En plus de son travail habituel, il doit comprendre où il se situe dans la chaîne de traitement de l’information et dans quelle mesure telle ou telle information peut être exploitée par d’autres services.

En schématisant, voici l’objectif simplifié du développement d’une culture Data :

objectif simplifié du développement d’une culture Data

Les données sont à la source de l’information. En impliquant fortement les collaborateurs, les informations sont transformées en connaissances pouvant mener à l’émergence de nouveaux usages.

Les spécialistes de l’IT savent qu’une architecture en silo est une vision de l’entreprise où chaque département agit de manière autonome pour satisfaire ses propres besoins et contraintes. La connaissance s’est calquée sur le même schéma dans les modèles d’entreprise standards jusqu’à former des silos informationnels. Ce sont des niches de savoir associées à un département, un métier, ou un domaine d’activité au sein de votre organisation.

Partager la connaissance représente un atout encore sous-estimé qui implique de changer de paradigme. Cette prise de conscience est impérative pour favoriser l’accessibilité, l’homogénéité et la cohérence des données. Développer une culture Data signifie en finir avec les architectures « silotées » et mettre la donnée au centre des échanges. Fini le travail isolé. Une donnée existe, elle a potentiellement de la valeur pour d’autres, et quand je la produis, au-delà de la réalisation de ma tâche, je me soucis de son utilisabilité pour les autres (qualité, complétude, fraîcheur, etc.). La collaboration et le partage de connaissances participent activement à la création de cette culture.

« La connaissance est la seule ressource, qui une fois partagée, s’en retrouve multipliée » Idriss Aberkane, « L’âge de la connaissance ».

Comment développer sa « culture Data » ?

Développer une culture Data n’est pas naturel pour des entreprises qui reposent sur des modes organisationnels traditionnels, souvent éloignés de ceux des start-ups. Il s’agit donc de la développer progressivement et de façon non invasive, en établissant prioritairement un plan de communication pour faciliter la prise de conscience et la sensibilisation. L’élaboration de plans de formation permettra en outre de partager un langage commun, tout en alertant les collaborateurs sur les conséquences d’un partage d’informations erronées.

L’utilisation de tous les supports de communication disponibles dans l’entreprise facilite bien sûr la circulation de l’information. Parmi eux, l’accès au catalogue des données doit être universel. Chacun doit pouvoir se situer dans la chaîne de traitement d’une information. C’est le meilleur moyen de prendre conscience de son importance et d’échanger avec ses collègues. Des actions de formation à l’utilisation du catalogue devront donc être menées régulièrement. (Dans notre prochain article, nous vous expliquerons dans quelle mesure un catalogue de données aide les organisations à gouverner leurs données et à développer une culture Data).

Les changements d’habitudes réclament du temps. Ils doivent être accompagnés pour s’inscrire dans la durée. Créer des espaces de partage en dehors des silos métiers permet d’optimiser la transversalité. La culture Data prend alors tout son sens et s’ancre dans la durée.

Tout changement peut poser problème à chacun de nous. Changer nous engage à sortir de notre zone de confort, ce que peu de personnes acceptent volontiers. Nous devons être convaincus que l’effort à fournir va nous apporter des bénéfices. Les leviers utilisés doivent donc être pertinents et s’adapter à la culture de l’entreprise. Ainsi, les agents d’une administration ont pour mission d’apporter un service aux citoyens. L’implication dont ils font preuve dans l’accomplissement de cette tâche est souvent admirable, et la seule idée qu’une erreur dans la communication d’information pourrait ternir l’image du service public est un excellent levier d’amélioration des pratiques.

Si elle n’est pas organisée, la mise en place d’une culture Data peut, de surcroît, aboutir à des situations erratiques autour de la donnée, notamment en favorisant des usages non conformes, mais aussi la transmission d’informations à des personnes non autorisées. Un cadre est nécessaire pour s’assurer que cette nouvelle culture Data ne soit pas un moteur de confusion pour l’entreprise.

Pas de culture Data sans gouvernance

La gouvernance de données et le développement d’une culture Data sont deux notions étroitement liées. Aborder le développement d’une stratégie Data et d’une culture associée est un projet dont la réussite est illusoire sans la mise en place de règles formelles. De la même manière, la gouvernance de données ne saurait exister sans le développement de politique du changement et d’éducation des parties prenantes.

Toutes les actions doivent être soutenues par une organisation pérenne. La gouvernance des données joue un rôle prépondérant, puisque c’est elle qui définit et met en œuvre les règles de fonctionnement liées aux données. Elle assure en outre un énorme travail de collecte et d’investigation, mais aussi d’organisation et de définition des responsabilités.

Grâce à la vision globale qu’elle procure, la gouvernance de données permet de réaliser des actions de communication interne selon la maturité de la culture Data et le niveau de déploiement d’actions de gouvernance (outils et mécanismes). La culture Data devient, en retour, un vecteur de communication pour la gouvernance.

Par définition, la gouvernance des données a un rôle d’arbitre et favorise le développement d’une culture autour de la donnée qui sera un vecteur de communication. Il est important de comprendre que l’interdépendance de ces deux disciplines est réelle et qu’il serait aberrant de les aborder séparément.

Blog-Poster-interview-datagalaxy

Interview Synotis #3 – Le Data Catalogue 360°, pour cartographier toutes les facettes de la donnée

Pour cette édition, des « Interview Synotis », nous avons choisi de vous présenter Data Galaxy, éditeur d’une solution Data catalogue.

Data Galaxy est une solution innovante visant à représenter votre écosystème en créant une base de connaissance d’entreprise produite en collaboration avec les métiers et l’IT. La plateforme offre les clés permettant de favoriser le déploiement d’une gouvernance de donnée efficace. Les fonctionnalités innovantes, l’interface facile d’accès, et les possibilités de représentation infinies font de DataGalaxy une des meilleures solutions du marché.

Découvrez notre interview en live le 3 septembre 2020 à 10h afin de découvrir l’approche unique de DataGalaxy qui vous permet de connecter vos équipes et d’engager la dynamique pour tirer la pleine valeur de vos données.

Blog-Poster-interview-talend

Interview Synotis #2 – Comment Talend souhaite révolutionner l’utilisation des Data avec Data Inventory ?

Pour cette seconde édition, des « Interview Synotis », Talend, un éditeur qu’on ne présente plus répondra à nos questions concernant sa toute dernière innovation Talend Data Inventory.

Pensez à votre expérience lorsque vous réservez un VTC, une chambre d’hôtel ou un restaurant dans un lieu qui ne vous est pas familier. Vous atteignez votre objectif en quelque clic avec une facilité déconcertante, et vous avez idée de la qualité du service que vous allez recevoir. Pendant ce temps-là, comment faites-vous pour consommer vos données ? C’est le chainon manquant qui vous empêche de tirer toute la valeur de vos données. Talend en a fait un pilier de sa Data Fabric.

Talend Data Inventory casse les silos en créant un point d’accès et de gouvernance unique à la donnée, la rendant ainsi réutilisable et partageable à travers toute l’organisation.
Les fonctionnalités de documentation automatisée, de notation automatique de la qualité au moyen d’un score de confiance et de profiling en font un outil simple et pragmatique qui apporte une valeur ajoutée immédiate à vos données.

Synotis vous propose de visionner l’interview pour découvrir ce qui à amener Talend à développer cette solution, ces cas d’usages, et les éléments
à considérer pour la mettre en oeuvre au sein des organisations.

Blog-Poster-datahub

Le Data Hub : Une circulation des données transparente, sécurisée et gouvernée

Alors que l’analyse de données est devenue indispensable pour outiller la croissance de toute entreprise, le concept de « Data Hub » attire l’attention de plus en plus de professionnels de la donnée, du fait de sa capacité à se positionner au cœur d’une stratégie globale de traitement de l’information. Mais comment positionner ce concept face aux architectures existantes, qui parfois viennent juste d’être déployées ? Un Data Hub va-t-il rendre obsolète mon Data Lake, ou va-t-il remplacer nos traditionnels Data Warehouse ? Et si je choisis de déployer un Data Hub, quels types de données vais-je y traiter et avec quels objectifs ? En résumé, le déploiement d’un Data Hub a-t-il du sens dans votre contexte et quels en seront les bénéfices ?
Mais avant de répondre à toutes ces questions, commençons par comprendre quelle est l’origine du concept de Data Hub.

Aborder le partage des données de manière isolée a conduit à la création d’environnements complexes

L’évolution des demandes de partage et d’intégration de données s’est faite graduellement. Les organisations y ont naturellement répondu en utilisant leurs architectures traditionnelles. Puis, les flux point à point se sont multipliés pour faire circuler les données à travers les silos, avec des traitements adaptés à chaque consommation, et une gouvernance réduite à sa plus simple expression. Cette stratégie a débouché sur des efforts informatiques ou technologiques disparates et cloisonnés, qui ont limité la capacité des producteurs et des consommateurs de données à interagir facilement. Dans le même temps, les échanges point à point ont généré de nouvelles difficultés. Dans les échanges inter-applicatifs, comment réconcilier les données d’un produit ou d’un client ? Et qui a raison en cas de conflit ? Ces interrogations ont fait émerger des besoins de gouvernance des données, principalement focussées sur les données de référence ou Master Data, avec parfois des arbitrages difficiles, et une intégration complexe dans les applications. Tous ces points ont mis en exergue des besoins de qualité, d’unicité, et de transparence que les architectures traditionnelles sont incapables de prendre en charge. Et c’est normal, elles n’ont pas été conçues pour ça.

De nouvelles solutions pour répondre à la multiplication des besoins de partage d’informations

Avec l’essor de la digitalisation des entreprises, de nouveaux besoins d’exploration des données ont vu le jour et toutes ces difficultés ont été démultipliées. Les services IT ont pu répondre par la mise en œuvre de bus d’échanges de données, en considérant toujours l’application métier avec ses données silotées comme la source unique de l’information. Pourtant, les besoins transactionnels des applications ne correspondent pas à tous les usages.
Parallèlement à ces difficultés, les obligations réglementaires sont devenues de plus en plus fortes. Que ce soit sur les données personnelles avec le RGPD européen, ou la révision de la LPD suisse qui en sera fortement influencée, ou encore sur les réglementations bancaires, toutes ont ajouté une complexité supplémentaire que la dispersion des informations ne contribue pas à réduire.
Pour de nombreuses entreprises, il est alors devenu indispensable de remplacer les anciennes interfaces point à point, et les flux de données manquant de médiation cohérente. Leur objectif est de réduire la complexité et la fragilité des mécanismes de partage des données, tout en progressant vers l’introduction d’une gouvernance cohérente, de définitions communes et d’une plus grande transparence dans la circulation des données au sein de l’organisation.
Alors, comment faire face, et surtout ne pas bouleverser des systèmes d’informations parfois fragiles ?

Choisir la bonne architecture en fonction du besoin

Certains responsables de données ont choisi de mettre en place une nouvelle architecture de type Data Lake.
Mais avant de développer, il est nécessaire de bien comprendre la finalité des trois types d’architecture Data existants, et le rôle qu’elles peuvent jouer dans une infrastructure moderne de gestion des données.
Toutes ces architectures s’alimentent selon les mêmes procédés. Leurs différences résident principalement dans la sélection des données candidates, dans le traitement des données reçues, et dans leurs usages.

Entrepôt de données ou Data Warehouse

Un entrepôt de données est une base de données relationnelle pensée et structurée de façon précise pour le reporting et les analyses de données. Il répond à des besoins analytiques prédéfinis et reproductibles, facilitant la prise de décision et les activités de type Business Intelligence. Ainsi, l’entrepôt de données est le mieux adapté aux exigences d’une sémantique cohérente, et répond à des cas d’utilisation très ciblés. D’ailleurs, les données stockées dans l’entrepôt sont agrégées selon les cas d’utilisation pour permettre aux utilisateurs d’y accéder rapidement et facilement.
La mise en œuvre d’entrepôts de données apporte des réponses performantes à des besoins analytiques complexes et identifiés, portant sur de grands volumes de données. La qualité des données y est généralement bonne. En revanche, ce type d’architecture est peu adapté à l’analyse exploratrice, et sa conception engendre généralement des déphasages entre la demande métier originale et la mise à disposition des indicateurs. Cette approche est à privilégier pour des indicateurs de performances clairement identifiés, à destination d’une large population. Le Data Warehouse est le fruit d’un processus d’industrialisation et de consolidation, avec une structuration forte des données.

Data Lake

Un Data Lake est un collecteur de données permettant de stocker et traiter une très large quantité et variété de données, structurées ou brutes (c’est-à-dire conservées dans leur format natif) pour une durée indéterminée. Cette méthode de stockage permet de faciliter la cohabitation entre les différents schémas et formes structurelles de données.
L’ensemble des données de l’entreprise est stocké au sein d’un seul Data Lake. Les données brutes côtoient les données transformées. Elles sont utilisées pour établir des rapports, pour en visualiser les contenus, pour l’analyse de données ou pour le Machine Learning, mais nécessitent des traitements manuels (préparation) de la part des utilisateurs.
Par la concentration des données de l’entreprise, le Data Lake devient la source unique de systèmes exploratoires, d’activités d’analyse, et de science des données, avec potentiellement un large éventail de sujets et de consommateurs.

Data Hub

Le terme de Data Hub est apparu il y a environ 4 ans. Il s’agit d’une convergence naturelle des concepts d’entrepôt de données et de Data Lake, répondant à des besoins mixtes.
Comme pour les Hubs d’aéroport ou de traitement logistique, le Data Hub traduit la concentration des informations en un lieu central et commun, servant de point de transit et de distribution jusqu’à de multiples destinations. Il se situe donc au centre des traitements et du stockage, et la variété des destinations n’est pas figée. Elle dépend principalement de la richesse des informations qu’il porte.

Le Data Hub assure donc les accès aux données stratégiques de l’entreprise, mais il peut aussi en assurer la persistance sur une plateforme de stockage, en regroupant un ensemble de données en provenance de systèmes d’informations multiples, ou au contraire être une passerelle entre les silos transactionnels et les points de consommation. Son objectif est de fournir une source de données unifiée et centralisée, qui permet un partage gérable et régi des données. Le Data Hub est donc un modèle architectural permettant la circulation et la gouvernance transparente des données. Les connexions entre producteurs et consommateurs s’établissent via le Data Hub, avec des contrôles de gouvernance et des modèles standards appliqués pour permettre un partage des données optimal.
Avec un Data Hub l’entreprise retrouve la capacité à maîtriser l’un de ses actifs les plus stratégiques : son capital données.

Pourquoi Synotis privilégie l’approche Data Hub ?

Son positionnement au centre des usages rend le Data Hub particulièrement efficace sur l’ensemble des sujets adressés par Synotis pour ses clients : qualité de données, gestion des données de référence, gouvernance et conformité des données, mais aussi de contrôle de la persistance et des cycles de vie.
La concentration des données permet l’homogénéisation des règles de traitement et de distribution, qui sont alors définies par la gouvernance, en collaboration avec tous les métiers.
En réalité, il n’existe pas une, mais des architectures Data Hub. Chacune pouvant répondre à des besoins différents :

  • Partager des données transactionnelles entre les processus opérationnels ;
  •  Assurer la cohérence des données de base essentielles entre les fonctions de l’entreprise ;
  • Fournir des données analytiques à un ensemble diversifié d’équipes d’analyse ;
  • Permettre aux populations de Data Scientist d’explorer et d’affiner les données.

Avec des choix technologiques adaptés, il est également possible de prendre en charge une combinaison de ses besoins.
Reposant sur le concept de modèles communs à toute l’entreprise, les Data Hub sont principalement axés sur de la sémantique cohérente, mais peuvent soutenir une série de cas d’utilisation (à la fois opérationnels et en soutien des besoins analytiques), et des stratégies de traitement (via des choix de persistance des données techniques, styles d’intégration et méthodes d’accès) :

Plate-forme de données de base ou données principales
Axé sur le partage cohérent des données principales (client, produit …) à travers les systèmes et les processus opérationnels de l’entreprise. Ce type de plate-forme est courant dans les organisations qui ont mis en œuvre des initiatives de gestion des données principales.

Plate-forme de données d’application
Se concentre sur les systèmes opérationnels complexes avec des fonctionnalités diverses. Le Data Hub sert de point central de contrôle et de partage des données clés dans le contexte d’une application ou d’une suite spécifique.

Plate-forme de données d’intégration
Un Data Hub axé sur l’intégration peut permettre le partage de tous les types de données (de base, transactionnelles, analytiques). Il utilise diverses techniques d’intégration des données, et des applications, pour traiter et fournir un large éventail de données répondant aux exigences de partage. Ce type de Data Hub peut également s’étendre au-delà des frontières de l’entreprise, permettant le partage de données avec des partenaires extérieurs (clients, fournisseurs, etc.).

Plate-forme de données de référence
Semblable aux Data Hub de données de base, et d’application, mais avec une focalisation étroite sur les « données de référence » (codes, tableaux, hiérarchies, etc.) couramment utilisées. Ces plateformes permettent un accès cohérent et une synchronisation de ces données, généralement entre les centres opérationnels et les systèmes d’analyses.

Plate-forme de données analytiques
En tant que point de collecte et de partage des données et des résultats analytiques, ce style de Data Hub peut prendre en charge l’approvisionnement en données de Data Warehouses et d’autres solutions analytiques. Elle permet principalement de mutualiser les efforts de traitement de qualité des données, et allège donc les systèmes producteurs.

Les caractéristiques de l’architecture Data Hub

Il convient de considérer cette architecture comme un ensemble de bonnes pratiques plutôt que comme une architecture figée et rigide. Ses implémentations peuvent prendre des formes variées, adaptées aux différents cas d’usage, et sa mise en œuvre relève plus d’un puzzle dans lequel peuvent s’imbriquer de nombreuses technologies. Mais elles sont toujours assemblées pour fournir un résultat cohérent et optimal.
Un Data Hub a pour avantage de pouvoir être intégré par étape, en privilégiant la prise en compte des axes les plus stratégiques de nos clients. Dans certains cas, la mise en persistance du capital données est prioritaire, dans d’autres, c’est la distribution d’information avec un traitement homogène de l’information. Le traitement des données de référence prend naturellement sa place au centre du système d’information.

Le Data Hub selon Synotis

Pour résumer en quelques mots, l’objectif d’un Data Hub est de rendre simple, abordable, facile, flexible, rapide et efficace, à la fois l’intégration, mais aussi l’utilisation de toutes les données, tout en assurant la sécurité et la gouvernance des données candidates au partage.

Nos experts architectes sont à votre disposition pour détailler les avantages d’une architecture Data Hub, en fonction du contexte propre à votre entreprise. Nous vous proposons d’étudier vos contraintes afin de vous apporter des réponses pragmatiques et de vous soutenir dans vos efforts de rationalisation de votre architecture Data.
contact@synotis.ch

Blog-Poster-interview-denodo

Interview Synotis : La Data Virtualization au service des architectures Data Hub

Les interviews Synotis : La Data Virtualization au service des architectures Data Hub

A l’ère de la transformation digitale, les équipes IT doivent plus que jamais booster la productivité de leurs opérations. Cependant, les volumes exponentiels des données à traiter, la diversification des sources et les limites des systèmes existants représentent un réel frein pour garantir une gestion agile, globale et sécurisée des données.

Face à ces défis, le Data Hub constitue un réel atout pour simplifier la vie des Chiefs Data Officers et des professionnels de l’IT. La force du Data Hub est d’améliorer la cohérence des données qui y transitent offrant une vue 360° fiable et compréhensible, tout en garantissant la gouvernance des données nécessaire à toute transformation digitale.

Pour en savoir plus, Synotis et Denodo vous proposent visionner la session interview abordant cette architecture de données.

Optimiser la qualité des données grâce à la Gouvernance

Dans notre précédent article, vous avez découvert pourquoi la gouvernance de donnée doit être actionnée en amont d’un projet de mise en conformité. Ici, notre propos est de mettre en relief les synergies entre une gouvernance efficace et la maîtrise de la qualité des données, afin d’aider les entreprises conscientes de l’importance du sujet, mais ne disposant pas des méthodes adaptées, à en matérialiser les bénéfices.

La qualité des données est souvent synonyme d’actions correctives, visant uniquement à en accroître l’utilisabilité, dans un contexte métier limité. A travers des exemples concrets, nous allons illustrer dans quelle mesure les problématiques de qualité de données peuvent être prises en charge avec plus d’efficacité, en s’appuyant sur des processus de gouvernance des données.

Qu’est-ce que la qualité des données ?

La qualité des données est un ensemble de critères visant à identifier la capacité d’une donnée à restituer de l’information, en se conformant aux usages prévus.

La qualité d’une donnée est donc évaluée selon les dimensions suivantes :

La disponibilité : L’information existe-elle ?
La conformité : L’information peut-elle être exploitée dans cet état ? Respecte-t-elle les règles métier qui la définissent ? (ex. : une adresse mail sans @ )
La véracité : L’information est-elle vraie et vérifiée ?
La cohérence : L’information est-elle toujours structurée de la même manière ?
Temporalité : L’information est-elle actualisée ? Quelle est sa fraîcheur ?

Certaines dimensions de la qualité de données sont relatives au contexte dans lequel elles sont évaluées .

La qualité des données étant une discipline tangible et pragmatique, il est par conséquent facile d’obtenir des indicateurs chiffrés et explicites qui en facilitent la gestion.

Dans un contexte de gouvernance, la qualité est sous-jacente à une notion plus globale : l’utilisabilité. Celle-ci traduit la capacité d’une donnée à être exploitée facilement et efficacement par un consommateur qui peut être une personne, un service ou un système. Elle est, par conséquent, adaptée à son usage.

Quelle sont les causes d’une mauvaise qualité de données ?

L’erreur humaine

Beaucoup de données sont générées par l’intermédiaire d’un opérateur humain. Par nature, nous devons donc nous attendre à traiter des erreurs involontaires.
En outre, la saisie intervient le plus souvent dans l’exécution d’une opération métier, avec un objectif précis qui n’est pas de générer de la donnée. Or, pour un opérateur, les interfaces applicatives ne sont qu’un moyen. L’accomplissement de cet objectif étant prioritaire, tout blocage doit être résolu immédiatement ou contourné. On se retrouve donc fréquemment avec des dossiers métier complets, mais dont les données ne sont pas toujours structurées efficacement, d’un point de vue technique. Ainsi, l’opérateur n’est pas toujours attentif à la qualité des informations qu’il transmet, mais plutôt à  la nécessité d’accomplir la tâche qui lui est attribuée.

Se pose donc la question de la conscience de la notion de qualité, et de la maîtrise de ses impacts globaux. Information et pédagogie sont ici essentielles.

L’absence d’outils adaptés

Au-delà de la dimension humaine, il est nécessaire de fournir aux différents intervenants des outils ou applications facilitant la création de donnée et respectant les critères d’utilisabilité. Grâce à des processus clairement définis et couvrant tout le spectre de l’activité, le risque d’erreur diminue.

Une responsabilité mal définie

En partant du postulat que la qualité des données est généralement perçue comme une discipline corrective, il n’est pas rare qu’elle relève de la seule responsabilité de l’IT qui doit alors mesurer les impacts métiers et prendre des mesures d’évaluation, mais sans pouvoir intervenir à la source pour corriger une donnée erronée. Elle peut également être traitée périodiquement par des spécialistes métiers, avant l’exécution de tâches plus globales qui exigent des vérifications en amont afin d’obtenir le résultat escompté, mais avec les mêmes difficultés sur les actions de correction.
Dans ces situations, la problématique n’est pas abordée de manière optimale. La conscience de l’utilisabilité est perdue par le producteur des données, les correctifs appliqués sont beaucoup moins efficaces, car le nombre de cas à traiter est difficile à évaluer et ne cesse d’évoluer, et plus personne n’est réellement responsable d’une donnée. Se pose donc la question des rôles et des responsabilités

La gouvernance au service de l’utilisabilité

La connaissance de l’écosystème, premier moteur de qualité

Un opérateur métier saisit un ensemble de données concernant des personnes. Ces informations sont de différents types (texte, date, …), et l’application utilisée ne propose qu’un nombre limité de contrôles de format ou d’obligations. Les personnes du service n’ont pas de connaissances spécifiques en matière d’informatique ou de donnée.

Cette situation est très répandue. Le service en question connaît son métier, mais n’a pas forcément conscience de tous les tenants et aboutissants de ses actions à l’échelle de l’entreprise. L’utilisateur n’est donc pas systématiquement attentif à la qualité des informations qu’il transmet, mais bien à la nécessité de remplir la tâche qui lui est attribuée, quels qu’en soient les moyens.
Ainsi, dans leurs activités quotidiennes, les utilisateurs peuvent faire des erreurs, laisser des champs vides, que ce soit volontairement ou non.
Une bonne connaissance du positionnement des utilisateurs dans l’écosystème de l’entreprise est capitale. En utilisant l’analyse de l’existant, la gouvernance des données met en lumière la provenance et la destination des données, du point de vue de l’utilisateur.
La gouvernance joue un rôle essentiel dans la sensibilisation et la responsabilisation du personnel vis-à-vis de la donnée, en élargissant son champ de vision. Son travail est un maillon de la chaîne globale, il a un impact sur d’autres processus et sur l’utilisabilité des données. De la même manière, ils subissent les erreurs survenues en amont.

Les utilisateurs ont été sensibilisés à la qualité de leur saisie, ils ont compris que leur rôle n’était pas limité à l’exécution de leurs tâches, et que leur travail est également à la base de celui d’une partie de leurs collègues.

Inscrire les processus existants dans une démarche globale

Un administrateur de base de données exécute un script afin de corriger des données directement dans la base. S’agit-il d’une action isolée ? Et comment en mesurer les conséquences ?

Il est évident que cette action remplit bien l’objectif à l’instant T qui est de corriger les données afin de respecter les critères d’utilisabilité. Cette action répond probablement à une demande d’un responsable qui a un besoin clairement identifié. Néanmoins, elle est exécutée dans un contexte restreint, et sans transparence. Et il y a fort à parier que dans quelques mois, une situation similaire réapparaîtra.
A minima, la gouvernance intervient dans le cadre d’une réflexion globale. Dans notre exemple, elle va déterminer s’il s’avère nécessaire d’intégrer ce script dans un flux global, avec la documentation et la traçabilité associées.
Mais l’idéal est d’éviter les actions de ce type, car elles relèvent de la correction plutôt que de la prévention.
La gouvernance de données permet d’identifier l’étape du cycle de vie de la donnée où ce défaut de qualité est apparu. Elle suscite ensuite la mise en œuvre en amont des processus qui éviteront cette situation.

Le DBA se consacre désormais pleinement à son domaine d’activité. La connaissance induite par son script est maintenant intégrée dans les processus de traitement qui ont été validés et documentés avec transparence.

L’émergence de nouveaux rôles – Tirer parti de la gouvernance pour assurer la continuité des actions

Le responsable de la facturation se rend compte que la simulation ne concorde pas avec les prévisions. Il doit en urgence identifier les problèmes et trouver des solutions correctives. Il contacte donc les responsables métiers impliqués dans la facturation.

Dans le cadre d’une problématique de qualité de données, les sujets sont pris en charge par les responsables métier afin de convenir de corrections à court terme, en vue de permettre la facturation. Il s’agit d’un objectif isolé avec une seule contrainte.
Or, ce processus entre souvent en collision avec l’activité métier habituelle. De plus, certaines corrections peuvent avoir des impacts sur les traitements métier déjà effectués (réouverture de dossier par exemple).

Grâce aux analyses d’impact et à l’étude des besoins d’utilisation des données, le développement d’une gouvernance aurait fait émerger le besoin de définir des rôles et des responsabilités. Par exemple, celui de data manager (ou data steward) qui a conscience des cas d’utilisation, et qui intervient en cohérence avec des objectifs croisés, identifiés.

Le data manager devient le garant de la qualité de ses données. Il définit des contrôles appliqués au fil de l’eau en prévention, et il s’assure que les critères d’utilisabilité soient respectés.

Depuis la nomination d’un data manager, le responsable de la facturation sait que la qualité des données est assurée. Il a d’ailleurs des tableaux de bord à sa disposition qui rendent le processus de contrôle transparent. Il collabore avec les responsables métiers qui peuvent aisément lisser et organiser les actions correctives. Les impacts des défauts de qualité sont bien mieux maîtrisés, et leurs conséquences anticipées.

La gouvernance garantit une utilisabilité maximale à tous les consommateurs

En matière de consommation de données, il n’existe pas de hiérarchie puisque in fine, quelle que soit la manière de les utiliser, toutes les données serviront à prendre des décisions ou à produire une information.

Or, il est primordial de favoriser une exploitation homogène, via des règles de traitement rationalisées. En s’appuyant sur la gouvernance de données, et en identifiant l’ensemble des destinations, il est possible d’homogénéiser les formats et les règles de traitement. Quand il y a trop de dispersion, la gouvernance ramène la cohérence. Elle peut d’ailleurs s’appuyer sur une architecture distribuée, telle qu’un Data Hub, qui facilite cette démarche.

En donnant plus d’importance au risque de défaut de qualité et plus de cohérence dans son traitement, la gouvernance de données apporte une dimension essentielle dans la gestion de votre actif. Souvenez-vous que la gouvernance de données est une activité métier. N’attendez plus que le service informatique fasse ce travail, il ne relève pas de sa responsabilité. Sa vocation est de supporter la mise en œuvre de processus techniques, pas métier.
En regroupant les métiers dans une démarche qualité commune, vous développez votre capacité à identifier les défauts de qualité et les actions correctives à mettre en œuvre. Vous favorisez donc la collaboration et l’esprit d’appartenance à un groupe cohérent.
Vous disposez maintenant d’un nouveau levier pour mettre en œuvre une gouvernance de données efficace, et donner une dimension plus stratégique à vos actions centrées sur la donnée.

Notre prochain et dernier article vous expliquera comment la gouvernance des données peut favoriser l’émergence d’une « culture data » qui amplifiera tous les bénéfices d’une gouvernance de données efficace.

Blog-Poster-gouvernance-conformité

La gouvernance des données au service de la conformité réglementaire

Le premier opus de notre série d’articles consacrés à la gouvernance des données, a livré une définition pragmatique de la démarche, tout en insistant sur son aspect stratégique. Afin de saisir les raccourcis que nous évoquerons au fil de ce nouvel article, nous vous invitons à le lire ou à le relire.

Alors que les entreprises prennent conscience de l’importance de maîtriser et garder sous contrôle leurs données et leurs modes d’exploitation, les gouvernements prennent très au sérieux la protection des informations personnelles. Chaque pays légifère et les évolutions réglementaires sont nombreuses. Désormais, plus de 120 pays disposent d’une loi nationale de protection des données personnelles. Conséquence, 59 % des entreprises déclarent, dans une étude de Deloitte, disposer d’un responsable de la conformité à temps plein.

Exemple de réglementation : Federal Financial Institutions Examination Council (FFIEC), EU GDPR, California CCPA …

Ne nous voilons pas la face, même si le jeu en vaut la chandelle, se conformer à ces diverses réglementations est une contrainte. Mais la conformité peut servir de socle à une gouvernance des données stable et pérenne. Nous vous expliquons ici comment inscrire cette démarche dans une dynamique de création de valeur qui bénéficiera durablement à l’ensemble de l’entreprise.

Gouvernance de données et conformité : une relation gagnant-gagnant

 

Se mettre en conformité consiste à instaurer un ensemble de règles garantissant le respect des directives, règlements et législations en vigueur dans un pays ou une région.

 

Le point commun de toutes ces nouvelles législations est d’exiger des organisations une capacité à démontrer, à tout moment, qu’elles maîtrisent les différentes utilisations de leurs données, et que celles-ci soient documentées et transparentes. Ces exigences les exposent à des risques légaux qui peuvent être importants, notamment en termes d’image ou financiers.

Par exemple, le GDPR (Règlement européen sur la protection des données) est composé de 40 articles qui forment autant de lignes directrices de la conformité.

Parmi ceux-ci figurent :

  • le respect des droits des utilisateurs (droit d’accès, droit à l’oubli…) ;
  • le respect des principes de traitement (limitation de conservation ; traitement licite, loyal et transparent ; intégrité des données) ;
  • l’analyse des risques et l’étude d’impact sur la vie privée ;
  • la tenue d’un registre des traitements.

La LPD suisse (Loi fédérale sur la protection des données) prévoit de s’appuyer sur ces mêmes principes et la tendance mondiale va dans le même sens.

La mise en conformité représente donc la démarche permettant d’aboutir à la mise en œuvre de solutions et de processus garantissant la prise en charge d’une réglementation.

Certains secteurs d’activité, comme la finance ou la santé, sont soumis à des réglementations particulières. Quel qu’en soit le périmètre, elles relèvent des mêmes principes, et les réponses à apporter répondent aux mêmes mécanismes.

Par exemple, la Banque centrale européenne (BCE) et le Comité de Bâle sur le contrôle bancaire (CBCB) ont publié 14 principes, connus sous la dénomination « BCBS 239 », qui couvrent le domaine de l’évaluation des risques et des actifs. Ils introduisent des principes d’intégrité des données, d’exhaustivité, d’actualité des valeurs, d’exactitude et de surveillance. En complément, l’annexe 3 de la circulaire FINMA (l’Autorité fédérale de surveillance des marchés financiers) impose le concept formel de gestion de la qualité, et la mise en œuvre d’une traçabilité sans faille des données d’ordre financier.

Gouvernance de données et conformité réglementaire : les synergies

1. La gouvernance impulse la transversalité des actions, la mise en conformité en a besoin !

 

Imaginez une unité métier démarrant un projet de mise en conformité.

Son objectif est de répondre point par point aux contraintes réglementaires. Le projet est mené à son terme, le métier a rempli tous les critères de conformité. Le projet est-il une réussite pour autant?

 

On peut, dans l’absolu, mener une démarche de mise en conformité par silo de données. Mais, dans ce cas, garantir l’homogénéité des décisions et des actions à l’échelle de l’entreprise relèvera de la gageure. À défaut d’actions fortes et pérennes de la direction, avec le temps, le projet isolé risque de s’enliser, entraînant progressivement une marginalisation des programmes de conformité.

Dans notre exemple, ce qui apparaît comme une réussite à l’échelle de l’unité métier, reste une initiative isolée, donc limitée.

Le facteur risque touchant l’ensemble de l’organisation, la mise en conformité doit bien évidemment être abordée à un niveau global. Ainsi, lors d’un contrôle de conformité réglementaire, il est primordial que l’ensemble de l’entreprise respecte les règles fixées.

La gouvernance des données et la mise en conformité sont des projets d’entreprise. Elles relèvent des mêmes ressorts et besoins de compréhension des informations. Dans un contexte de données en silo, la conformité de leurs usages sera plus cohérente si elle tire parti d’une gouvernance de données globale.

La gouvernance aide à structurer un plan de mise en œuvre, via un système de rôles et de responsabilités qui établit des processus organisationnels et techniques intégrant une dimension stratégique et de continuité, à l’échelle de toute l’entreprise.

 

2. La gouvernance s’appuie sur des rôles et responsabilités, la mise en conformité en a besoin !

 

Dans le contexte de la mise en œuvre d’une gestion stratégique des actifs de données, la gouvernance des données est définie comme l’activité qui organise et exerce l’autorité et le contrôle.

 

Imaginez une campagne marketing nécessitant l’utilisation d’un e-mail.
Au-delà de définir quel est l’e-mail le plus adéquat, nous devons surtout nous assurer que son utilisation est légale. Le processus de contrôle existant identifie plusieurs responsables… Qui peut nous apporter la réponse ?

La gouvernance répond à la traçabilité exigée par la conformité réglementaire, et assure que les actions et les processus définis prennent en compte toutes les dimensions nécessaires.

Elle vise à identifier les rôles et les responsabilités existants, afin de faire ressortir d’éventuelles contradictions ou incohérences. L’objectif est de créer un consensus qui redéfinit les rôles et les responsabilités, tout en leur donnant une cohérence globale.

Dans notre exemple, un processus utilisant la gouvernance aurait défini un seul responsable.

En ajoutant les composantes réglementaires, la conformité devient naturellement une extension ou une spécialisation de la gouvernance des données.

 

3. La gouvernance implique la formalisation de processus de traitement des données, la mise en conformité en a besoin !

 

Imaginez, qu’un client sollicite l’effacement de ses données.
Quel(s) processus garanti(ssen)t une réponse efficace à cette requête ?

Certaines données alimentent des cycles de transformation et des cas d’utilisation qui peuvent être très variés au sein de l’entreprise. La conformité a besoin d’identifier tous les cas d’utilisation des données, d’en connaître l’origine et les destinations, y compris à l’extérieur de l’entreprise.

Dans notre exemple, en l’absence de gouvernance, la mise en conformité aboutira à une réponse partielle à la problématique, du fait d’un positionnement stratégique inexistant.

Force est d’admettre qu’un projet de mise une conformité ne peut satisfaire ce type de demande. Pour y répondre, une organisation permanente est nécessaire, avec des processus de traitement de l’information associés. Ces derniers relèvent de la gouvernance, et au risque de nous répéter, s’inscrit dans une logique globale.

 

4. La gouvernance des données analyse l’existant, la mise en conformité en a besoin !

 

Le processus de mise en conformité commence. Nous connaissons le détail des législations qui définissent les périmètres d’action. Mais comment puis-je identifier et localiser les données et les traitements, puis évaluer les risques induits ?

En résumé, comment savoir ce qui est nécessaire pour garantir la conformité, sans maîtriser son écosystème de données ? Comment rendre conforme ce que l’on ne connaît pas ?

Il est essentiel d’appréhender le plus précisément possible la répartition des données présentes dans l’ensemble du SI de votre entreprise, en incluant également leurs transformations. La mise en conformité implique de dresser une cartographie détaillée de son écosystème, en identifiant chaque usage, chaque traitement et chaque intervenant.

Or, la gouvernance met en œuvre des processus d’identification et de classification des données, de leur contenu, de leur producteur et de leur utilisation. Parallèlement, elle désigne des responsables de données qui sont les sachants et jouent le rôle d’arbitre. En assurant une logique inter-métier, la gouvernance identifie les tenants et les aboutissants des utilisations, en général à l’aide d’un outil, tel qu’un catalogue de données.

On voit bien que les fondations construites par la gouvernance des données forment le socle sur lequel la mise en conformité doit s’appuyer. Elle peut parfois même orienter certaines activités de la gouvernance, et requérir son arbitrage pour satisfaire à ses obligations.

 

5. La gouvernance des données évalue les risques, la mise en conformité en a besoin !

 

Comme le démontrent les exemples précédents, il est primordial d’identifier l’ensemble des contraintes présentant des risques réels. Leurs conséquences pouvant être importantes pour l’ensemble de l’entreprise et même, dans certains cas, altérer le fonctionnement de certaines activités métier.

La priorisation et le management des risques devient donc une dimension essentielle à tout projet de mise en conformité. Or, la méthodologie déployée par la gouvernance de données implique la mise en œuvre de certains outils de sélection des périmètres. Il s’agit d’un excellent support pour intégrer la dimension risque.

Prenons, par exemple, la matrice de priorisation qui, dans le cadre de la gouvernance des données, vise à hiérarchiser les objectifs via un système de score.

Gouvernance de données et conformité : une relation gagnant-gagnant

Appliquée à un contexte de mise en conformité, ce type de matrice permet de prioriser l’évaluation du risque et de ses conséquences.
L’utilisation de cet outil donne une réalité aux risques et offre aux décideurs la transparence nécessaire à la prise de décisions.

Pour conclure, on comprend désormais qu’une grosse partie de l’activité de mise en conformité repose sur le travail effectué par la gouvernance de données. Si celle-ci n’existe pas, ce travail vous incombe naturellement, mais il est essentiel de ne pas perdre de vue la dimension globale des données. Inversement, si votre démarche de mise en conformité est déjà initiée, vous disposez d’un excellent levier pour mettre en œuvre une gouvernance de données, et donner une dimension plus stratégique à vos actions centrées sur la donnée.
Rendez-vous dans notre prochain article pour découvrir un cas d’usage concret.

Blog-Poster-gouvernance-tendance

La gouvernance des données : un moteur de création de valeur

Garantir la qualité, l’accessibilité et la sécurité de l’un de vos principaux actifs stratégiques : vos données

La gouvernance des données est-elle une énième tendance poussée par le marketing ?

Le concept peut paraître abstrait, car il est généralement abordé au travers de modèles et de concepts qui le rendent complexe, voire insaisissable. La difficulté consiste à lui donner une réalité, une existence, et à en simplifier la vision.
L’expérience accumulée auprès de nos clients nous permet d’affirmer qu’il s’agit d’un sujet réel, qui concerne toutes les organisations, qu’elle que soit leur dimension. Pour tirer le meilleur parti de leur capital données et en assurer la cohérence, elles doivent impérativement prendre conscience de la nécessité de s’appuyer sur ces principes de gouvernance.
Par l’intermédiaire d’une série d’articles, dont celui-ci est le premier, l’équipe « Data Gouvernance » de Synotis partage sa vision, fruit de ses expériences opérationnelles.

Pourquoi la donnée est aujourd’hui si stratégique ?

La donnée est désormais au cœur de l’ensemble des activités d’une entreprise. Les volumes de données qu’elle collecte ou crée ne cessent de croître. Leur exploitation ouvre de multiples perspectives : relation client, ciblage commercial, innovation et développement de nouveaux services, gestion des opérations quotidiennes, optimisation des processus métiers, etc. Plus ces usages se multiplient, plus la valeur des données augmente et plus il devient essentiel de s’assurer de leur qualité, de leur disponibilité, de leur fraîcheur (leur « utilisabilité »), et bien-sûr de leur sécurité. Avec la numérisation désormais aboutie des différents aspects de la gestion d’une entreprise, les systèmes gagnent en complexité, les infrastructures analytiques s’étendent et de nouveaux usages continuent de voir le jour, avec des risques inhérents et une valeur toujours plus importante.

D’où la nécessité impérieuse de bien gérer ces données, et d’en garantir l’exactitude et l’intégrité. La gouvernance des données, comme nous le verrons plus en détail dans cet article, consiste à identifier, classifier, gérer et contrôler les données, à travers de multiples processus métiers, acteurs et mécanismes de prise de décision, partagés à travers toute l’entreprise.
Selon une étude d’IDC, 42 % des managers ne disposent que de 24 h pour prendre une décision – souvent stratégique – généralement sans accès aux données critiques qui leur permettraient d’en garantir l’efficacité (seulement 30 % des données d’une entreprise sont ordinairement accessibles). Parallèlement, 64 % des chefs d’entreprise ont constaté que le temps consacré aux prises de décision s’est réduit lors des 12 derniers mois. Toutefois, une étude de BCG conclut que les entreprises ayant déployé une stratégie de marketing « data-driven » bénéficient d’une croissance de 20 % de leurs revenus, tout en réduisant les coûts de 30 %. Les entreprises les plus matures en matière de gouvernance des données « enregistrent un rapport coût-bénéfice 1,5 fois supérieur et un impact sur le chiffre d’affaires jusqu’à 2,5 fois supérieur aux autres ». Bienvenue dans un monde Data-Driven !

Qu’est-ce que la gouvernance des données ?

Plusieurs visions de la gouvernance des données coexistent aujourd’hui. Dans la réalité, chaque acteur peut proposer une interprétation différente, en fonction de son propre contexte.
Forte de l’expérience accumulée dans de multiples projets, Synotis a pour ambition d’offrir la vision la plus pragmatique possible, tirée de ses réussites et des différents écueils qu’elle a rencontrés pour mener à bien ces projets.

Entrons dans le vif du sujet, via une définition académique :

  • La gouvernance des données est l’activité qui organise, exerce l’autorité et le contrôle de la gestion des actifs données, au sein d’une organisation
  • C’est un système de droits, de décisions et de responsabilités, appliqué aux processus exploitant des informations
  • Il doit être exécuté selon des modèles convenus, qui décrivent :
    • qui peut prendre quelles mesures avec quelles informations ?
    • quand ?
    • dans quelles circonstances ?
    • selon quelles méthodes ?

On comprend donc qu’une gouvernance des données efficace nécessite la mise en place de processus permettant de fiabiliser les informations qui sont utilisées par des postes critiques, comme les décideurs ou la finance.

L’idée maîtresse de cette définition est que la gouvernance des données est un processus qui définit et organise les responsabilités. Qui est responsable de la création ou de l’actualisation de telle ou telle donnée ? Qui peut y accéder et pour quoi faire ? Qui garantit leur intégrité et leur sécurité ? etc.

Ainsi la gouvernance confie à des personnes la responsabilité de régler et de prévenir des problématiques liées aux données, tout au long de leur cycle de vie.

C’est donc un programme visant à améliorer et à maintenir des règles de gestion des données, celles-ci étant considérées comme un actif stratégique. La taille de votre organisation n’a pas d’importance. Si vos données ne sont pas régies de façon responsable, votre organisation court un risque, et ses capacités décisionnelles et opérationnelles en souffriront.

La gouvernance des données n’est pas un projet comme les autres avec un début, un milieu et une fin.
Il s’inscrit dans la stratégie d’entreprise, et donc, dans une certaine continuité.

Résumons :

  • La gouvernance des données est avant tout un projet d’entreprise
  • Elle détermine les activités à entreprendre pour gérer les données comme un véritable actif
  • Elle définit des rôles
  • et détermine des responsabilités, et les droits de décision des personnes qui s’occupent des données.

Pas de panique : vous faites déjà de la gouvernance des données !

Comme Monsieur Jourdain dans « Le Bourgeois gentilhomme » de Molière faisait de la prose sans le savoir, toutes les organisations pratiquent déjà la gouvernance des données dans le cadre de leurs activités quotidiennes.

En supervisant la gestion des risques, en mettant en œuvre la sécurité de l’information, en évaluant et en améliorant la qualité des données, en produisant des rapports, en analysant ou en partageant des données, vous recourrez à la gouvernance des données. Si vous avez mis en œuvre un ou des programme(s) de data management – qui consiste à collecter, stocker, exploiter et sécuriser les données de votre entreprise – par extension, vous faites de la gouvernance des données.

La gouvernance : mode d’emploi

Deux types de gouvernance existent aujourd’hui. Après une brève description, nous étudierons comment mettre en place une stratégie capable de les harmoniser.

La gouvernance technique

Vos activités quotidiennes de Data management et plus précisément des pratiques comme la gestion de la qualité de données (Data Quality), la gestion des données de référence (MDM), etc. s’inscrivent dans le cadre d’une gouvernance technique.

Il s’agit d’actions menées par des équipes techniques qui répondent à une partie des objectifs de gouvernance des données. Elles visent globalement à accroître l’utilisabilité et la valeur des données au sein de l’organisation. Il est donc naturel que ces pratiques soient associées à la vision de la gouvernance.

Toutefois, ces actions ou ces projets autour des données ont le plus souvent été planifiés dans des périmètres fonctionnels, des niveaux d’attentes et des processus différents. L’entreprise dispose dans ce cas d’une vision parcellaire d’une approche de gouvernance répondant à des problématiques isolées. Il n’existe pas de stratégie globale définie pour l’organisation ou même pour un domaine de l’organisation.

La gouvernance fonctionnelle

Toute organisation, comme son nom l’indique, déploie une gestion organisationnelle des processus. Il existe donc bel et bien une définition des rôles et des responsabilités des domaines fonctionnels de l’entreprise.

Prenons un exemple simple, si un responsable métier est en charge du contrôle de la saisie des données dans le CRM, il se voit attribuer un rôle et des responsabilités relatives aux données de son activité.

Nous pouvons donc en déduire qu’en appliquant des règles, le collaborateur exploite en réalité des principes associés à la gouvernance des données. Mais, ils ne sont déployés qu’à son niveau fonctionnel et ne répondent donc potentiellement pas à une stratégie globale.

Vers une gouvernance stratégique

Les deux « types » de gouvernance décrits plus haut sont des initiatives isolées répondant à des problématiques et des contextes distincts, parfois contradictoires. Il s’agit d’une gouvernance des données qu’on peut qualifier de passive.

Passez d’une gouvernance des données passive
à une gouvernance des données active

Selon notre expérience, une gouvernance efficace doit être accompagnée d’une vision stratégique d’entreprise. Son développement vise à l’automatisation et la rationalisation des pratiques autour des données, ce qui implique aussi une plus grande collaboration, et une plus grande cohérence entre tous les processus de l’entreprise.

Un cas représentatif fréquemment rencontré est l’application des réglementations relatives à la protection des données personnelles, telles que le RGPD Européen ou la LPD Suisse. Elle nécessite l’implication de tous les services, sur une base commune – c’est à dire un langage et des pratiques déployés dans l’ensemble de l’entreprise.

Les préoccupations autour des données gravissent désormais les échelons de l’organisation.  Elles ne concernent plus uniquement la DSI, ni même une direction métier. L’évolution et l’élargissement des besoins entraînent une nécessité de modernisation des règles et des processus autour de la donnée.

La gouvernance des données est intrinsèque à l’alignement stratégique, c’est-à-dire qu’il faut que les décisions coïncident avec les objectifs de l’entreprise. Ce qui nécessite de comprendre ses objectifs globaux, de connaître son environnement technique et les métiers concernés afin d’assurer une cohérence globale et garantir son efficience.

Une impression de « déjà vu » ?

Nous mettons ici en évidence des problématiques récurrentes à l’origine de projets de data gouvernance. Ces situations sont des grands classiques qui s’appliquent à tous les domaines d’activité, quelle que soit la taille ou la maturité de l’entreprise.

Nous sommes certains que vous vous identifierez à au moins l’un de ces cas, et que c’est probablement ce qui vous a amené à lire notre article.

  • Notre qualité de données n’est pas optimale

Certains attributs manquent, nous avons des valeurs aberrantes, non renseignées, voire contradictoires… Ce qui aboutit à un manque de confiance dans l’information fournie, et parfois même à des mauvaises décisions.

  • Nous ne disposons pas d’une vue suffisamment précise de notre système d’information

Quand on parle Data, disposer d’une vision détaillée de son écosystème semble être une évidence, mais la réalité est souvent bien différente.

La multiplication des traitements, usages et outils ont conduit à la création de systèmes d’information complexes, combinant beaucoup de technologies. Ce qui rend les analyses d’impact difficiles, ou le lignage de données laborieux.

  • Personne n’est en mesure d’identifier qui peut valider l’utilisation d’une donnée

Il est difficile de savoir qui est responsable d’une donnée et de sa qualité. Vers qui se tourner quand on ne connaît pas le gestionnaire d’une information ? quelle est la source de vérité ? comment expliquer un indicateur ?..

  • Il y a peu de cohérence entre les différentes actions menées autour de la donnée

Chaque département résout ses problématiques indépendamment. L’organisation manque d’une vision unifiée, et l’absence d’une gouvernance efficace des données au sein d’une entreprise garantit surtout l’apparition de problèmes et l’émergence de risques autour des données.

Mais instaurer une gouvernance des données, c’est aussi et surtout favoriser la création de valeur à travers leur exploitation.

Et maintenant ?

Nous avons vu que la gouvernance des données commence par une prise de conscience, une identification des actions possibles et des points à améliorer, une gestion des priorités,  des responsabilités et des problématiques.

Dans les prochains articles, par le biais de « use-cases » concrets, vous découvrirez comment créer de la valeur grâce à une gouvernance stratégique garantissant une harmonie entre les objectifs, la stratégie de l’entreprise et les processus.

C’est ainsi qu’une entreprise bénéficie des avantages tangibles d’une approche « data-driven ».

Blog-Poster-talend-swiss-day

Talend Day Suisse 2019

Talend Day Suisse, un énorme succès

Mardi 26 novembre 2019 s’est tenu au Mandarin Oriental de Genève le premier Talend Day Suisse.

La Suisse a été mise à l’honneur par notre partenaire Talend avec un événement qui a rassemblé une cinquantaine de personnes.

Après une belle introduction de Jacques Padioleau, Regional VP sales pour la Suisse, la France, La Belgique et le Luxembourg, Christophe Toum, Director of Product Management, a présenté une rétrospective de la Roadmap 2019 et les ambitions pour 2020.

Les Transports Lausannois, à travers Bruno Marie, Responsable domaine SI, a ensuite détaillé leur utilisation des logiciels Talend et du Cloud.

Pour terminer cette matinée, Stéphane Poret, Directeur avant-vente EMEA, a déroulé une démonstration de Talend Cloud afin de montrer comment valoriser un capital Data.

Alors que retenir de cet évènement ?

Talend a mobilisé et déplacé de nombreuses personnes pour un marché Suisse important pour l’éditeur. Nos clients et prospects ont pu échanger sur de nombreux points, sans tabous, avec des personnes de la R&D ou encore du commerce.

Cet événement a été également l’occasion pour nous de mettre en relation certains de nos clients entre eux et de rencontrer des prospects. Il est intéressant de constater qu’un acteur spécialisé comme Synotis trouve facilement son public lors de telles rencontres.

La Roadmap et le produit étant au cœur de ce premier Talend Day Suisse, place à la « technique ».

La tête dans les nuages

La route empruntée par Talend est dans la continuité de ce que l’éditeur nous a présenté ces dernières années et lors du Talend connect 2019 : en route vers du cloud, et encore du cloud. Mais rien d’obligatoire, les versions « On Premise » continuent d’exister et de perdurer. L’équipe Talend présente a bien insisté sur ce point.

Cette transformation est faite de manière pragmatique. Il n’y aura pas de solutions full Cloud ou full « On Premise ». L’avenir est au mode hybride, que ce soit au niveau des produits Talend, ou des sources et des applications que l’on interroge avec Talend. La stratégie est « Cloud First » mais pas « Cloud Only ».

Les intérêts sont divers : Réduction de cout, délégation de l’administration à Talend, élasticité automatique, …

La vision globale : avoir tout un panel de services, d’applications à la manière d’un « app store ».

Le « Pipeline designer », un nouveau jouet

Cet outil est un savant mélange entre un studio (Job Designer / Route designer) et de la Data Preparation.

L’idée : permettre de développer des flux, pour le moment simples, à partir de différents datasets et en appliquant différentes transformations (agrégation, formatage, etc), des liaisons entre ces sources, et d’avoir un flux de sortie.

Outre le design et le choix des différentes règles/fonctions, une visualisation on-live de l’évolution des données au fil du traitement est disponible, facilitant le développement et les paramétrages.

N’hésitez pas à nous solliciter si vous souhaiter en savoir plus : contact@synotis.ch

Blog-Poster-talend-connect-2019-

Talend Connect 2019, vu de Suisse …

Déjà 2 semaines. Le 17 octobre 2019 s’est tenu le 7ème Talend Connect de l’histoire de Talend. C’est un événement majeur de ce mois d’Octobre, dont nous allons vous résumer ici les moments forts.

Tout d’abord, le Talend Connect Paris, c’est le grand événement annuel organisé par l’éditeur pour sa communauté, ses clients francophones et ses partenaires.

Des clients viennent témoigner de leurs expériences de l’utilisation de leurs logiciels, Laurent Bride (CIO et COO de Talend), nous parle de stratégie et Christophe Toum (Director of Product Management de Talend) nous parle de Road Map.

Nous avons toujours plaisir à y participer car nous y revoyons beaucoup de monde chez Talend mais également des clients/prospects. Cette année, étaient notamment présentes des personnes de l’ECA, des Transports Publics de la Région Lausannoise, de la Romande Energie et de Jaeger-LeCoultre.

Commençons par le début, cette année Talend Connect s’est tenu au Parc des Princes. Que nous soyons fans du Paris Saint-Germain ou non, le lieu ne laisse pas indifférent tant par sa grandeur que par l’aura qui s’en dégage.

Nous ne savons pas si le lieu y a joué un rôle mais la fréquentation à l’événement a battu des records. La Keynote, la Road Map et le retour d’expérience du Groupe Accor avec leur partenaire Snowflake ont fait salle comble.

Parlons d’ailleurs de cette Keynote, présentée par Laurent Bride.

Dans un monde en pleine mutation, les organisations doivent sans cesse s’adapter et évoluer. Dans ce contexte, le Cloud s’affiche comme un élément clé de la transformation des entreprises. Vous l’aurez compris, la stratégie de Talend est complètement tournée vers le Cloud. Afin de répondre à des besoins d’intégration sans cesse grandissants, la « scalabilité » des solutions est devenue cruciale pour traiter des volumes de données importants dans des délais courts. On notera par ailleurs que Talend repose sur AWS et Azure, ce second acteur pouvant être particulièrement intéressant pour le marché helvétique (https://www.ictjournal.ch/news/2019-08-28/microsoft-ouvre-son-cloud-suisse)

Mais rassurez vous, les solutions « On Premise » de Talend vont continuer à évoluer.

La Road Map

Parlons maintenant de la Road Map, présentée par Christophe Toum, Director of Product Management de Talend.

Présentons sans tarder Talend Data Fabric. C’est une plate-forme complète permettant de collecter, gouverner, transformer et partager l’ensemble des informations des entreprises. Cette plateforme est disponible On Premises, en multi-cloud ou en mode Hybrid. Elle permet aux clients de Talend de transformer de la donnée brute en donnée utile pour l’entreprise. La data est considérée de nos jours comme le nouvel Or noir, qu’il faut donc apprendre à raffiner.

En 2019, Talend s’est concentré sur 4 éléments :

  • Stitch Data Loader, solution de Data Ingestion intuitive dans le Cloud, entièrement managée pour démarrer vos processes analytiques rapidement
  • Talend Pipeline Designer : solution permettant d’ingérer de la donnée structurée et non structurée en Batch ou en Streaming
  • Talend Cloud dans Azure : pour les modules Data Intégration, Data Quality et Integration Big Data
  • Talend Data Inventory : permet de faire du Trust Score automatiquement agrégé sur une source à partir d’informations de Data Quality, de tags de certification, d’un rating utilisateurs et de la popularité.

Qu’est ce qui nous attend pour 2020 ?

Talend ambitionne de proposer la Data Fabric la plus avancée du marché.

Pour cela les efforts vont être réalisés sur les éléments suivants :

  • Orchestration avancée : orchestration basée dans le Cloud, ouverte et extensible
  • Pipelines avec SQL push-down : performance des pipelines avec les données co-logées en base de données
  • DQ rules : définition et application de règles de Data Quality pour toute la plate-forme
  • API Creator : pour passer du Dataset à une API en quelques clics.

En plus de tout cela, la plate-forme va devenir intelligente avec l’utilisation de l’Intelligence Artificielle pour le Design, les opérations et la Data.

Les objectifs sont de développer l’auto-apprentissage pour accélérer le design et identifier facilement les mauvaises pratiques pour les corriger, détecter automatiquement les changements de comportement à l’exécution afin de mieux prévenir les anomalies et identifier automatiquement les changements de pattern des Data pour détecter automatiquement les dérives.

Cette vue macro de la Road Map n’est évidemment pas exhaustive.

Si vous souhaitez avoir des précisions sur certains points, nous trouverons certainement les bons points d’entrée chez Talend pour vous restituer l’information que nous aurons l’autorisation de vous transmettre.

Ateliers techniques et métiers

L’après-midi fait place à deux types d’interactions : des retours clients d’une part et des ateliers techniques de l’autre.
Synotis au Talend Connect Paris 2019
Concernant la partie technique, la digestion n’attend pas et on démarre directement l’atelier “Votre nouvelle plateforme de données cloud”. On y découvre un cas d’usage de mise en place d’une plateforme Cloud Talend ainsi que les bonnes pratiques associées. La séance est animée, les retours d’expérience de l’assistance validés par un bracelet allumé en bleu en vert selon la réponse souhaitée. Un moyen efficace de procéder à un sondage dans une salle pleine. Un petit côté “Landsgemeinde des temps modernes”.

Sera présenté La puissance de Talend Cloud et du Pipeline Designer. On doit bien avouer que l’aisance de la part de l’animateur a de quoi faire pâlir un studio “Standard”. On y retrouve les éléments visuels de la Talend Data Stewardship et l’interface de Talend Data Preparation.

On enchaîne sur un atelier brassage de bière! Enfin, c’est ce que l’on croit dans un premier temps, mais derrière le Use Case léger , c’est du sérieux. Il s’agit d’un site Web de références de bières avec toutes les caractéristiques associées (type de bière, niveau d’amertume, couleur, degré d’alcool, etc) et qui propose un classement personnalisé des meilleures bières. Comment ? Grâce à des algorithmes de Machine Learning évidemment !

On y découvre une présentation de bout en bout, utilisant des briques qui font la force de l’architecture Talend , nouvelle et ancienne génération : des flux d’ingestion de la donnée (via le Pipeline, mais aussi possible avec Talend Data Integration ou Mediation), des traitements de qualité de données; les doublons sont envoyés en console de Stewardship. On remarque au passage que la qualité des données est cruciale dans les traitements en général, de Machine Learning en particulier dans ce cas-ci, car il est démontré que des données de mauvaise qualité entraînent une modification du classement final proposé à l’utilisateur. Une bière blanche ou une ambrée, c’est pas les mêmes saveurs ! L’intégration avec Azure se fait de manière aisée, les briques s’assemblent comme il se faut et on bénéficie de la puissance des technologies Cloud.

Le dernier atelier portait sur “L’optimisation des processus DevOps”.

Malheureusement, nous entamions déjà notre retour en train direction les rives du Léman…

En synthèse, cette année fut un grand cru. Le lieu, l’organisation, la qualité des Keynotes, la qualité des intervenants clients, les uses cases présentés et la présence nombreuse des clients/prospects Talend ont largement contribué au succès de cette édition 2019.

Nous remercions toutes les personnes qui ont contribué à faire de cet événement un moment exceptionnel. Spéciale dédicace au marketing pour cette organisation “quasi” Suisse.

Si vous souhaitez revoir les Keynotes, n’hésitez pas à visiter ce lien