Virtualisation et gouvernance de donnée, les deux pièces maîtresse de vos initiatives Self-bi

Virtualisation et gouvernance de donnée, les deux pièces maîtresse de vos initiatives Self-bi

Comment mettre en œuvre une BI Self Service Gouvernée ?

Lors de cette conférence, vous découvrirez à travers un cas d’usage concret, comment la gouvernance de données s’appuie sur deux solutions afin de déployer une BI self-service BI dans une logique de cohérence.

La virtualisation de données permettant de centraliser de manière agile l’ensemble des sources de données, indépendamment de leur emplacement et format, pour alimenter l’application BI. Le catalogue de données permettant de documenter au fil de l’eau les sources, les flux de données et les tableaux de bord afin de se placer en véritable référentiel de connaissance au niveau de l’organisation.

Découvrez le replay de notre conférence pour découvrir la complémentarité de Denodo et DataGalaxy dans le cadre de vos projets de déploiement self-service BI.

 

 

 

Comment adopter une approche zéro réplication pour intégrer des données ?

Interview Synotis #6 – Comment adopter une approche zéro réplication pour intégrer des données ?

Dans un projet IT, l’intégration de sources de données ayant différentes natures et différents formats est une source de coûts très importants. Découvrons ensemble comment Denodo optimise les temps d’intégration multi source et permet un accès unifié, sans répliquer ou déplacer les données, grâce à leur technologie de virtualisation des données.

Synotis mettra leur promesse à l’épreuve dans un format d’interview interactif de 45 minutes entre experts.

Rejoignez-nous pour cette interview en live le 20 mai 2021 de 11h à 11h45

 

Comment avoir une BI performante sur des grosses volumétries ?

Interview Synotis #5 – Comment avoir une BI performante sur des grosses volumétries ?

Qui n’a jamais rêvé d’accéder instantanément aux données de son entreprise, en un laps de temps record, pour pouvoir travailler sur ses tableaux de bord sans solliciter les services IT ?

Les 5 points clés de la technologie Indexima:

  • Moteur d’indexation ultra-rapide pour accélérer les requêtes de BI par 1000.
  • Coûts d’infrastructure et d’exploitation divisés par 20.
  • Elimine les besoins de cubes, d’extracts ou d’agrégations
  • Connexion en un clic à +100 sources de données et +20 outils de data visualisation.
  • Le tout piloté automatique par des algorithmes de machine learning

Bienvenue dans l’ère du ZERO Time To Data !
Comme à notre habitude, nous éprouverons leur promesse à travers une interview libre pour finir sur une démonstration en live.


Rejoignez nous pour cette interview en live le 6 mai 2020 à 11h et découvrez l’approche unique de notre partenaire Indexima !

Comment avoir une BI performante sur des grosses volumétries ?

Interview Synotis #4 – Comment documenter vos flux de données grâce à DataGalaxy ?

Pour cette première Interview Synotis 2021, nous avons choisi de vous parler de DataGalaxy, éditeur d’une solution Data catalog.

DataGalaxy est une solution visant à documenter votre écosystème data en produisant une base de connaissance d’entreprise issue de la collaboration entre les métiers et l’IT.
Les fonctionnalités innovantes, l’interface facile d’accès, et les possibilités de représentation infinies font de DataGalaxy une des meilleures solutions du marché.

Rejoignez nous pour cette interview en live le 22 Avril 2020 à 11h et découvrez l’approche unique de DataGalaxy permettant de connecter vos équipes et d’engager la dynamique pour tirer la pleine valeur de vos données.

Comment avoir une BI performante sur des grosses volumétries ?

Table ronde une gouvernance de données efficace

Mardi 29 septembre 2020, nous avons (enfin) eu la possibilité d’accueillir nos invités pour le déroulement de notre table ronde intitulée « Une gouvernance de données efficace ».

C’est donc à Genève que nous nous sommes retrouvés, dans une ambiance chaleureuse, tout en respectant une distanciation sociale obligatoire. Dans la grande salle du Mandarin Oriental, permettant à chacun de se sentir à son aise, nous avons accueilli Assia Garbinato de la #Romande Energie, Alain Rod et Vincent Teyssier de l’#ECA, accompagnés de Yoan Boulinguez et de Laurent Carlot représentants #Synotis CH. Le débat a été brillamment animé par Rodolphe Koller, rédacteur en chef de l’#ICT journal et animateur #Digital Circle.

Dans une seconde phase de notre matinée, nous avons rencontré trois éditeurs partenaires qui nous présenté leur outils d’accélération du déploiement d’une gouvernance de données efficace.

Pourquoi Synotis CH et la gouvernance de données ?

Synotis CH est un acteur reconnu des projets de Data Management en Romandie. La société intervient auprès de nombreuses organisations pour créer et améliorer des systèmes et des architectures de traitement de données. Ce sont ces mêmes clients qui ont sollicité l’entreprise pour les accompagner dans cette démarche de gouvernance. Ils ont considéré que pour parler de gouvernance de données, il fallait dépasser les grands discours théoriques, et savoir ce que représentait réellement les données et leurs différents traitements.
Lorsque l’on sait que Synotis CH est un grand spécialiste des traitements des données de référence, on comprend mieux sa légitimité toute naturelle à parler de gouvernance de données.

Quels sont les axes ou les approches de réponse ?

Aujourd’hui, le débat ne porte plus sur les besoins d’une gouvernance de données. Ce point semble acquis pour tout le monde, c’est une vraie réponse aux enjeux de digitalisation. Mais comment la mettre en œuvre de façon efficace ?

Dans un premier temps, Synotis CH a suivi la tendance historique qui était d’aborder la mise en œuvre de la gouvernance de données par une réponse organisationnelle. Le constat que nous faisons est qu’une nouvelle organisation a tendance à répondre en premier lieu à la gestion des risques, de façon défensive. Elle est en général considérée comme un « mal » nécessaire, mais non fédérateur car imposée par le management.
Nous nous sommes vite rendus compte des limites de cette démarche. Nous devons traiter un besoin de fluidité de la circulation de l’information entre les silos métiers. Il s’agit donc de déployer cette nouvelle organisation en développant la collaboration et la responsabilisation de ses acteurs. Une organisation est bien nécessaire, mais elle est une accompagnatrice, une animatrice.

Comment la Romande Energie et l’ECA ont-ils abordé le déploiement de la gouvernance des données ?

Les deux clients présents ont démarré leur démarche sous l’angle de la collaboration.
Ils ont en revanche opter pour des leviers différents, La romande à créer une Data Factory, et développé directement des cas d’usages techniques, en mode agile, en collaboration directe avec les métiers.

L’ECA, à longuement réfléchit sur la démarche, et a opter pour la mise en œuvre d’un catalogue de données. L’objectif est de pérenniser la connaissance sur les données et de faciliter le lignage afin de soutenir le projet de réorganisation des applications métiers.
Dans les deux cas, la démarche est la même : obtenir l’appropriation de la mise en œuvre de projets par les métiers, sous forme itérative, basée sur des cas d’usage variés, ou dans le cadre d’un projet plus large avec le catalogue de données comme support de collaboration. La réponse organisationnelle s’efface devant cette priorité, et les fonctions de Data Management s’imposent progressivement, au fur et à mesure du développement des cas d’usages.

Qu’en est-il de l’organisation ?

Dans ces deux situations, l’organisation n’est pas oubliée. Elle a déjà été réfléchie et sera positionnée progressivement au fur et à mesure de l’implémentation des cas d’usages. Elle s’articule essentiellement autour des sachants de la donnée, qu’ils soient dénommés Data Owner ou Data Advisor. Comme on le voit, l’axe principal de développement de la gouvernance de données n’est plus l’organisation mais la culture Data.
L’organisation doit intervenir en tant que garant, animateur et fédérateur transverse du déploiement des cas d’usages sinon ils risquent d’être si nombreux qu’ils pourraient devenir incontrôlables. D’autre part, il est important d’assurer à la fois la cohérence des traitements, mais aussi la conformité.
L’organisation de la gouvernance de données trouve également sa légitimité dans le support de la stratégie d’entreprise. Au-delà des structures récentes qui créent leurs valeurs sur la capacité de leurs collaborateurs à inventer de nouveaux axes de développement, l’entreprise a sa propre stratégie reposant sur un modèle d’activité ancré dans l’existant.

Qu’en concluez-vous ?

En se basant sur ses expériences, Synotis CH est convaincu que pour être efficace, un programme de gouvernance de données doit s’appuyer sur les deux axes de la culture et de l’organisation, avec des progrès mesurables, dans une démarche de progressivité.

La conjonction du développement sur ces deux axes apporte une efficacité maximale, et la capacité à supporter de nouveaux usages, et surtout à créer de nouvelles valeurs maîtrisées et cohérentes.
Il est indispensable de s’appuyer sur les deux leviers que sont le catalogue de données et sur une architecture adaptée et ouverte. Nous avons constaté que l’utilisation d’un catalogue de données est un excellent catalyseur. De la même manière, le déploiement progressif d’une architecture de données adaptée est un levier majeur.

Mais il ne faut pas oublier la valorisation des réussites. Assia nous a rappelé que sans un minimum de qualité, nos organisations ne fonctionneraient pas. Alors valorisons l’existant et rassurons.
C’est dans la confiance que la collaboration se développe. Réapproprions-nous la Data !

Pour conclure cette matinée chargée, Nous avons convié tous les acteurs autour d’un lunch, toujours en respectant les distances sanitaires, mais dans une ambiance animée.
Synotis CH a construit une offre pour vous accompagner dans votre démarche de déploiement d’une gouvernance de données efficace. Elle est progressive et non invasive avec pour objectif d’amener vos équipes vers l’autonomie. Il s’agit plus d’un transfert de compétence et de méthodologie axé sur le développement de la culture Data et de l’organisation de la gouvernance de données.

Blog-Poster-livre-blanc-data-governance

Livre blanc « Vers une gouvernance de données efficace »

Lors de notre évènement du 29 septembre nous avons annoncé la parution de notre livre blanc « Vers une gouvernance de données efficace »

Vous y trouverez notamment :
• Une remise à niveau sur les concepts de gouvernance
• Les objectifs de la gouvernance de données
• Nos clefs pour débuter un programme de gouvernance de données
• Les facteurs clés de succès identifiés par Synotis

Télécharger le en cliquant sur le bouton ci-dessous

Blog-Poster-data-gouvernance-culture-data

Gouvernance et culture Data, mêmes objectifs, même combat

Nos articles précédents ont mis en lumière la capacité de la gouvernance de données à répondre avec efficacité à certains cas d’usage, ainsi que son rôle pour aider les entreprises à prendre conscience du caractère essentiel du partage de l’information, dans l’économie moderne.

Depuis peu, émerge la notion de « culture Data ». En quoi consiste-t-elle et qu’implique-t-elle concrètement ? Peut-elle répondre à ce besoin de partage de l’information ?
Dans cet article, nous vous apportons des réponses claires, et vous démontrons dans quelle mesure la culture Data interagit de manière optimale avec la gouvernance des données.

Définition

La « culture Data » est un terme récent, rendu populaire par la réussite des GAFA. Dès leur création, ces entreprises ont basé leur business model sur l’exploitation des données, en développant une approche innovante d’appropriation, d’analyse et d’utilisation de volumes de données parfois gigantesques. Avec la prise de conscience de la valeur des données, cette tendance s’est progressivement répandue, pour finalement s’affirmer comme une culture d’entreprise à part entière, au sein de laquelle les données servent non seulement à créer de la connaissance, mais surtout à aiguiller la stratégie de l’entreprise. La « culture Data » était née.

Ni GAFA, ni start-up, et pourtant …

Dans les conférences sur la digitalisation, on se réfère souvent à l’histoire de Kodak, le géant de la fabrication et du traitement des pellicules photo argentiques. N’ayant pas su prendre le virage du numérique, l’entreprise a, en quelques années, quasiment disparu. Mais cet échec relève plus d’un changement profond des habitudes de consommation auquel Kodak n’a pas cru, que d’un problème inhérent à la transformation numérique de ses propres processus. L’exemple démontre à quel point une entreprise peut péricliter rapidement si elle ne fait pas évoluer son modèle économique. Rien de plus naturel.

Toutefois, les entreprises ne sont pas toutes confrontées à une disruption. L’enjeu pour la majorité d’entre elles n’est pas de se réinventer. Il s’agit plus classiquement de s’adapter au mieux et le plus rapidement possible aux nouvelles habitudes et exigences de leurs clients. La réponse réside clairement aujourd’hui dans la digitalisation des services.

Les changements pourraient paraître moins radicaux d’un point de vue stratégique, mais leur impact ne doit pas être négligé. La question consiste à comprendre comment passer d’un fonctionnement en silo, centré sur la satisfaction d’un objectif métier, à une circulation fluide de l’information pour répondre à des besoins multiples ?

Si une partie de la réponse relève de la technique, celle-ci ne résout pas tout. Le risque est de créer de nouveaux silos, avec des nouveaux métiers spécialisés dans le traitement des données, isolés de leurs collègues producteurs de données. Pour une réussite pérenne, l’entreprise doit prendre conscience de l’importance de la destination des données produites et des nouvelles utilisations potentielles, créatrices de connaissances et donc de valeur.

Ainsi, la Culture Data symbolise la prise de conscience généralisée et collective des acteurs de l’entreprise quant à l’importance et la valeur des données. La donnée produite par un service doit être accessible par tous, pour favoriser d’autres utilisations. Il s’agit, en réalité, d’étendre les notions de travail collaboratif à tout ce qui concerne les données. La culture Data rejoint ici de nombreux principes portés par la gouvernance des données.

Partager ses connaissances

D’innombrables projets de digitalisation foisonnent dans les entreprises aujourd’hui. Mais ils sont souvent freinés par des obstacles internes, principalement liés à la résistance au changement et à une faible compréhension des objectifs. Vos collaborateurs ont besoin de connaître les impacts que cette digitalisation aura sur leur rôle, ainsi que les conséquences sur leur travail quotidien.

Au même titre que la gouvernance des données, la culture Data est un ensemble de bonnes pratiques visant à étayer la cohérence des actions menées autour de la donnée. Chaque producteur et chaque utilisateur potentiel de données a besoin de s’approprier un nouveau mode de fonctionnement. En plus de son travail habituel, il doit comprendre où il se situe dans la chaîne de traitement de l’information et dans quelle mesure telle ou telle information peut être exploitée par d’autres services.

En schématisant, voici l’objectif simplifié du développement d’une culture Data :

objectif simplifié du développement d’une culture Data

Les données sont à la source de l’information. En impliquant fortement les collaborateurs, les informations sont transformées en connaissances pouvant mener à l’émergence de nouveaux usages.

Les spécialistes de l’IT savent qu’une architecture en silo est une vision de l’entreprise où chaque département agit de manière autonome pour satisfaire ses propres besoins et contraintes. La connaissance s’est calquée sur le même schéma dans les modèles d’entreprise standards jusqu’à former des silos informationnels. Ce sont des niches de savoir associées à un département, un métier, ou un domaine d’activité au sein de votre organisation.

Partager la connaissance représente un atout encore sous-estimé qui implique de changer de paradigme. Cette prise de conscience est impérative pour favoriser l’accessibilité, l’homogénéité et la cohérence des données. Développer une culture Data signifie en finir avec les architectures « silotées » et mettre la donnée au centre des échanges. Fini le travail isolé. Une donnée existe, elle a potentiellement de la valeur pour d’autres, et quand je la produis, au-delà de la réalisation de ma tâche, je me soucis de son utilisabilité pour les autres (qualité, complétude, fraîcheur, etc.). La collaboration et le partage de connaissances participent activement à la création de cette culture.

« La connaissance est la seule ressource, qui une fois partagée, s’en retrouve multipliée » Idriss Aberkane, « L’âge de la connaissance ».

Comment développer sa « culture Data » ?

Développer une culture Data n’est pas naturel pour des entreprises qui reposent sur des modes organisationnels traditionnels, souvent éloignés de ceux des start-ups. Il s’agit donc de la développer progressivement et de façon non invasive, en établissant prioritairement un plan de communication pour faciliter la prise de conscience et la sensibilisation. L’élaboration de plans de formation permettra en outre de partager un langage commun, tout en alertant les collaborateurs sur les conséquences d’un partage d’informations erronées.

L’utilisation de tous les supports de communication disponibles dans l’entreprise facilite bien sûr la circulation de l’information. Parmi eux, l’accès au catalogue des données doit être universel. Chacun doit pouvoir se situer dans la chaîne de traitement d’une information. C’est le meilleur moyen de prendre conscience de son importance et d’échanger avec ses collègues. Des actions de formation à l’utilisation du catalogue devront donc être menées régulièrement. (Dans notre prochain article, nous vous expliquerons dans quelle mesure un catalogue de données aide les organisations à gouverner leurs données et à développer une culture Data).

Les changements d’habitudes réclament du temps. Ils doivent être accompagnés pour s’inscrire dans la durée. Créer des espaces de partage en dehors des silos métiers permet d’optimiser la transversalité. La culture Data prend alors tout son sens et s’ancre dans la durée.

Tout changement peut poser problème à chacun de nous. Changer nous engage à sortir de notre zone de confort, ce que peu de personnes acceptent volontiers. Nous devons être convaincus que l’effort à fournir va nous apporter des bénéfices. Les leviers utilisés doivent donc être pertinents et s’adapter à la culture de l’entreprise. Ainsi, les agents d’une administration ont pour mission d’apporter un service aux citoyens. L’implication dont ils font preuve dans l’accomplissement de cette tâche est souvent admirable, et la seule idée qu’une erreur dans la communication d’information pourrait ternir l’image du service public est un excellent levier d’amélioration des pratiques.

Si elle n’est pas organisée, la mise en place d’une culture Data peut, de surcroît, aboutir à des situations erratiques autour de la donnée, notamment en favorisant des usages non conformes, mais aussi la transmission d’informations à des personnes non autorisées. Un cadre est nécessaire pour s’assurer que cette nouvelle culture Data ne soit pas un moteur de confusion pour l’entreprise.

Pas de culture Data sans gouvernance

La gouvernance de données et le développement d’une culture Data sont deux notions étroitement liées. Aborder le développement d’une stratégie Data et d’une culture associée est un projet dont la réussite est illusoire sans la mise en place de règles formelles. De la même manière, la gouvernance de données ne saurait exister sans le développement de politique du changement et d’éducation des parties prenantes.

Toutes les actions doivent être soutenues par une organisation pérenne. La gouvernance des données joue un rôle prépondérant, puisque c’est elle qui définit et met en œuvre les règles de fonctionnement liées aux données. Elle assure en outre un énorme travail de collecte et d’investigation, mais aussi d’organisation et de définition des responsabilités.

Grâce à la vision globale qu’elle procure, la gouvernance de données permet de réaliser des actions de communication interne selon la maturité de la culture Data et le niveau de déploiement d’actions de gouvernance (outils et mécanismes). La culture Data devient, en retour, un vecteur de communication pour la gouvernance.

Par définition, la gouvernance des données a un rôle d’arbitre et favorise le développement d’une culture autour de la donnée qui sera un vecteur de communication. Il est important de comprendre que l’interdépendance de ces deux disciplines est réelle et qu’il serait aberrant de les aborder séparément.

Blog-Poster-interview-datagalaxy

Interview Synotis #3 – Le Data Catalogue 360°, pour cartographier toutes les facettes de la donnée

Pour cette édition, des « Interview Synotis », nous avons choisi de vous présenter Data Galaxy, éditeur d’une solution Data catalogue.

Data Galaxy est une solution innovante visant à représenter votre écosystème en créant une base de connaissance d’entreprise produite en collaboration avec les métiers et l’IT. La plateforme offre les clés permettant de favoriser le déploiement d’une gouvernance de donnée efficace. Les fonctionnalités innovantes, l’interface facile d’accès, et les possibilités de représentation infinies font de DataGalaxy une des meilleures solutions du marché.

Découvrez notre interview en live le 3 septembre 2020 à 10h afin de découvrir l’approche unique de DataGalaxy qui vous permet de connecter vos équipes et d’engager la dynamique pour tirer la pleine valeur de vos données.

Blog-Poster-interview-talend

Interview Synotis #2 – Comment Talend souhaite révolutionner l’utilisation des Data avec Data Inventory ?

Pour cette seconde édition, des « Interview Synotis », Talend, un éditeur qu’on ne présente plus répondra à nos questions concernant sa toute dernière innovation Talend Data Inventory.

Pensez à votre expérience lorsque vous réservez un VTC, une chambre d’hôtel ou un restaurant dans un lieu qui ne vous est pas familier. Vous atteignez votre objectif en quelque clic avec une facilité déconcertante, et vous avez idée de la qualité du service que vous allez recevoir. Pendant ce temps-là, comment faites-vous pour consommer vos données ? C’est le chainon manquant qui vous empêche de tirer toute la valeur de vos données. Talend en a fait un pilier de sa Data Fabric.

Talend Data Inventory casse les silos en créant un point d’accès et de gouvernance unique à la donnée, la rendant ainsi réutilisable et partageable à travers toute l’organisation.
Les fonctionnalités de documentation automatisée, de notation automatique de la qualité au moyen d’un score de confiance et de profiling en font un outil simple et pragmatique qui apporte une valeur ajoutée immédiate à vos données.

Synotis vous propose de visionner l’interview pour découvrir ce qui à amener Talend à développer cette solution, ces cas d’usages, et les éléments
à considérer pour la mettre en oeuvre au sein des organisations.

Blog-Poster-datahub

Le Data Hub : Une circulation des données transparente, sécurisée et gouvernée

Alors que l’analyse de données est devenue indispensable pour outiller la croissance de toute entreprise, le concept de « Data Hub » attire l’attention de plus en plus de professionnels de la donnée, du fait de sa capacité à se positionner au cœur d’une stratégie globale de traitement de l’information. Mais comment positionner ce concept face aux architectures existantes, qui parfois viennent juste d’être déployées ? Un Data Hub va-t-il rendre obsolète mon Data Lake, ou va-t-il remplacer nos traditionnels Data Warehouse ? Et si je choisis de déployer un Data Hub, quels types de données vais-je y traiter et avec quels objectifs ? En résumé, le déploiement d’un Data Hub a-t-il du sens dans votre contexte et quels en seront les bénéfices ?
Mais avant de répondre à toutes ces questions, commençons par comprendre quelle est l’origine du concept de Data Hub.

Aborder le partage des données de manière isolée a conduit à la création d’environnements complexes

L’évolution des demandes de partage et d’intégration de données s’est faite graduellement. Les organisations y ont naturellement répondu en utilisant leurs architectures traditionnelles. Puis, les flux point à point se sont multipliés pour faire circuler les données à travers les silos, avec des traitements adaptés à chaque consommation, et une gouvernance réduite à sa plus simple expression. Cette stratégie a débouché sur des efforts informatiques ou technologiques disparates et cloisonnés, qui ont limité la capacité des producteurs et des consommateurs de données à interagir facilement. Dans le même temps, les échanges point à point ont généré de nouvelles difficultés. Dans les échanges inter-applicatifs, comment réconcilier les données d’un produit ou d’un client ? Et qui a raison en cas de conflit ? Ces interrogations ont fait émerger des besoins de gouvernance des données, principalement focussées sur les données de référence ou Master Data, avec parfois des arbitrages difficiles, et une intégration complexe dans les applications. Tous ces points ont mis en exergue des besoins de qualité, d’unicité, et de transparence que les architectures traditionnelles sont incapables de prendre en charge. Et c’est normal, elles n’ont pas été conçues pour ça.

De nouvelles solutions pour répondre à la multiplication des besoins de partage d’informations

Avec l’essor de la digitalisation des entreprises, de nouveaux besoins d’exploration des données ont vu le jour et toutes ces difficultés ont été démultipliées. Les services IT ont pu répondre par la mise en œuvre de bus d’échanges de données, en considérant toujours l’application métier avec ses données silotées comme la source unique de l’information. Pourtant, les besoins transactionnels des applications ne correspondent pas à tous les usages.
Parallèlement à ces difficultés, les obligations réglementaires sont devenues de plus en plus fortes. Que ce soit sur les données personnelles avec le RGPD européen, ou la révision de la LPD suisse qui en sera fortement influencée, ou encore sur les réglementations bancaires, toutes ont ajouté une complexité supplémentaire que la dispersion des informations ne contribue pas à réduire.
Pour de nombreuses entreprises, il est alors devenu indispensable de remplacer les anciennes interfaces point à point, et les flux de données manquant de médiation cohérente. Leur objectif est de réduire la complexité et la fragilité des mécanismes de partage des données, tout en progressant vers l’introduction d’une gouvernance cohérente, de définitions communes et d’une plus grande transparence dans la circulation des données au sein de l’organisation.
Alors, comment faire face, et surtout ne pas bouleverser des systèmes d’informations parfois fragiles ?

Choisir la bonne architecture en fonction du besoin

Certains responsables de données ont choisi de mettre en place une nouvelle architecture de type Data Lake.
Mais avant de développer, il est nécessaire de bien comprendre la finalité des trois types d’architecture Data existants, et le rôle qu’elles peuvent jouer dans une infrastructure moderne de gestion des données.
Toutes ces architectures s’alimentent selon les mêmes procédés. Leurs différences résident principalement dans la sélection des données candidates, dans le traitement des données reçues, et dans leurs usages.

Entrepôt de données ou Data Warehouse

Un entrepôt de données est une base de données relationnelle pensée et structurée de façon précise pour le reporting et les analyses de données. Il répond à des besoins analytiques prédéfinis et reproductibles, facilitant la prise de décision et les activités de type Business Intelligence. Ainsi, l’entrepôt de données est le mieux adapté aux exigences d’une sémantique cohérente, et répond à des cas d’utilisation très ciblés. D’ailleurs, les données stockées dans l’entrepôt sont agrégées selon les cas d’utilisation pour permettre aux utilisateurs d’y accéder rapidement et facilement.
La mise en œuvre d’entrepôts de données apporte des réponses performantes à des besoins analytiques complexes et identifiés, portant sur de grands volumes de données. La qualité des données y est généralement bonne. En revanche, ce type d’architecture est peu adapté à l’analyse exploratrice, et sa conception engendre généralement des déphasages entre la demande métier originale et la mise à disposition des indicateurs. Cette approche est à privilégier pour des indicateurs de performances clairement identifiés, à destination d’une large population. Le Data Warehouse est le fruit d’un processus d’industrialisation et de consolidation, avec une structuration forte des données.

Data Lake

Un Data Lake est un collecteur de données permettant de stocker et traiter une très large quantité et variété de données, structurées ou brutes (c’est-à-dire conservées dans leur format natif) pour une durée indéterminée. Cette méthode de stockage permet de faciliter la cohabitation entre les différents schémas et formes structurelles de données.
L’ensemble des données de l’entreprise est stocké au sein d’un seul Data Lake. Les données brutes côtoient les données transformées. Elles sont utilisées pour établir des rapports, pour en visualiser les contenus, pour l’analyse de données ou pour le Machine Learning, mais nécessitent des traitements manuels (préparation) de la part des utilisateurs.
Par la concentration des données de l’entreprise, le Data Lake devient la source unique de systèmes exploratoires, d’activités d’analyse, et de science des données, avec potentiellement un large éventail de sujets et de consommateurs.

Data Hub

Le terme de Data Hub est apparu il y a environ 4 ans. Il s’agit d’une convergence naturelle des concepts d’entrepôt de données et de Data Lake, répondant à des besoins mixtes.
Comme pour les Hubs d’aéroport ou de traitement logistique, le Data Hub traduit la concentration des informations en un lieu central et commun, servant de point de transit et de distribution jusqu’à de multiples destinations. Il se situe donc au centre des traitements et du stockage, et la variété des destinations n’est pas figée. Elle dépend principalement de la richesse des informations qu’il porte.

Le Data Hub assure donc les accès aux données stratégiques de l’entreprise, mais il peut aussi en assurer la persistance sur une plateforme de stockage, en regroupant un ensemble de données en provenance de systèmes d’informations multiples, ou au contraire être une passerelle entre les silos transactionnels et les points de consommation. Son objectif est de fournir une source de données unifiée et centralisée, qui permet un partage gérable et régi des données. Le Data Hub est donc un modèle architectural permettant la circulation et la gouvernance transparente des données. Les connexions entre producteurs et consommateurs s’établissent via le Data Hub, avec des contrôles de gouvernance et des modèles standards appliqués pour permettre un partage des données optimal.
Avec un Data Hub l’entreprise retrouve la capacité à maîtriser l’un de ses actifs les plus stratégiques : son capital données.

Pourquoi Synotis privilégie l’approche Data Hub ?

Son positionnement au centre des usages rend le Data Hub particulièrement efficace sur l’ensemble des sujets adressés par Synotis pour ses clients : qualité de données, gestion des données de référence, gouvernance et conformité des données, mais aussi de contrôle de la persistance et des cycles de vie.
La concentration des données permet l’homogénéisation des règles de traitement et de distribution, qui sont alors définies par la gouvernance, en collaboration avec tous les métiers.
En réalité, il n’existe pas une, mais des architectures Data Hub. Chacune pouvant répondre à des besoins différents :

  • Partager des données transactionnelles entre les processus opérationnels ;
  •  Assurer la cohérence des données de base essentielles entre les fonctions de l’entreprise ;
  • Fournir des données analytiques à un ensemble diversifié d’équipes d’analyse ;
  • Permettre aux populations de Data Scientist d’explorer et d’affiner les données.

Avec des choix technologiques adaptés, il est également possible de prendre en charge une combinaison de ses besoins.
Reposant sur le concept de modèles communs à toute l’entreprise, les Data Hub sont principalement axés sur de la sémantique cohérente, mais peuvent soutenir une série de cas d’utilisation (à la fois opérationnels et en soutien des besoins analytiques), et des stratégies de traitement (via des choix de persistance des données techniques, styles d’intégration et méthodes d’accès) :

Plate-forme de données de base ou données principales
Axé sur le partage cohérent des données principales (client, produit …) à travers les systèmes et les processus opérationnels de l’entreprise. Ce type de plate-forme est courant dans les organisations qui ont mis en œuvre des initiatives de gestion des données principales.

Plate-forme de données d’application
Se concentre sur les systèmes opérationnels complexes avec des fonctionnalités diverses. Le Data Hub sert de point central de contrôle et de partage des données clés dans le contexte d’une application ou d’une suite spécifique.

Plate-forme de données d’intégration
Un Data Hub axé sur l’intégration peut permettre le partage de tous les types de données (de base, transactionnelles, analytiques). Il utilise diverses techniques d’intégration des données, et des applications, pour traiter et fournir un large éventail de données répondant aux exigences de partage. Ce type de Data Hub peut également s’étendre au-delà des frontières de l’entreprise, permettant le partage de données avec des partenaires extérieurs (clients, fournisseurs, etc.).

Plate-forme de données de référence
Semblable aux Data Hub de données de base, et d’application, mais avec une focalisation étroite sur les « données de référence » (codes, tableaux, hiérarchies, etc.) couramment utilisées. Ces plateformes permettent un accès cohérent et une synchronisation de ces données, généralement entre les centres opérationnels et les systèmes d’analyses.

Plate-forme de données analytiques
En tant que point de collecte et de partage des données et des résultats analytiques, ce style de Data Hub peut prendre en charge l’approvisionnement en données de Data Warehouses et d’autres solutions analytiques. Elle permet principalement de mutualiser les efforts de traitement de qualité des données, et allège donc les systèmes producteurs.

Les caractéristiques de l’architecture Data Hub

Il convient de considérer cette architecture comme un ensemble de bonnes pratiques plutôt que comme une architecture figée et rigide. Ses implémentations peuvent prendre des formes variées, adaptées aux différents cas d’usage, et sa mise en œuvre relève plus d’un puzzle dans lequel peuvent s’imbriquer de nombreuses technologies. Mais elles sont toujours assemblées pour fournir un résultat cohérent et optimal.
Un Data Hub a pour avantage de pouvoir être intégré par étape, en privilégiant la prise en compte des axes les plus stratégiques de nos clients. Dans certains cas, la mise en persistance du capital données est prioritaire, dans d’autres, c’est la distribution d’information avec un traitement homogène de l’information. Le traitement des données de référence prend naturellement sa place au centre du système d’information.

Le Data Hub selon Synotis

Pour résumer en quelques mots, l’objectif d’un Data Hub est de rendre simple, abordable, facile, flexible, rapide et efficace, à la fois l’intégration, mais aussi l’utilisation de toutes les données, tout en assurant la sécurité et la gouvernance des données candidates au partage.

Nos experts architectes sont à votre disposition pour détailler les avantages d’une architecture Data Hub, en fonction du contexte propre à votre entreprise. Nous vous proposons d’étudier vos contraintes afin de vous apporter des réponses pragmatiques et de vous soutenir dans vos efforts de rationalisation de votre architecture Data.
contact@synotis.ch