Blog-Poster-interview-denodo

Interview Synotis : La Data Virtualization au service des architectures Data Hub

Les interviews Synotis : La Data Virtualization au service des architectures Data Hub

A l’ère de la transformation digitale, les équipes IT doivent plus que jamais booster la productivité de leurs opérations. Cependant, les volumes exponentiels des données à traiter, la diversification des sources et les limites des systèmes existants représentent un réel frein pour garantir une gestion agile, globale et sécurisée des données.

Face à ces défis, le Data Hub constitue un réel atout pour simplifier la vie des Chiefs Data Officers et des professionnels de l’IT. La force du Data Hub est d’améliorer la cohérence des données qui y transitent offrant une vue 360° fiable et compréhensible, tout en garantissant la gouvernance des données nécessaire à toute transformation digitale.

Pour en savoir plus, Synotis et Denodo vous proposent visionner la session interview abordant cette architecture de données.

Optimiser la qualité des données grâce à la Gouvernance

Dans notre précédent article, vous avez découvert pourquoi la gouvernance de donnée doit être actionnée en amont d’un projet de mise en conformité. Ici, notre propos est de mettre en relief les synergies entre une gouvernance efficace et la maîtrise de la qualité des données, afin d’aider les entreprises conscientes de l’importance du sujet, mais ne disposant pas des méthodes adaptées, à en matérialiser les bénéfices.

La qualité des données est souvent synonyme d’actions correctives, visant uniquement à en accroître l’utilisabilité, dans un contexte métier limité. A travers des exemples concrets, nous allons illustrer dans quelle mesure les problématiques de qualité de données peuvent être prises en charge avec plus d’efficacité, en s’appuyant sur des processus de gouvernance des données.

Qu’est-ce que la qualité des données ?

La qualité des données est un ensemble de critères visant à identifier la capacité d’une donnée à restituer de l’information, en se conformant aux usages prévus.

La qualité d’une donnée est donc évaluée selon les dimensions suivantes :

La disponibilité : L’information existe-elle ?
La conformité : L’information peut-elle être exploitée dans cet état ? Respecte-t-elle les règles métier qui la définissent ? (ex. : une adresse mail sans @ )
La véracité : L’information est-elle vraie et vérifiée ?
La cohérence : L’information est-elle toujours structurée de la même manière ?
Temporalité : L’information est-elle actualisée ? Quelle est sa fraîcheur ?

Certaines dimensions de la qualité de données sont relatives au contexte dans lequel elles sont évaluées .

La qualité des données étant une discipline tangible et pragmatique, il est par conséquent facile d’obtenir des indicateurs chiffrés et explicites qui en facilitent la gestion.

Dans un contexte de gouvernance, la qualité est sous-jacente à une notion plus globale : l’utilisabilité. Celle-ci traduit la capacité d’une donnée à être exploitée facilement et efficacement par un consommateur qui peut être une personne, un service ou un système. Elle est, par conséquent, adaptée à son usage.

Quelle sont les causes d’une mauvaise qualité de données ?

L’erreur humaine

Beaucoup de données sont générées par l’intermédiaire d’un opérateur humain. Par nature, nous devons donc nous attendre à traiter des erreurs involontaires.
En outre, la saisie intervient le plus souvent dans l’exécution d’une opération métier, avec un objectif précis qui n’est pas de générer de la donnée. Or, pour un opérateur, les interfaces applicatives ne sont qu’un moyen. L’accomplissement de cet objectif étant prioritaire, tout blocage doit être résolu immédiatement ou contourné. On se retrouve donc fréquemment avec des dossiers métier complets, mais dont les données ne sont pas toujours structurées efficacement, d’un point de vue technique. Ainsi, l’opérateur n’est pas toujours attentif à la qualité des informations qu’il transmet, mais plutôt à  la nécessité d’accomplir la tâche qui lui est attribuée.

Se pose donc la question de la conscience de la notion de qualité, et de la maîtrise de ses impacts globaux. Information et pédagogie sont ici essentielles.

L’absence d’outils adaptés

Au-delà de la dimension humaine, il est nécessaire de fournir aux différents intervenants des outils ou applications facilitant la création de donnée et respectant les critères d’utilisabilité. Grâce à des processus clairement définis et couvrant tout le spectre de l’activité, le risque d’erreur diminue.

Une responsabilité mal définie

En partant du postulat que la qualité des données est généralement perçue comme une discipline corrective, il n’est pas rare qu’elle relève de la seule responsabilité de l’IT qui doit alors mesurer les impacts métiers et prendre des mesures d’évaluation, mais sans pouvoir intervenir à la source pour corriger une donnée erronée. Elle peut également être traitée périodiquement par des spécialistes métiers, avant l’exécution de tâches plus globales qui exigent des vérifications en amont afin d’obtenir le résultat escompté, mais avec les mêmes difficultés sur les actions de correction.
Dans ces situations, la problématique n’est pas abordée de manière optimale. La conscience de l’utilisabilité est perdue par le producteur des données, les correctifs appliqués sont beaucoup moins efficaces, car le nombre de cas à traiter est difficile à évaluer et ne cesse d’évoluer, et plus personne n’est réellement responsable d’une donnée. Se pose donc la question des rôles et des responsabilités

La gouvernance au service de l’utilisabilité

La connaissance de l’écosystème, premier moteur de qualité

Un opérateur métier saisit un ensemble de données concernant des personnes. Ces informations sont de différents types (texte, date, …), et l’application utilisée ne propose qu’un nombre limité de contrôles de format ou d’obligations. Les personnes du service n’ont pas de connaissances spécifiques en matière d’informatique ou de donnée.

Cette situation est très répandue. Le service en question connaît son métier, mais n’a pas forcément conscience de tous les tenants et aboutissants de ses actions à l’échelle de l’entreprise. L’utilisateur n’est donc pas systématiquement attentif à la qualité des informations qu’il transmet, mais bien à la nécessité de remplir la tâche qui lui est attribuée, quels qu’en soient les moyens.
Ainsi, dans leurs activités quotidiennes, les utilisateurs peuvent faire des erreurs, laisser des champs vides, que ce soit volontairement ou non.
Une bonne connaissance du positionnement des utilisateurs dans l’écosystème de l’entreprise est capitale. En utilisant l’analyse de l’existant, la gouvernance des données met en lumière la provenance et la destination des données, du point de vue de l’utilisateur.
La gouvernance joue un rôle essentiel dans la sensibilisation et la responsabilisation du personnel vis-à-vis de la donnée, en élargissant son champ de vision. Son travail est un maillon de la chaîne globale, il a un impact sur d’autres processus et sur l’utilisabilité des données. De la même manière, ils subissent les erreurs survenues en amont.

Les utilisateurs ont été sensibilisés à la qualité de leur saisie, ils ont compris que leur rôle n’était pas limité à l’exécution de leurs tâches, et que leur travail est également à la base de celui d’une partie de leurs collègues.

Inscrire les processus existants dans une démarche globale

Un administrateur de base de données exécute un script afin de corriger des données directement dans la base. S’agit-il d’une action isolée ? Et comment en mesurer les conséquences ?

Il est évident que cette action remplit bien l’objectif à l’instant T qui est de corriger les données afin de respecter les critères d’utilisabilité. Cette action répond probablement à une demande d’un responsable qui a un besoin clairement identifié. Néanmoins, elle est exécutée dans un contexte restreint, et sans transparence. Et il y a fort à parier que dans quelques mois, une situation similaire réapparaîtra.
A minima, la gouvernance intervient dans le cadre d’une réflexion globale. Dans notre exemple, elle va déterminer s’il s’avère nécessaire d’intégrer ce script dans un flux global, avec la documentation et la traçabilité associées.
Mais l’idéal est d’éviter les actions de ce type, car elles relèvent de la correction plutôt que de la prévention.
La gouvernance de données permet d’identifier l’étape du cycle de vie de la donnée où ce défaut de qualité est apparu. Elle suscite ensuite la mise en œuvre en amont des processus qui éviteront cette situation.

Le DBA se consacre désormais pleinement à son domaine d’activité. La connaissance induite par son script est maintenant intégrée dans les processus de traitement qui ont été validés et documentés avec transparence.

L’émergence de nouveaux rôles – Tirer parti de la gouvernance pour assurer la continuité des actions

Le responsable de la facturation se rend compte que la simulation ne concorde pas avec les prévisions. Il doit en urgence identifier les problèmes et trouver des solutions correctives. Il contacte donc les responsables métiers impliqués dans la facturation.

Dans le cadre d’une problématique de qualité de données, les sujets sont pris en charge par les responsables métier afin de convenir de corrections à court terme, en vue de permettre la facturation. Il s’agit d’un objectif isolé avec une seule contrainte.
Or, ce processus entre souvent en collision avec l’activité métier habituelle. De plus, certaines corrections peuvent avoir des impacts sur les traitements métier déjà effectués (réouverture de dossier par exemple).

Grâce aux analyses d’impact et à l’étude des besoins d’utilisation des données, le développement d’une gouvernance aurait fait émerger le besoin de définir des rôles et des responsabilités. Par exemple, celui de data manager (ou data steward) qui a conscience des cas d’utilisation, et qui intervient en cohérence avec des objectifs croisés, identifiés.

Le data manager devient le garant de la qualité de ses données. Il définit des contrôles appliqués au fil de l’eau en prévention, et il s’assure que les critères d’utilisabilité soient respectés.

Depuis la nomination d’un data manager, le responsable de la facturation sait que la qualité des données est assurée. Il a d’ailleurs des tableaux de bord à sa disposition qui rendent le processus de contrôle transparent. Il collabore avec les responsables métiers qui peuvent aisément lisser et organiser les actions correctives. Les impacts des défauts de qualité sont bien mieux maîtrisés, et leurs conséquences anticipées.

La gouvernance garantit une utilisabilité maximale à tous les consommateurs

En matière de consommation de données, il n’existe pas de hiérarchie puisque in fine, quelle que soit la manière de les utiliser, toutes les données serviront à prendre des décisions ou à produire une information.

Or, il est primordial de favoriser une exploitation homogène, via des règles de traitement rationalisées. En s’appuyant sur la gouvernance de données, et en identifiant l’ensemble des destinations, il est possible d’homogénéiser les formats et les règles de traitement. Quand il y a trop de dispersion, la gouvernance ramène la cohérence. Elle peut d’ailleurs s’appuyer sur une architecture distribuée, telle qu’un Data Hub, qui facilite cette démarche.

En donnant plus d’importance au risque de défaut de qualité et plus de cohérence dans son traitement, la gouvernance de données apporte une dimension essentielle dans la gestion de votre actif. Souvenez-vous que la gouvernance de données est une activité métier. N’attendez plus que le service informatique fasse ce travail, il ne relève pas de sa responsabilité. Sa vocation est de supporter la mise en œuvre de processus techniques, pas métier.
En regroupant les métiers dans une démarche qualité commune, vous développez votre capacité à identifier les défauts de qualité et les actions correctives à mettre en œuvre. Vous favorisez donc la collaboration et l’esprit d’appartenance à un groupe cohérent.
Vous disposez maintenant d’un nouveau levier pour mettre en œuvre une gouvernance de données efficace, et donner une dimension plus stratégique à vos actions centrées sur la donnée.

Notre prochain et dernier article vous expliquera comment la gouvernance des données peut favoriser l’émergence d’une « culture data » qui amplifiera tous les bénéfices d’une gouvernance de données efficace.

Blog-Poster-gouvernance-conformité

La gouvernance des données au service de la conformité réglementaire

Le premier opus de notre série d’articles consacrés à la gouvernance des données, a livré une définition pragmatique de la démarche, tout en insistant sur son aspect stratégique. Afin de saisir les raccourcis que nous évoquerons au fil de ce nouvel article, nous vous invitons à le lire ou à le relire.

Alors que les entreprises prennent conscience de l’importance de maîtriser et garder sous contrôle leurs données et leurs modes d’exploitation, les gouvernements prennent très au sérieux la protection des informations personnelles. Chaque pays légifère et les évolutions réglementaires sont nombreuses. Désormais, plus de 120 pays disposent d’une loi nationale de protection des données personnelles. Conséquence, 59 % des entreprises déclarent, dans une étude de Deloitte, disposer d’un responsable de la conformité à temps plein.

Exemple de réglementation : Federal Financial Institutions Examination Council (FFIEC), EU GDPR, California CCPA …

Ne nous voilons pas la face, même si le jeu en vaut la chandelle, se conformer à ces diverses réglementations est une contrainte. Mais la conformité peut servir de socle à une gouvernance des données stable et pérenne. Nous vous expliquons ici comment inscrire cette démarche dans une dynamique de création de valeur qui bénéficiera durablement à l’ensemble de l’entreprise.

Gouvernance de données et conformité : une relation gagnant-gagnant

 

Se mettre en conformité consiste à instaurer un ensemble de règles garantissant le respect des directives, règlements et législations en vigueur dans un pays ou une région.

 

Le point commun de toutes ces nouvelles législations est d’exiger des organisations une capacité à démontrer, à tout moment, qu’elles maîtrisent les différentes utilisations de leurs données, et que celles-ci soient documentées et transparentes. Ces exigences les exposent à des risques légaux qui peuvent être importants, notamment en termes d’image ou financiers.

Par exemple, le GDPR (Règlement européen sur la protection des données) est composé de 40 articles qui forment autant de lignes directrices de la conformité.

Parmi ceux-ci figurent :

  • le respect des droits des utilisateurs (droit d’accès, droit à l’oubli…) ;
  • le respect des principes de traitement (limitation de conservation ; traitement licite, loyal et transparent ; intégrité des données) ;
  • l’analyse des risques et l’étude d’impact sur la vie privée ;
  • la tenue d’un registre des traitements.

La LPD suisse (Loi fédérale sur la protection des données) prévoit de s’appuyer sur ces mêmes principes et la tendance mondiale va dans le même sens.

La mise en conformité représente donc la démarche permettant d’aboutir à la mise en œuvre de solutions et de processus garantissant la prise en charge d’une réglementation.

Certains secteurs d’activité, comme la finance ou la santé, sont soumis à des réglementations particulières. Quel qu’en soit le périmètre, elles relèvent des mêmes principes, et les réponses à apporter répondent aux mêmes mécanismes.

Par exemple, la Banque centrale européenne (BCE) et le Comité de Bâle sur le contrôle bancaire (CBCB) ont publié 14 principes, connus sous la dénomination « BCBS 239 », qui couvrent le domaine de l’évaluation des risques et des actifs. Ils introduisent des principes d’intégrité des données, d’exhaustivité, d’actualité des valeurs, d’exactitude et de surveillance. En complément, l’annexe 3 de la circulaire FINMA (l’Autorité fédérale de surveillance des marchés financiers) impose le concept formel de gestion de la qualité, et la mise en œuvre d’une traçabilité sans faille des données d’ordre financier.

Gouvernance de données et conformité réglementaire : les synergies

1. La gouvernance impulse la transversalité des actions, la mise en conformité en a besoin !

 

Imaginez une unité métier démarrant un projet de mise en conformité.

Son objectif est de répondre point par point aux contraintes réglementaires. Le projet est mené à son terme, le métier a rempli tous les critères de conformité. Le projet est-il une réussite pour autant?

 

On peut, dans l’absolu, mener une démarche de mise en conformité par silo de données. Mais, dans ce cas, garantir l’homogénéité des décisions et des actions à l’échelle de l’entreprise relèvera de la gageure. À défaut d’actions fortes et pérennes de la direction, avec le temps, le projet isolé risque de s’enliser, entraînant progressivement une marginalisation des programmes de conformité.

Dans notre exemple, ce qui apparaît comme une réussite à l’échelle de l’unité métier, reste une initiative isolée, donc limitée.

Le facteur risque touchant l’ensemble de l’organisation, la mise en conformité doit bien évidemment être abordée à un niveau global. Ainsi, lors d’un contrôle de conformité réglementaire, il est primordial que l’ensemble de l’entreprise respecte les règles fixées.

La gouvernance des données et la mise en conformité sont des projets d’entreprise. Elles relèvent des mêmes ressorts et besoins de compréhension des informations. Dans un contexte de données en silo, la conformité de leurs usages sera plus cohérente si elle tire parti d’une gouvernance de données globale.

La gouvernance aide à structurer un plan de mise en œuvre, via un système de rôles et de responsabilités qui établit des processus organisationnels et techniques intégrant une dimension stratégique et de continuité, à l’échelle de toute l’entreprise.

 

2. La gouvernance s’appuie sur des rôles et responsabilités, la mise en conformité en a besoin !

 

Dans le contexte de la mise en œuvre d’une gestion stratégique des actifs de données, la gouvernance des données est définie comme l’activité qui organise et exerce l’autorité et le contrôle.

 

Imaginez une campagne marketing nécessitant l’utilisation d’un e-mail.
Au-delà de définir quel est l’e-mail le plus adéquat, nous devons surtout nous assurer que son utilisation est légale. Le processus de contrôle existant identifie plusieurs responsables… Qui peut nous apporter la réponse ?

La gouvernance répond à la traçabilité exigée par la conformité réglementaire, et assure que les actions et les processus définis prennent en compte toutes les dimensions nécessaires.

Elle vise à identifier les rôles et les responsabilités existants, afin de faire ressortir d’éventuelles contradictions ou incohérences. L’objectif est de créer un consensus qui redéfinit les rôles et les responsabilités, tout en leur donnant une cohérence globale.

Dans notre exemple, un processus utilisant la gouvernance aurait défini un seul responsable.

En ajoutant les composantes réglementaires, la conformité devient naturellement une extension ou une spécialisation de la gouvernance des données.

 

3. La gouvernance implique la formalisation de processus de traitement des données, la mise en conformité en a besoin !

 

Imaginez, qu’un client sollicite l’effacement de ses données.
Quel(s) processus garanti(ssen)t une réponse efficace à cette requête ?

Certaines données alimentent des cycles de transformation et des cas d’utilisation qui peuvent être très variés au sein de l’entreprise. La conformité a besoin d’identifier tous les cas d’utilisation des données, d’en connaître l’origine et les destinations, y compris à l’extérieur de l’entreprise.

Dans notre exemple, en l’absence de gouvernance, la mise en conformité aboutira à une réponse partielle à la problématique, du fait d’un positionnement stratégique inexistant.

Force est d’admettre qu’un projet de mise une conformité ne peut satisfaire ce type de demande. Pour y répondre, une organisation permanente est nécessaire, avec des processus de traitement de l’information associés. Ces derniers relèvent de la gouvernance, et au risque de nous répéter, s’inscrit dans une logique globale.

 

4. La gouvernance des données analyse l’existant, la mise en conformité en a besoin !

 

Le processus de mise en conformité commence. Nous connaissons le détail des législations qui définissent les périmètres d’action. Mais comment puis-je identifier et localiser les données et les traitements, puis évaluer les risques induits ?

En résumé, comment savoir ce qui est nécessaire pour garantir la conformité, sans maîtriser son écosystème de données ? Comment rendre conforme ce que l’on ne connaît pas ?

Il est essentiel d’appréhender le plus précisément possible la répartition des données présentes dans l’ensemble du SI de votre entreprise, en incluant également leurs transformations. La mise en conformité implique de dresser une cartographie détaillée de son écosystème, en identifiant chaque usage, chaque traitement et chaque intervenant.

Or, la gouvernance met en œuvre des processus d’identification et de classification des données, de leur contenu, de leur producteur et de leur utilisation. Parallèlement, elle désigne des responsables de données qui sont les sachants et jouent le rôle d’arbitre. En assurant une logique inter-métier, la gouvernance identifie les tenants et les aboutissants des utilisations, en général à l’aide d’un outil, tel qu’un catalogue de données.

On voit bien que les fondations construites par la gouvernance des données forment le socle sur lequel la mise en conformité doit s’appuyer. Elle peut parfois même orienter certaines activités de la gouvernance, et requérir son arbitrage pour satisfaire à ses obligations.

 

5. La gouvernance des données évalue les risques, la mise en conformité en a besoin !

 

Comme le démontrent les exemples précédents, il est primordial d’identifier l’ensemble des contraintes présentant des risques réels. Leurs conséquences pouvant être importantes pour l’ensemble de l’entreprise et même, dans certains cas, altérer le fonctionnement de certaines activités métier.

La priorisation et le management des risques devient donc une dimension essentielle à tout projet de mise en conformité. Or, la méthodologie déployée par la gouvernance de données implique la mise en œuvre de certains outils de sélection des périmètres. Il s’agit d’un excellent support pour intégrer la dimension risque.

Prenons, par exemple, la matrice de priorisation qui, dans le cadre de la gouvernance des données, vise à hiérarchiser les objectifs via un système de score.

Gouvernance de données et conformité : une relation gagnant-gagnant

Appliquée à un contexte de mise en conformité, ce type de matrice permet de prioriser l’évaluation du risque et de ses conséquences.
L’utilisation de cet outil donne une réalité aux risques et offre aux décideurs la transparence nécessaire à la prise de décisions.

Pour conclure, on comprend désormais qu’une grosse partie de l’activité de mise en conformité repose sur le travail effectué par la gouvernance de données. Si celle-ci n’existe pas, ce travail vous incombe naturellement, mais il est essentiel de ne pas perdre de vue la dimension globale des données. Inversement, si votre démarche de mise en conformité est déjà initiée, vous disposez d’un excellent levier pour mettre en œuvre une gouvernance de données, et donner une dimension plus stratégique à vos actions centrées sur la donnée.
Rendez-vous dans notre prochain article pour découvrir un cas d’usage concret.

Blog-Poster-gouvernance-tendance

La gouvernance des données : un moteur de création de valeur

Garantir la qualité, l’accessibilité et la sécurité de l’un de vos principaux actifs stratégiques : vos données

La gouvernance des données est-elle une énième tendance poussée par le marketing ?

Le concept peut paraître abstrait, car il est généralement abordé au travers de modèles et de concepts qui le rendent complexe, voire insaisissable. La difficulté consiste à lui donner une réalité, une existence, et à en simplifier la vision.
L’expérience accumulée auprès de nos clients nous permet d’affirmer qu’il s’agit d’un sujet réel, qui concerne toutes les organisations, qu’elle que soit leur dimension. Pour tirer le meilleur parti de leur capital données et en assurer la cohérence, elles doivent impérativement prendre conscience de la nécessité de s’appuyer sur ces principes de gouvernance.
Par l’intermédiaire d’une série d’articles, dont celui-ci est le premier, l’équipe « Data Gouvernance » de Synotis partage sa vision, fruit de ses expériences opérationnelles.

Pourquoi la donnée est aujourd’hui si stratégique ?

La donnée est désormais au cœur de l’ensemble des activités d’une entreprise. Les volumes de données qu’elle collecte ou crée ne cessent de croître. Leur exploitation ouvre de multiples perspectives : relation client, ciblage commercial, innovation et développement de nouveaux services, gestion des opérations quotidiennes, optimisation des processus métiers, etc. Plus ces usages se multiplient, plus la valeur des données augmente et plus il devient essentiel de s’assurer de leur qualité, de leur disponibilité, de leur fraîcheur (leur « utilisabilité »), et bien-sûr de leur sécurité. Avec la numérisation désormais aboutie des différents aspects de la gestion d’une entreprise, les systèmes gagnent en complexité, les infrastructures analytiques s’étendent et de nouveaux usages continuent de voir le jour, avec des risques inhérents et une valeur toujours plus importante.

D’où la nécessité impérieuse de bien gérer ces données, et d’en garantir l’exactitude et l’intégrité. La gouvernance des données, comme nous le verrons plus en détail dans cet article, consiste à identifier, classifier, gérer et contrôler les données, à travers de multiples processus métiers, acteurs et mécanismes de prise de décision, partagés à travers toute l’entreprise.
Selon une étude d’IDC, 42 % des managers ne disposent que de 24 h pour prendre une décision – souvent stratégique – généralement sans accès aux données critiques qui leur permettraient d’en garantir l’efficacité (seulement 30 % des données d’une entreprise sont ordinairement accessibles). Parallèlement, 64 % des chefs d’entreprise ont constaté que le temps consacré aux prises de décision s’est réduit lors des 12 derniers mois. Toutefois, une étude de BCG conclut que les entreprises ayant déployé une stratégie de marketing « data-driven » bénéficient d’une croissance de 20 % de leurs revenus, tout en réduisant les coûts de 30 %. Les entreprises les plus matures en matière de gouvernance des données « enregistrent un rapport coût-bénéfice 1,5 fois supérieur et un impact sur le chiffre d’affaires jusqu’à 2,5 fois supérieur aux autres ». Bienvenue dans un monde Data-Driven !

Qu’est-ce que la gouvernance des données ?

Plusieurs visions de la gouvernance des données coexistent aujourd’hui. Dans la réalité, chaque acteur peut proposer une interprétation différente, en fonction de son propre contexte.
Forte de l’expérience accumulée dans de multiples projets, Synotis a pour ambition d’offrir la vision la plus pragmatique possible, tirée de ses réussites et des différents écueils qu’elle a rencontrés pour mener à bien ces projets.

Entrons dans le vif du sujet, via une définition académique :

  • La gouvernance des données est l’activité qui organise, exerce l’autorité et le contrôle de la gestion des actifs données, au sein d’une organisation
  • C’est un système de droits, de décisions et de responsabilités, appliqué aux processus exploitant des informations
  • Il doit être exécuté selon des modèles convenus, qui décrivent :
    • qui peut prendre quelles mesures avec quelles informations ?
    • quand ?
    • dans quelles circonstances ?
    • selon quelles méthodes ?

On comprend donc qu’une gouvernance des données efficace nécessite la mise en place de processus permettant de fiabiliser les informations qui sont utilisées par des postes critiques, comme les décideurs ou la finance.

L’idée maîtresse de cette définition est que la gouvernance des données est un processus qui définit et organise les responsabilités. Qui est responsable de la création ou de l’actualisation de telle ou telle donnée ? Qui peut y accéder et pour quoi faire ? Qui garantit leur intégrité et leur sécurité ? etc.

Ainsi la gouvernance confie à des personnes la responsabilité de régler et de prévenir des problématiques liées aux données, tout au long de leur cycle de vie.

C’est donc un programme visant à améliorer et à maintenir des règles de gestion des données, celles-ci étant considérées comme un actif stratégique. La taille de votre organisation n’a pas d’importance. Si vos données ne sont pas régies de façon responsable, votre organisation court un risque, et ses capacités décisionnelles et opérationnelles en souffriront.

La gouvernance des données n’est pas un projet comme les autres avec un début, un milieu et une fin.
Il s’inscrit dans la stratégie d’entreprise, et donc, dans une certaine continuité.

Résumons :

  • La gouvernance des données est avant tout un projet d’entreprise
  • Elle détermine les activités à entreprendre pour gérer les données comme un véritable actif
  • Elle définit des rôles
  • et détermine des responsabilités, et les droits de décision des personnes qui s’occupent des données.

Pas de panique : vous faites déjà de la gouvernance des données !

Comme Monsieur Jourdain dans « Le Bourgeois gentilhomme » de Molière faisait de la prose sans le savoir, toutes les organisations pratiquent déjà la gouvernance des données dans le cadre de leurs activités quotidiennes.

En supervisant la gestion des risques, en mettant en œuvre la sécurité de l’information, en évaluant et en améliorant la qualité des données, en produisant des rapports, en analysant ou en partageant des données, vous recourrez à la gouvernance des données. Si vous avez mis en œuvre un ou des programme(s) de data management – qui consiste à collecter, stocker, exploiter et sécuriser les données de votre entreprise – par extension, vous faites de la gouvernance des données.

La gouvernance : mode d’emploi

Deux types de gouvernance existent aujourd’hui. Après une brève description, nous étudierons comment mettre en place une stratégie capable de les harmoniser.

La gouvernance technique

Vos activités quotidiennes de Data management et plus précisément des pratiques comme la gestion de la qualité de données (Data Quality), la gestion des données de référence (MDM), etc. s’inscrivent dans le cadre d’une gouvernance technique.

Il s’agit d’actions menées par des équipes techniques qui répondent à une partie des objectifs de gouvernance des données. Elles visent globalement à accroître l’utilisabilité et la valeur des données au sein de l’organisation. Il est donc naturel que ces pratiques soient associées à la vision de la gouvernance.

Toutefois, ces actions ou ces projets autour des données ont le plus souvent été planifiés dans des périmètres fonctionnels, des niveaux d’attentes et des processus différents. L’entreprise dispose dans ce cas d’une vision parcellaire d’une approche de gouvernance répondant à des problématiques isolées. Il n’existe pas de stratégie globale définie pour l’organisation ou même pour un domaine de l’organisation.

La gouvernance fonctionnelle

Toute organisation, comme son nom l’indique, déploie une gestion organisationnelle des processus. Il existe donc bel et bien une définition des rôles et des responsabilités des domaines fonctionnels de l’entreprise.

Prenons un exemple simple, si un responsable métier est en charge du contrôle de la saisie des données dans le CRM, il se voit attribuer un rôle et des responsabilités relatives aux données de son activité.

Nous pouvons donc en déduire qu’en appliquant des règles, le collaborateur exploite en réalité des principes associés à la gouvernance des données. Mais, ils ne sont déployés qu’à son niveau fonctionnel et ne répondent donc potentiellement pas à une stratégie globale.

Vers une gouvernance stratégique

Les deux « types » de gouvernance décrits plus haut sont des initiatives isolées répondant à des problématiques et des contextes distincts, parfois contradictoires. Il s’agit d’une gouvernance des données qu’on peut qualifier de passive.

Passez d’une gouvernance des données passive
à une gouvernance des données active

Selon notre expérience, une gouvernance efficace doit être accompagnée d’une vision stratégique d’entreprise. Son développement vise à l’automatisation et la rationalisation des pratiques autour des données, ce qui implique aussi une plus grande collaboration, et une plus grande cohérence entre tous les processus de l’entreprise.

Un cas représentatif fréquemment rencontré est l’application des réglementations relatives à la protection des données personnelles, telles que le RGPD Européen ou la LPD Suisse. Elle nécessite l’implication de tous les services, sur une base commune – c’est à dire un langage et des pratiques déployés dans l’ensemble de l’entreprise.

Les préoccupations autour des données gravissent désormais les échelons de l’organisation.  Elles ne concernent plus uniquement la DSI, ni même une direction métier. L’évolution et l’élargissement des besoins entraînent une nécessité de modernisation des règles et des processus autour de la donnée.

La gouvernance des données est intrinsèque à l’alignement stratégique, c’est-à-dire qu’il faut que les décisions coïncident avec les objectifs de l’entreprise. Ce qui nécessite de comprendre ses objectifs globaux, de connaître son environnement technique et les métiers concernés afin d’assurer une cohérence globale et garantir son efficience.

Une impression de « déjà vu » ?

Nous mettons ici en évidence des problématiques récurrentes à l’origine de projets de data gouvernance. Ces situations sont des grands classiques qui s’appliquent à tous les domaines d’activité, quelle que soit la taille ou la maturité de l’entreprise.

Nous sommes certains que vous vous identifierez à au moins l’un de ces cas, et que c’est probablement ce qui vous a amené à lire notre article.

  • Notre qualité de données n’est pas optimale

Certains attributs manquent, nous avons des valeurs aberrantes, non renseignées, voire contradictoires… Ce qui aboutit à un manque de confiance dans l’information fournie, et parfois même à des mauvaises décisions.

  • Nous ne disposons pas d’une vue suffisamment précise de notre système d’information

Quand on parle Data, disposer d’une vision détaillée de son écosystème semble être une évidence, mais la réalité est souvent bien différente.

La multiplication des traitements, usages et outils ont conduit à la création de systèmes d’information complexes, combinant beaucoup de technologies. Ce qui rend les analyses d’impact difficiles, ou le lignage de données laborieux.

  • Personne n’est en mesure d’identifier qui peut valider l’utilisation d’une donnée

Il est difficile de savoir qui est responsable d’une donnée et de sa qualité. Vers qui se tourner quand on ne connaît pas le gestionnaire d’une information ? quelle est la source de vérité ? comment expliquer un indicateur ?..

  • Il y a peu de cohérence entre les différentes actions menées autour de la donnée

Chaque département résout ses problématiques indépendamment. L’organisation manque d’une vision unifiée, et l’absence d’une gouvernance efficace des données au sein d’une entreprise garantit surtout l’apparition de problèmes et l’émergence de risques autour des données.

Mais instaurer une gouvernance des données, c’est aussi et surtout favoriser la création de valeur à travers leur exploitation.

Et maintenant ?

Nous avons vu que la gouvernance des données commence par une prise de conscience, une identification des actions possibles et des points à améliorer, une gestion des priorités,  des responsabilités et des problématiques.

Dans les prochains articles, par le biais de « use-cases » concrets, vous découvrirez comment créer de la valeur grâce à une gouvernance stratégique garantissant une harmonie entre les objectifs, la stratégie de l’entreprise et les processus.

C’est ainsi qu’une entreprise bénéficie des avantages tangibles d’une approche « data-driven ».

Blog-Poster-talend-swiss-day

Talend Day Suisse 2019

Talend Day Suisse, un énorme succès

Mardi 26 novembre 2019 s’est tenu au Mandarin Oriental de Genève le premier Talend Day Suisse.

La Suisse a été mise à l’honneur par notre partenaire Talend avec un événement qui a rassemblé une cinquantaine de personnes.

Après une belle introduction de Jacques Padioleau, Regional VP sales pour la Suisse, la France, La Belgique et le Luxembourg, Christophe Toum, Director of Product Management, a présenté une rétrospective de la Roadmap 2019 et les ambitions pour 2020.

Les Transports Lausannois, à travers Bruno Marie, Responsable domaine SI, a ensuite détaillé leur utilisation des logiciels Talend et du Cloud.

Pour terminer cette matinée, Stéphane Poret, Directeur avant-vente EMEA, a déroulé une démonstration de Talend Cloud afin de montrer comment valoriser un capital Data.

Alors que retenir de cet évènement ?

Talend a mobilisé et déplacé de nombreuses personnes pour un marché Suisse important pour l’éditeur. Nos clients et prospects ont pu échanger sur de nombreux points, sans tabous, avec des personnes de la R&D ou encore du commerce.

Cet événement a été également l’occasion pour nous de mettre en relation certains de nos clients entre eux et de rencontrer des prospects. Il est intéressant de constater qu’un acteur spécialisé comme Synotis trouve facilement son public lors de telles rencontres.

La Roadmap et le produit étant au cœur de ce premier Talend Day Suisse, place à la « technique ».

La tête dans les nuages

La route empruntée par Talend est dans la continuité de ce que l’éditeur nous a présenté ces dernières années et lors du Talend connect 2019 : en route vers du cloud, et encore du cloud. Mais rien d’obligatoire, les versions « On Premise » continuent d’exister et de perdurer. L’équipe Talend présente a bien insisté sur ce point.

Cette transformation est faite de manière pragmatique. Il n’y aura pas de solutions full Cloud ou full « On Premise ». L’avenir est au mode hybride, que ce soit au niveau des produits Talend, ou des sources et des applications que l’on interroge avec Talend. La stratégie est « Cloud First » mais pas « Cloud Only ».

Les intérêts sont divers : Réduction de cout, délégation de l’administration à Talend, élasticité automatique, …

La vision globale : avoir tout un panel de services, d’applications à la manière d’un « app store ».

Le « Pipeline designer », un nouveau jouet

Cet outil est un savant mélange entre un studio (Job Designer / Route designer) et de la Data Preparation.

L’idée : permettre de développer des flux, pour le moment simples, à partir de différents datasets et en appliquant différentes transformations (agrégation, formatage, etc), des liaisons entre ces sources, et d’avoir un flux de sortie.

Outre le design et le choix des différentes règles/fonctions, une visualisation on-live de l’évolution des données au fil du traitement est disponible, facilitant le développement et les paramétrages.

N’hésitez pas à nous solliciter si vous souhaiter en savoir plus : contact@synotis.ch

Blog-Poster-talend-connect-2019-

Talend Connect 2019, vu de Suisse …

Déjà 2 semaines. Le 17 octobre 2019 s’est tenu le 7ème Talend Connect de l’histoire de Talend. C’est un événement majeur de ce mois d’Octobre, dont nous allons vous résumer ici les moments forts.

Tout d’abord, le Talend Connect Paris, c’est le grand événement annuel organisé par l’éditeur pour sa communauté, ses clients francophones et ses partenaires.

Des clients viennent témoigner de leurs expériences de l’utilisation de leurs logiciels, Laurent Bride (CIO et COO de Talend), nous parle de stratégie et Christophe Toum (Director of Product Management de Talend) nous parle de Road Map.

Nous avons toujours plaisir à y participer car nous y revoyons beaucoup de monde chez Talend mais également des clients/prospects. Cette année, étaient notamment présentes des personnes de l’ECA, des Transports Publics de la Région Lausannoise, de la Romande Energie et de Jaeger-LeCoultre.

Commençons par le début, cette année Talend Connect s’est tenu au Parc des Princes. Que nous soyons fans du Paris Saint-Germain ou non, le lieu ne laisse pas indifférent tant par sa grandeur que par l’aura qui s’en dégage.

Nous ne savons pas si le lieu y a joué un rôle mais la fréquentation à l’événement a battu des records. La Keynote, la Road Map et le retour d’expérience du Groupe Accor avec leur partenaire Snowflake ont fait salle comble.

Parlons d’ailleurs de cette Keynote, présentée par Laurent Bride.

Dans un monde en pleine mutation, les organisations doivent sans cesse s’adapter et évoluer. Dans ce contexte, le Cloud s’affiche comme un élément clé de la transformation des entreprises. Vous l’aurez compris, la stratégie de Talend est complètement tournée vers le Cloud. Afin de répondre à des besoins d’intégration sans cesse grandissants, la « scalabilité » des solutions est devenue cruciale pour traiter des volumes de données importants dans des délais courts. On notera par ailleurs que Talend repose sur AWS et Azure, ce second acteur pouvant être particulièrement intéressant pour le marché helvétique (https://www.ictjournal.ch/news/2019-08-28/microsoft-ouvre-son-cloud-suisse)

Mais rassurez vous, les solutions « On Premise » de Talend vont continuer à évoluer.

La Road Map

Parlons maintenant de la Road Map, présentée par Christophe Toum, Director of Product Management de Talend.

Présentons sans tarder Talend Data Fabric. C’est une plate-forme complète permettant de collecter, gouverner, transformer et partager l’ensemble des informations des entreprises. Cette plateforme est disponible On Premises, en multi-cloud ou en mode Hybrid. Elle permet aux clients de Talend de transformer de la donnée brute en donnée utile pour l’entreprise. La data est considérée de nos jours comme le nouvel Or noir, qu’il faut donc apprendre à raffiner.

En 2019, Talend s’est concentré sur 4 éléments :

  • Stitch Data Loader, solution de Data Ingestion intuitive dans le Cloud, entièrement managée pour démarrer vos processes analytiques rapidement
  • Talend Pipeline Designer : solution permettant d’ingérer de la donnée structurée et non structurée en Batch ou en Streaming
  • Talend Cloud dans Azure : pour les modules Data Intégration, Data Quality et Integration Big Data
  • Talend Data Inventory : permet de faire du Trust Score automatiquement agrégé sur une source à partir d’informations de Data Quality, de tags de certification, d’un rating utilisateurs et de la popularité.

Qu’est ce qui nous attend pour 2020 ?

Talend ambitionne de proposer la Data Fabric la plus avancée du marché.

Pour cela les efforts vont être réalisés sur les éléments suivants :

  • Orchestration avancée : orchestration basée dans le Cloud, ouverte et extensible
  • Pipelines avec SQL push-down : performance des pipelines avec les données co-logées en base de données
  • DQ rules : définition et application de règles de Data Quality pour toute la plate-forme
  • API Creator : pour passer du Dataset à une API en quelques clics.

En plus de tout cela, la plate-forme va devenir intelligente avec l’utilisation de l’Intelligence Artificielle pour le Design, les opérations et la Data.

Les objectifs sont de développer l’auto-apprentissage pour accélérer le design et identifier facilement les mauvaises pratiques pour les corriger, détecter automatiquement les changements de comportement à l’exécution afin de mieux prévenir les anomalies et identifier automatiquement les changements de pattern des Data pour détecter automatiquement les dérives.

Cette vue macro de la Road Map n’est évidemment pas exhaustive.

Si vous souhaitez avoir des précisions sur certains points, nous trouverons certainement les bons points d’entrée chez Talend pour vous restituer l’information que nous aurons l’autorisation de vous transmettre.

Ateliers techniques et métiers

L’après-midi fait place à deux types d’interactions : des retours clients d’une part et des ateliers techniques de l’autre.
Synotis au Talend Connect Paris 2019
Concernant la partie technique, la digestion n’attend pas et on démarre directement l’atelier “Votre nouvelle plateforme de données cloud”. On y découvre un cas d’usage de mise en place d’une plateforme Cloud Talend ainsi que les bonnes pratiques associées. La séance est animée, les retours d’expérience de l’assistance validés par un bracelet allumé en bleu en vert selon la réponse souhaitée. Un moyen efficace de procéder à un sondage dans une salle pleine. Un petit côté “Landsgemeinde des temps modernes”.

Sera présenté La puissance de Talend Cloud et du Pipeline Designer. On doit bien avouer que l’aisance de la part de l’animateur a de quoi faire pâlir un studio “Standard”. On y retrouve les éléments visuels de la Talend Data Stewardship et l’interface de Talend Data Preparation.

On enchaîne sur un atelier brassage de bière! Enfin, c’est ce que l’on croit dans un premier temps, mais derrière le Use Case léger , c’est du sérieux. Il s’agit d’un site Web de références de bières avec toutes les caractéristiques associées (type de bière, niveau d’amertume, couleur, degré d’alcool, etc) et qui propose un classement personnalisé des meilleures bières. Comment ? Grâce à des algorithmes de Machine Learning évidemment !

On y découvre une présentation de bout en bout, utilisant des briques qui font la force de l’architecture Talend , nouvelle et ancienne génération : des flux d’ingestion de la donnée (via le Pipeline, mais aussi possible avec Talend Data Integration ou Mediation), des traitements de qualité de données; les doublons sont envoyés en console de Stewardship. On remarque au passage que la qualité des données est cruciale dans les traitements en général, de Machine Learning en particulier dans ce cas-ci, car il est démontré que des données de mauvaise qualité entraînent une modification du classement final proposé à l’utilisateur. Une bière blanche ou une ambrée, c’est pas les mêmes saveurs ! L’intégration avec Azure se fait de manière aisée, les briques s’assemblent comme il se faut et on bénéficie de la puissance des technologies Cloud.

Le dernier atelier portait sur “L’optimisation des processus DevOps”.

Malheureusement, nous entamions déjà notre retour en train direction les rives du Léman…

En synthèse, cette année fut un grand cru. Le lieu, l’organisation, la qualité des Keynotes, la qualité des intervenants clients, les uses cases présentés et la présence nombreuse des clients/prospects Talend ont largement contribué au succès de cette édition 2019.

Nous remercions toutes les personnes qui ont contribué à faire de cet événement un moment exceptionnel. Spéciale dédicace au marketing pour cette organisation “quasi” Suisse.

Si vous souhaitez revoir les Keynotes, n’hésitez pas à visiter ce lien

Blog-Poster-seminaire-synotis

Séminaire d’entreprise Synotis – Zermatt 2019

Zermatt 2019 – jour 1 : un peu de travail et beaucoup de rigolade

Après de nombreux échanges afin de nous mettre d’accord sur le lieu et sur les activités, un consensus fut trouvé et notre séminaire d’entreprise annuel nous a mené à Zermatt. Station de ski suisse emblématique, cette destination est tout autant appréciée l’été. C’est donc avec impatience que l’ensemble de l’équipe Synotis attendait le jour J pour se rend dans ce havre de paix montagnard.

Après un joli voyage en train, les affaires déposées dans nos chambres et un copieux petit déjeuner, nous nous sommes attelés à la tâche.

La matinée fut riche en échanges et en discussions autour du thème de la Data. Un brainstorming en équipe est toujours un moment apprécié par tous.

Pour clore ce premier épisode, un repas nous attendait, mêlant sans distinction chacune des équipes de consultants et nous permettant d’échanger sur des sujets divers et variés. Un bon moment de convivialité, important pour la cohésion d’équipe quand on sait que le reste de l’année, nous sommes chez nos clients respectifs.

Séminaire synotis

Après une nouvelle séance de brainstorming, courte, nous nous sommes mis en route vers le Gornergrat, situé à plus de 3000 m d’altitude pour y faire un apéro en altitude. Quelle vue magnifique sur le Cervin (Matterhorn en Allemand). Les verres s’enchaînent, et les esclaffades aussi ! Malgré l’altitude, personne n’a été malade.

Séminaire synotis

Le temps de prendre quelques belles photos et nous prirent le chemin de la redescente sur Zermatt où nous attendait une soirée riche en émotion dont nous garderons les images secrète (à bon entendeur).

Ce qui se passe à Zermatt reste à Zermatt.

Semaine entreprise à Zermatt Synotis

Zermatt 2019 – J 2 : Sous le signe de l’effort.

Séminaire Synotis à Zermatt SuisseAprès avoir été consultée, les équipes Synotis ont opté pour une montée en E-Bike (VTT électrique) vers le Sunnegga. Après une soirée éprouvante, nous poursuivons donc notre séminaire sous le signe de l’effort.

Au programme une ascension de 900m de dénivelé positif qui aura duré 1h30. Pour la plupart d’entre nous, cette discipline fut une découverte et, pour certains, une révélation. La pratiquer dans ce cadre idyllique a finalement eu comme conséquence de reposer les esprits à défaut des organismes.  A l’arrivée, un repas bien mérité au Adler accompagné d’une vue imprenable sur tout le Cervin.

L'équipe Synotis à Zermatt

Il est déjà 14h, il est temps pour nous d’aborder la partie la plus plaisante, la descente ! C’est énergique et fort en sensation, une heure de descente en VTT jusqu’à Zermatt.
Petite anecdote, un membre de l’équipe a crevé le pneu arrière après 500 m de descente. Son aventure s’est terminée à pied pour son plus grand désespoir. L’heure est désormais à la dispersion pour reprendre le chemin vers un week-end plus paisible en famille.
C’est ainsi que s’achève ce merveilleux week-end de séminaire 2019.

Blog-Poster-tableau-new-data-model

Nous avons testé : Tableau’s New Data Model

New Data Model Tableau (Pre-Release)

Tableau avait annoncé le déploiement d’une nouvelle interface de gestion des sources de données sur Tableau desktop lors de la TC18. Ce « New Data Model » est désormais au stade de Pre release, mais cette innovation est à mon sens très prometteuse.
Les nouvelles capacités de modélisation de données augmenteront principalement les capacités et la simplicité d’analyse, ainsi que les performances, et faciliteront la maintenance. Ce « New Data Model » permettra également de réduire sensiblement le nombre de sources nécessaires à une organisation. Trop beau pour être vrai ?! C’est ce que nous avons testé.
Le système de modélisation de sources de donnée actuellement en place (2019.2) transforme les jointures entre les différentes tables en une seule table à plat. Ce mode de fonctionnement engendre une duplication des données et peut potentiellement induire une baisse de performance. C’est ainsi que naissent les problématiques standards de niveau de détail (LOD).
Le « New data model Tableau» devrait nous permettre de définir des relations entre tables à différents niveaux de détail dans une seule source de données. Les relations seront donc dynamiques par rapport au contexte de la vue.
Cette nouveauté implique la disparition de la définition des types de relation (iner, left, right, full). Ils sont automatiquement attribués en fonction des champs utilisés dans la vue. Et qui dis moins de jointures, parle automatiquement d’amélioration des performances !
Cette innovation est sans nul doute un changement fondamental dans la façon dont Tableau génère des requêtes. Cela devrait impacter assez fortement les développements (futurs, et passés) sur Tableau.
Si vous souhaitez effectuer vos propres tests, vous pouvez télécharger la Pre-release ci-dessous, pour les plus pragmatiques, vous pouvez vous en remettre à notre test !

Simplifier le processus de modélisation des données

Tableau peut s’appuyer sur votre schéma de base de données en étoile ou en flocons existants afin de créer automatiquement des relations dans vos données, ce qui vous permet d’accéder à la phase d’analyse plus rapidement et sans avoir besoin de connaissance du modèle de la BDD.
 

Une expérience d’analyse plus intuitive

Coupez et découpez des données plus complexes en toute confiance, car Tableau comprend et gère le niveau de détail de vos données, en tenant compte automatiquement de nombreux scénarios de duplication de données et en vous assurant d’obtenir des résultats précis sans avoir à effectuer de calculs LOD.
Cette contrainte pouvait être difficile à appréhender pour un utilisateur métier faisant des analyses ad hoc. Cela avait comme potentielle incidence d’entrainer de la confusion et un rejet de l’outil.
Grâce au nouveau modèle de données, cette contrainte n’existe plus. Tableau ajuste automatiquement sont niveau de calcul en fonction de la vue. Les tests que nous avons effectués ont été concluants (voir vidéo).

Sources de données plus performantes

Grâce à cette nouvelle fonctionnalité, Tableau requêtera désormais uniquement les tables utilisées dans le tableau de bord. Vu qu’il y aura moins de jointures et de calculs, nous aboutirons à une nette amélioration des performances.

Moins de sources de données à maintenir

Les sources de données utilisables par tableau pouvant être désormais plus génériques et complexes, elles peuvent donc répondre à une plus grande variété de questions. De ce fait, les organisations seront en mesure de réduire le nombre de sources de données distinctes qu’elles créent et gèrent.
 

Notre Test :

Nous avons choisi de tester la promesse la plus sexy de ce nouveau data modèle : la génération de requête contextuelle en fonction de la vue.
Pour ce faire, nous nous sommes servis du dataset « Exemple-Hypermarché » que nous avons modifié en créant une colonne year(date de commande) pour effectuer la liaison dans la Pre-release et d’un dataset complémentaire traitant des budgets par année, pays et catégorie de produit.
Vous pourrez refaire ce test vous-même en installant la Pre-release Tableau (Windows & OSX) et l’exemple disponible en téléchargement ci-dessous.     
Découvrez notre test en live avec cette petite vidéo. 

Conclusion
Nous rappelons que nous traitons dans cet article d’une Pre-realease et qu’il faut rester attentif à la finalisation du développement de ce feature. Nous allons suivre l’évolution et nous ne manquerons pas de vous tenir au courant de l’avancement.

visionner

Blog-Poster-comparative-tableau-vs-powerbi

Comparatif Tableau VS Power BI

La recherche et la veille sur les solutions BI est toujours un exercice difficile, les produits du marché se livrant une concurrence acharnée aboutissant à une uniformisation des fonctionnalités et à un lissage des avantages concurrentiels.
En qualité d’expert de la DataViz, je tiens tout de même à souligner qu’il subsiste des points de différences majeurs qui vous aideront probablement à faire ce choix difficile ou à vous conforter dans votre décision.

Je vous ai donc préparé pour la suite de ce billet un bref comparatif des outils de data visualisation du marché.

BancMark

Ce mapping fourni par Gartner Research nous en dit un peu plus sur l’état du marché et nous constatons très clairement que tableau et Power BI se place aisément sur le haut du podium suivi de près par Qlik. Le marché reste donc relativement stable par rapport à 2017.

tableau software

 

Fondée en 2003, Tableau est LA référence en matière de data visualisation et a su maintenir cet avantage sur ces 10 dernières années.
Voici les arguments qui font encore fortement pencher la balance en faveur de Tableau.

Points forts

Soyons clair dès le départ : si vous voulez la crème de la crème de la crème, tous les autres facteurs mis à part, Tableau est la solution que nous préconisons dans la plupart des cas à tous nos interlocuteurs.
Une décennie d’expérience dans la visualisation des données confère à tableau plusieurs éléments différenciants :

  • L’ergonomie du produit, la communauté Tableau,
  • Le support produit,
  • Les options de déploiement flexibles,
  • La gamme de visualisations et les possibilités quasi infinies,
  • La disposition de l’interface utilisateur,
  • La diffusion aisée des visualisations,
  • Les capacités intuitives d’exploration des données,
  • La flexibilité.

La flexibilité est le mot qu’il faut retenir quand on pense à Tableau. D’après ma propre expérience, les fonctionnalités de Tableau du point de vue de l’utilisateur final sont beaucoup plus avancées que le Magic Quadrant de Gartner (ci-dessus) ne le laisse entendre.

Tableau a construit son produit sur la philosophie du « voir et explorer » les données. Tableau est conçu pour créer des visuels interactifs. Les fonctionnalités des produits Tableau ont été implémentées de telle sorte que l’utilisateur doit pouvoir poser une question sur ses données et obtenir une réponse presque immédiatement en manipulant les outils à sa disposition. Et, de facto, si votre besoin est simplement de générer des rapports, Tableau peut s’avérer sur-dimensionné.

Tableau est également beaucoup plus flexible dans son déploiement que Power BI. Tableau peut être acheté sur un modèle de souscription puis installé dans le cloud ou sur un serveur sur site (On Premise).

Enfin, Tableau est à l’écoute des retours/besoins de sa communauté. Ce qui permet lors des mises à jour d’avoir des améliorations significatives en termes de performances dans certains cas ou encore à des nouvelles fonctionnalités (comme par exemple la mise en place de Dashboard Extension).

Ses faiblesses

Malheureusement, Tableau a un coût. Lorsqu’il s’agit de l’investissement nécessaire à l’achat et à la mise en production de Tableau, il sera dans la plupart des cas plus cher que Power BI. (Retrouvez le pricing ici)

Les projets de Tableau s’accompagnent souvent d’une refonte de la structure de stockage des données, ce qui augmente les coûts du projet. Néanmoins, les entreprises ayant fait ce choix sont celle qui tire le meilleur parti de Tableau.

 

Power BI

 

Power BI est l’option de visualisation des données dans la suite office365 de Microsoft.
Lancée en 2013, cette solution a rapidement repris du terrain à Tableau. Lorsque vous regardez le dernier Magic Quadrant BI de Gartner, vous remarquerez que Microsoft est plus ou moins équivalent à Tableau en termes de fonctionnalités. Intégré dans la Stack Microsoft Power Bi possède un grand avantage qui contribue fortement à sa position dans le Quadrant.

Ses forces

Bien que Tableau soit toujours considéré par beaucoup comme la référence, Power BI est fondamentalement comparable à Tableau

Comme je l’ai mentionné, l’un des points forts de Power BI est qu’il est disponible dans le stack ainsi Microsoft encourage vivement l’utilisation de cet outil pour visualiser les données de Power BI et également faire du Dashboarding.

Parce que Power BI était à l’origine un produit principalement basé sur Excel, et parce que les premiers à adopter les produits Microsoft sont souvent des utilisateurs plus techniques, mon expérience personnelle est que Power BI est particulièrement adapté pour créer et afficher des tableaux de bord et rapports de base.

 

La plus grande force de Power BI, est son rapport qualité / prix pour des besoins simples en reporting. Pour un produit totalement comparable au leader de la catégorie, il est gratuit pour les utilisateurs d’Office 365.
Son prix est de CHF 9.80 /HT par utilisateur et par mois pour une licence « Pro ».
L’aspect financier est un critère que nous retrouvons souvent chez nos clients  comme étant un critère de choix important.
Retrouvez le pricing Power BI ici

Mais les entreprises qui se préparent à « investir » réellement dans la BI sont plus susceptibles d’envisager Tableau.

Ses Faiblesse

Comme je l’ai mentionné, Tableau a toujours un léger avantage sur Power BI en ce qui concerne les détails des fonctionnalités des produits, principalement en raison de leurs 10 an d’avance.

Ainsi Power BI possède à mon sens des lacunes lors de besoins de réalisation très spécifique.

 

Pour conclure

En synthèse, Tableau est le leader du marché mais son leadership est de plus en plus souvent contesté par Microsoft avec sa solution Power BI.
Son coût et son intégration avec Office 365 sont les éléments les plus souvent évoqués par les sociétés et organisations qui font de Power BI un choix judicieux.
Sur certains types de besoins, Power BI montre tout de même ses limites.

Tableau, avec ses 10 années d’avance et sa base installée est la solution de référence pour aller vers de la BI Self-Service. Sa facilité d’utilisation ainsi que sa capacité à réaliser des dashboard évolués sont appréciés par les utilisateurs de la solution. Son coût aurait pu être perçu comme un frein par nos clients mais la valeur de l’outil a été démontrée dans la majorité des cas que ce soit sur des petits ou gros déploiements.

Vous l’aurez compris, choisir entre ces deux-là n’est pas chose aisée. La team Synotis sera ravi de vous accompagner dans votre choix de solution.

contact@synotis.ch

Blog-Poster-dataworld

Entreprise Data World Boston 2019

Cette année, direction l’Amérique du Nord pour la 22ème conférence annuelle Enterprise Data World (EDW). L’occasion de faire le point sur nos connaissances, de partager nos expériences, et d’échanger avec de grands spécialistes mondiaux.

L’Entreprise Data World Boston 2019

Comme souvent en Amérique du Nord au mois de mars, le temps était frisquet. D’impressionnants tas de neige encombraient encore les trottoirs. Une ambiance survoltée se dégageaient des groupes de participants qui se dirigeaient droit vers la parade du Saint Patrick’s day. Mais les courageux de la Data eux se sont réfugiés avec plaisir au centre de conférences du Sheraton Hotel sur Dalton street.

Data Governance et Data strategy

De nombreux ateliers étaient proposés, dont celui de Robert S. Seiner. Il a développé très clairement le concept de « Non invasive Data Governance » que nous appliquons déjà dans nos interventions. Il nous a donné l’occasion de développer nos méthodologies et leurs applications.
Donna Burbank nous a fait partager ses retours d’expériences sur la nécessité pour les organisations de créer une stratégie et une architecture de données complètes et cohérentes. Il s’agit d’une tâche ardue et complexe pour les entreprises. Il est donc important de savoir par où commencer.

Comment prioriser les efforts avec la myriade de technologies et d’intervenants impliqués ? Donna a beaucoup insisté sur une enquête du Gartner qui concorde avec sa propre expérience. Il y apparaît que durant les dix années passées, un nombre largement majoritaire de projets de gouvernance de données ont aboutis à des échecs. Et ce quelques soient les budgets engagés. Non pas en raison du sujet lui-même, mais principalement parce que les entreprises voulaient aller trop vite, trop loin, et souvent accompagnées par des étrangers du monde de la Data.

Nous sommes totalement raccords. Notre vision de la gouvernance de données découle directement de notre expérience du Data Management. Elle défend pleinement l’idée du step-by-step : Découvrir, démontrer et déployer sont nos devises, et tout cela en mode itératif.

Architecture Data et technologies

Les ateliers se succèdent, plus intéressants les uns que les autres, dont celui animé par April Reeve. Nous avons partagé les différents positionnements des composantes du Data Management dans le cadre d’une gouvernance de données efficace. Cela nous a conforté dans notre stratégie de positionnement du concept de Data Hub. Il apporte des solutions à un vaste ensemble de problématiques souvent rencontrées chez nos clients. Il répond parfaitement aux échecs de Data Lake souvent trop vite devenus des Data Swamp.

D’autres présentations portaient sur les technologies. Certaines, déjà anciennes sont remises au centre des débats parce que souvent de mieux en mieux adaptées aux architectures data modernes. On peut citer en vrac la modélisation orientée Fait, les bases de données Graph, la virtualisation des données, le catalogage des métadonnées incluant le « lineage », le positionnement du machine learning …

Nos souvenirs de voyage

De la semaine passée à Boston (hormis les engelures ;)), nous revenons principalement avec ces deux mots clés : Accompagnement et Modernisation.

Accompagnement : car les projets de gouvernance de données qui ont été de véritables succès selon les expériences partagées sont les projets que les métiers ont pu mener en bénéficiant d’un accompagnement. Ne gaspillez pas l’enthousiasme des métiers, il est trop rare. Mais s’ils ne sont pas encore tous engagés dans cette démarche, pas de panique. La plupart savent combien les problèmes de maîtrise des données peuvent leur coûter. Quelques-uns sont déjà convaincus qu’ils doivent entamer des actions (mais quoi et comment ?). Nous sommes là pour vous aider à actionner les bons leviers et transformer les envies en réalité.

Modernisation : car la gouvernance des données silotées est au mieux complexe, au pire impossible. Les architectures Data ont besoin de se moderniser pour faciliter leur gouvernance. Particulièrement si celle-ci se centralise et s’organise autour des nouveaux rôles de Data stewardship et de CDO (Chief Data Officer), comme la tendance le laisse penser.

Abonnez-vous ou consultez régulièrement notre site pour développer nos concepts d’une gouvernance de données non invasive et itérative.
En attendant, n’hésitez pas à nous contacter. Notre métier est de vous écouter, puis de vous accompagner dans la mise en œuvre d’une gouvernance de données réussie.