Blog-Poster-seminaire-synotis

Séminaire d’entreprise Synotis – Zermatt 2019

Zermatt 2019 – jour 1 : un peu de travail et beaucoup de rigolade

Après de nombreux échanges afin de nous mettre d’accord sur le lieu et sur les activités, un consensus fut trouvé et notre séminaire d’entreprise annuel nous a mené à Zermatt. Station de ski suisse emblématique, cette destination est tout autant appréciée l’été. C’est donc avec impatience que l’ensemble de l’équipe Synotis attendait le jour J pour se rend dans ce havre de paix montagnard.

Après un joli voyage en train, les affaires déposées dans nos chambres et un copieux petit déjeuner, nous nous sommes attelés à la tâche.

La matinée fut riche en échanges et en discussions autour du thème de la Data. Un brainstorming en équipe est toujours un moment apprécié par tous.

Pour clore ce premier épisode, un repas nous attendait, mêlant sans distinction chacune des équipes de consultants et nous permettant d’échanger sur des sujets divers et variés. Un bon moment de convivialité, important pour la cohésion d’équipe quand on sait que le reste de l’année, nous sommes chez nos clients respectifs.

Séminaire synotis

Après une nouvelle séance de brainstorming, courte, nous nous sommes mis en route vers le Gornergrat, situé à plus de 3000 m d’altitude pour y faire un apéro en altitude. Quelle vue magnifique sur le Cervin (Matterhorn en Allemand). Les verres s’enchaînent, et les esclaffades aussi ! Malgré l’altitude, personne n’a été malade.

Séminaire synotis

Le temps de prendre quelques belles photos et nous prirent le chemin de la redescente sur Zermatt où nous attendait une soirée riche en émotion dont nous garderons les images secrète (à bon entendeur).

Ce qui se passe à Zermatt reste à Zermatt.

Semaine entreprise à Zermatt Synotis

Zermatt 2019 – J 2 : Sous le signe de l’effort.

Séminaire Synotis à Zermatt SuisseAprès avoir été consultée, les équipes Synotis ont opté pour une montée en E-Bike (VTT électrique) vers le Sunnegga. Après une soirée éprouvante, nous poursuivons donc notre séminaire sous le signe de l’effort.

Au programme une ascension de 900m de dénivelé positif qui aura duré 1h30. Pour la plupart d’entre nous, cette discipline fut une découverte et, pour certains, une révélation. La pratiquer dans ce cadre idyllique a finalement eu comme conséquence de reposer les esprits à défaut des organismes.  A l’arrivée, un repas bien mérité au Adler accompagné d’une vue imprenable sur tout le Cervin.

L'équipe Synotis à Zermatt

Il est déjà 14h, il est temps pour nous d’aborder la partie la plus plaisante, la descente ! C’est énergique et fort en sensation, une heure de descente en VTT jusqu’à Zermatt.
Petite anecdote, un membre de l’équipe a crevé le pneu arrière après 500 m de descente. Son aventure s’est terminée à pied pour son plus grand désespoir. L’heure est désormais à la dispersion pour reprendre le chemin vers un week-end plus paisible en famille.
C’est ainsi que s’achève ce merveilleux week-end de séminaire 2019.

Blog-Poster-tableau-new-data-model

Nous avons testé : Tableau’s New Data Model

New Data Model Tableau (Pre-Release)

Tableau avait annoncé le déploiement d’une nouvelle interface de gestion des sources de données sur Tableau desktop lors de la TC18. Ce « New Data Model » est désormais au stade de Pre release, mais cette innovation est à mon sens très prometteuse.
Les nouvelles capacités de modélisation de données augmenteront principalement les capacités et la simplicité d’analyse, ainsi que les performances, et faciliteront la maintenance. Ce « New Data Model » permettra également de réduire sensiblement le nombre de sources nécessaires à une organisation. Trop beau pour être vrai ?! C’est ce que nous avons testé.
Le système de modélisation de sources de donnée actuellement en place (2019.2) transforme les jointures entre les différentes tables en une seule table à plat. Ce mode de fonctionnement engendre une duplication des données et peut potentiellement induire une baisse de performance. C’est ainsi que naissent les problématiques standards de niveau de détail (LOD).
Le « New data model Tableau» devrait nous permettre de définir des relations entre tables à différents niveaux de détail dans une seule source de données. Les relations seront donc dynamiques par rapport au contexte de la vue.
Cette nouveauté implique la disparition de la définition des types de relation (iner, left, right, full). Ils sont automatiquement attribués en fonction des champs utilisés dans la vue. Et qui dis moins de jointures, parle automatiquement d’amélioration des performances !
Cette innovation est sans nul doute un changement fondamental dans la façon dont Tableau génère des requêtes. Cela devrait impacter assez fortement les développements (futurs, et passés) sur Tableau.
Si vous souhaitez effectuer vos propres tests, vous pouvez télécharger la Pre-release ci-dessous, pour les plus pragmatiques, vous pouvez vous en remettre à notre test !

Simplifier le processus de modélisation des données

Tableau peut s’appuyer sur votre schéma de base de données en étoile ou en flocons existants afin de créer automatiquement des relations dans vos données, ce qui vous permet d’accéder à la phase d’analyse plus rapidement et sans avoir besoin de connaissance du modèle de la BDD.
 

Une expérience d’analyse plus intuitive

Coupez et découpez des données plus complexes en toute confiance, car Tableau comprend et gère le niveau de détail de vos données, en tenant compte automatiquement de nombreux scénarios de duplication de données et en vous assurant d’obtenir des résultats précis sans avoir à effectuer de calculs LOD.
Cette contrainte pouvait être difficile à appréhender pour un utilisateur métier faisant des analyses ad hoc. Cela avait comme potentielle incidence d’entrainer de la confusion et un rejet de l’outil.
Grâce au nouveau modèle de données, cette contrainte n’existe plus. Tableau ajuste automatiquement sont niveau de calcul en fonction de la vue. Les tests que nous avons effectués ont été concluants (voir vidéo).

Sources de données plus performantes

Grâce à cette nouvelle fonctionnalité, Tableau requêtera désormais uniquement les tables utilisées dans le tableau de bord. Vu qu’il y aura moins de jointures et de calculs, nous aboutirons à une nette amélioration des performances.

Moins de sources de données à maintenir

Les sources de données utilisables par tableau pouvant être désormais plus génériques et complexes, elles peuvent donc répondre à une plus grande variété de questions. De ce fait, les organisations seront en mesure de réduire le nombre de sources de données distinctes qu’elles créent et gèrent.
 

Notre Test :

Nous avons choisi de tester la promesse la plus sexy de ce nouveau data modèle : la génération de requête contextuelle en fonction de la vue.
Pour ce faire, nous nous sommes servis du dataset « Exemple-Hypermarché » que nous avons modifié en créant une colonne year(date de commande) pour effectuer la liaison dans la Pre-release et d’un dataset complémentaire traitant des budgets par année, pays et catégorie de produit.
Vous pourrez refaire ce test vous-même en installant la Pre-release Tableau (Windows & OSX) et l’exemple disponible en téléchargement ci-dessous.     
Découvrez notre test en live avec cette petite vidéo. 

Conclusion
Nous rappelons que nous traitons dans cet article d’une Pre-realease et qu’il faut rester attentif à la finalisation du développement de ce feature. Nous allons suivre l’évolution et nous ne manquerons pas de vous tenir au courant de l’avancement.

visionner

Blog-Poster-comparative-tableau-vs-powerbi

Comparatif Tableau VS Power BI

La recherche et la veille sur les solutions BI est toujours un exercice difficile, les produits du marché se livrant une concurrence acharnée aboutissant à une uniformisation des fonctionnalités et à un lissage des avantages concurrentiels.
En qualité d’expert de la DataViz, je tiens tout de même à souligner qu’il subsiste des points de différences majeurs qui vous aideront probablement à faire ce choix difficile ou à vous conforter dans votre décision.

Je vous ai donc préparé pour la suite de ce billet un bref comparatif des outils de data visualisation du marché.

BancMark

Ce mapping fourni par Gartner Research nous en dit un peu plus sur l’état du marché et nous constatons très clairement que tableau et Power BI se place aisément sur le haut du podium suivi de près par Qlik. Le marché reste donc relativement stable par rapport à 2017.

tableau software

 

Fondée en 2003, Tableau est LA référence en matière de data visualisation et a su maintenir cet avantage sur ces 10 dernières années.
Voici les arguments qui font encore fortement pencher la balance en faveur de Tableau.

Points forts

Soyons clair dès le départ : si vous voulez la crème de la crème de la crème, tous les autres facteurs mis à part, Tableau est la solution que nous préconisons dans la plupart des cas à tous nos interlocuteurs.
Une décennie d’expérience dans la visualisation des données confère à tableau plusieurs éléments différenciants :

  • L’ergonomie du produit, la communauté Tableau,
  • Le support produit,
  • Les options de déploiement flexibles,
  • La gamme de visualisations et les possibilités quasi infinies,
  • La disposition de l’interface utilisateur,
  • La diffusion aisée des visualisations,
  • Les capacités intuitives d’exploration des données,
  • La flexibilité.

La flexibilité est le mot qu’il faut retenir quand on pense à Tableau. D’après ma propre expérience, les fonctionnalités de Tableau du point de vue de l’utilisateur final sont beaucoup plus avancées que le Magic Quadrant de Gartner (ci-dessus) ne le laisse entendre.

Tableau a construit son produit sur la philosophie du « voir et explorer » les données. Tableau est conçu pour créer des visuels interactifs. Les fonctionnalités des produits Tableau ont été implémentées de telle sorte que l’utilisateur doit pouvoir poser une question sur ses données et obtenir une réponse presque immédiatement en manipulant les outils à sa disposition. Et, de facto, si votre besoin est simplement de générer des rapports, Tableau peut s’avérer sur-dimensionné.

Tableau est également beaucoup plus flexible dans son déploiement que Power BI. Tableau peut être acheté sur un modèle de souscription puis installé dans le cloud ou sur un serveur sur site (On Premise).

Enfin, Tableau est à l’écoute des retours/besoins de sa communauté. Ce qui permet lors des mises à jour d’avoir des améliorations significatives en termes de performances dans certains cas ou encore à des nouvelles fonctionnalités (comme par exemple la mise en place de Dashboard Extension).

Ses faiblesses

Malheureusement, Tableau a un coût. Lorsqu’il s’agit de l’investissement nécessaire à l’achat et à la mise en production de Tableau, il sera dans la plupart des cas plus cher que Power BI. (Retrouvez le pricing ici)

Les projets de Tableau s’accompagnent souvent d’une refonte de la structure de stockage des données, ce qui augmente les coûts du projet. Néanmoins, les entreprises ayant fait ce choix sont celle qui tire le meilleur parti de Tableau.

 

Power BI

 

Power BI est l’option de visualisation des données dans la suite office365 de Microsoft.
Lancée en 2013, cette solution a rapidement repris du terrain à Tableau. Lorsque vous regardez le dernier Magic Quadrant BI de Gartner, vous remarquerez que Microsoft est plus ou moins équivalent à Tableau en termes de fonctionnalités. Intégré dans la Stack Microsoft Power Bi possède un grand avantage qui contribue fortement à sa position dans le Quadrant.

Ses forces

Bien que Tableau soit toujours considéré par beaucoup comme la référence, Power BI est fondamentalement comparable à Tableau

Comme je l’ai mentionné, l’un des points forts de Power BI est qu’il est disponible dans le stack ainsi Microsoft encourage vivement l’utilisation de cet outil pour visualiser les données de Power BI et également faire du Dashboarding.

Parce que Power BI était à l’origine un produit principalement basé sur Excel, et parce que les premiers à adopter les produits Microsoft sont souvent des utilisateurs plus techniques, mon expérience personnelle est que Power BI est particulièrement adapté pour créer et afficher des tableaux de bord et rapports de base.

 

La plus grande force de Power BI, est son rapport qualité / prix pour des besoins simples en reporting. Pour un produit totalement comparable au leader de la catégorie, il est gratuit pour les utilisateurs d’Office 365.
Son prix est de CHF 9.80 /HT par utilisateur et par mois pour une licence « Pro ».
L’aspect financier est un critère que nous retrouvons souvent chez nos clients  comme étant un critère de choix important.
Retrouvez le pricing Power BI ici

Mais les entreprises qui se préparent à « investir » réellement dans la BI sont plus susceptibles d’envisager Tableau.

Ses Faiblesse

Comme je l’ai mentionné, Tableau a toujours un léger avantage sur Power BI en ce qui concerne les détails des fonctionnalités des produits, principalement en raison de leurs 10 an d’avance.

Ainsi Power BI possède à mon sens des lacunes lors de besoins de réalisation très spécifique.

 

Pour conclure

En synthèse, Tableau est le leader du marché mais son leadership est de plus en plus souvent contesté par Microsoft avec sa solution Power BI.
Son coût et son intégration avec Office 365 sont les éléments les plus souvent évoqués par les sociétés et organisations qui font de Power BI un choix judicieux.
Sur certains types de besoins, Power BI montre tout de même ses limites.

Tableau, avec ses 10 années d’avance et sa base installée est la solution de référence pour aller vers de la BI Self-Service. Sa facilité d’utilisation ainsi que sa capacité à réaliser des dashboard évolués sont appréciés par les utilisateurs de la solution. Son coût aurait pu être perçu comme un frein par nos clients mais la valeur de l’outil a été démontrée dans la majorité des cas que ce soit sur des petits ou gros déploiements.

Vous l’aurez compris, choisir entre ces deux-là n’est pas chose aisée. La team Synotis sera ravi de vous accompagner dans votre choix de solution.

contact@synotis.ch

Blog-Poster-dataworld

Entreprise Data World Boston 2019

Cette année, direction l’Amérique du Nord pour la 22ème conférence annuelle Enterprise Data World (EDW). L’occasion de faire le point sur nos connaissances, de partager nos expériences, et d’échanger avec de grands spécialistes mondiaux.

L’Entreprise Data World Boston 2019

Comme souvent en Amérique du Nord au mois de mars, le temps était frisquet. D’impressionnants tas de neige encombraient encore les trottoirs. Une ambiance survoltée se dégageaient des groupes de participants qui se dirigeaient droit vers la parade du Saint Patrick’s day. Mais les courageux de la Data eux se sont réfugiés avec plaisir au centre de conférences du Sheraton Hotel sur Dalton street.

Data Governance et Data strategy

De nombreux ateliers étaient proposés, dont celui de Robert S. Seiner. Il a développé très clairement le concept de « Non invasive Data Governance » que nous appliquons déjà dans nos interventions. Il nous a donné l’occasion de développer nos méthodologies et leurs applications.
Donna Burbank nous a fait partager ses retours d’expériences sur la nécessité pour les organisations de créer une stratégie et une architecture de données complètes et cohérentes. Il s’agit d’une tâche ardue et complexe pour les entreprises. Il est donc important de savoir par où commencer.

Comment prioriser les efforts avec la myriade de technologies et d’intervenants impliqués ? Donna a beaucoup insisté sur une enquête du Gartner qui concorde avec sa propre expérience. Il y apparaît que durant les dix années passées, un nombre largement majoritaire de projets de gouvernance de données ont aboutis à des échecs. Et ce quelques soient les budgets engagés. Non pas en raison du sujet lui-même, mais principalement parce que les entreprises voulaient aller trop vite, trop loin, et souvent accompagnées par des étrangers du monde de la Data.

Nous sommes totalement raccords. Notre vision de la gouvernance de données découle directement de notre expérience du Data Management. Elle défend pleinement l’idée du step-by-step : Découvrir, démontrer et déployer sont nos devises, et tout cela en mode itératif.

Architecture Data et technologies

Les ateliers se succèdent, plus intéressants les uns que les autres, dont celui animé par April Reeve. Nous avons partagé les différents positionnements des composantes du Data Management dans le cadre d’une gouvernance de données efficace. Cela nous a conforté dans notre stratégie de positionnement du concept de Data Hub. Il apporte des solutions à un vaste ensemble de problématiques souvent rencontrées chez nos clients. Il répond parfaitement aux échecs de Data Lake souvent trop vite devenus des Data Swamp.

D’autres présentations portaient sur les technologies. Certaines, déjà anciennes sont remises au centre des débats parce que souvent de mieux en mieux adaptées aux architectures data modernes. On peut citer en vrac la modélisation orientée Fait, les bases de données Graph, la virtualisation des données, le catalogage des métadonnées incluant le « lineage », le positionnement du machine learning …

Nos souvenirs de voyage

De la semaine passée à Boston (hormis les engelures ;)), nous revenons principalement avec ces deux mots clés : Accompagnement et Modernisation.

Accompagnement : car les projets de gouvernance de données qui ont été de véritables succès selon les expériences partagées sont les projets que les métiers ont pu mener en bénéficiant d’un accompagnement. Ne gaspillez pas l’enthousiasme des métiers, il est trop rare. Mais s’ils ne sont pas encore tous engagés dans cette démarche, pas de panique. La plupart savent combien les problèmes de maîtrise des données peuvent leur coûter. Quelques-uns sont déjà convaincus qu’ils doivent entamer des actions (mais quoi et comment ?). Nous sommes là pour vous aider à actionner les bons leviers et transformer les envies en réalité.

Modernisation : car la gouvernance des données silotées est au mieux complexe, au pire impossible. Les architectures Data ont besoin de se moderniser pour faciliter leur gouvernance. Particulièrement si celle-ci se centralise et s’organise autour des nouveaux rôles de Data stewardship et de CDO (Chief Data Officer), comme la tendance le laisse penser.

Abonnez-vous ou consultez régulièrement notre site pour développer nos concepts d’une gouvernance de données non invasive et itérative.
En attendant, n’hésitez pas à nous contacter. Notre métier est de vous écouter, puis de vous accompagner dans la mise en œuvre d’une gouvernance de données réussie.

Blog-Poster-talend-engage

Talend Engage 2019

Du 7 au 10 janvier 2019 se tenait à Colorado Spring (USA/CO) le kick off annuel de Talend , connu sous le nom d‘ « Engage », a rassemblé plus de 700 personnes, commerciaux, pre-sales, customer success manager, customer success architect, marketing, mais également les partenaires stratégiques de l’éditeur et certains de ses clients ;

En tant que partenaire gold de Talend, Synotis était présent comme chaque année à cet  événement. Une présence indispensable qui nous permet de prendre connaissance de la stratégie de Talend, tant au niveau marché que produit, mais également de prendre contact et d’échanger avec les équipes en charge des produits , etc. .

Après un Talend Engage 2018 marqué par la thématique « Star Wars », c’est le film « Top Gun » qui a été choisi cette année comme fil rouge de l’événement avec une baseline orienté cloud : « CLOUD COMBAT TRAINING – Earn your wings ».

Dans cet article je vais donc essayer de couvrir les principales annonces et enseignement de ce Talend  Engage 2019 .

En premier lieu, ce qui m’a frappé c’est le changement de dimension de Talend. Exit le statut de « visionnaire » du Magic Quadrant de Gartner pour les solutions d’intégration de données, Talend est aujourd’hui considéré comme un « Leader » et un acteur mature de la data. Ressenti confirmé auprès des commerciaux () : aujourd’hui Talend est vu comme un acteur pérenne et comptant dans le monde de la data notamment auprès des grands groupes du CAC 40.

Ce sentiment est renforcé par le fait que l’écosystème de Talend ne cesse de s’élargir d’année en année. Après l’arrivée de Talend Data Preparation et de Talend Data Stewardship (TDS), les rachats successifs en 2017 et en 2018 de Restlet et de Stitch enrichissent encore un peu plus la gamme de produits proposés par Talend. Ce n’est pas moins de 13 Product Managers qui se sont présentés devant nous pour jouer au jeu des questions/réponses sur la roadmap 2019. Là encore, changement de dimension : 3 ans auparavant seulement 5 Product Managers étaient présents.

Synotis à Talend Engage 2019

Les PMs on stage – un moment d’interaction mené par Cyaran Dimes, VP Products de Talend.

Cloud, Cloud, Cloud…

Le discours est, sans surprise, encore cette année orienté sur le Cloud. 2 ans en arrière, Talend annonçait le lancement de sa plateforme Talend Cloud. Même s’il était indispensable de suivre ce chemin, j’avoue avoir été sceptique à l’époque. Le Cloud, c’est un métier à part entière. Gérer les disponibilités des plateformes, livrer des releases impactant tous les tenants Cloud, etc… nécessite un vrai savoir-faire qui est totalement différent du savoir-faire historique de l’éditeur. Même si cette transition n’a pas été un long fleuve tranquille. Le fait est qu’à l’heure d’aujourd’hui le pari semble en passe d’être réussi : Talend Cloud est en pleine expansion et séduit de plus en plus de clients. Les retours d’expériences sur scène des clients  UNIPER et TI Media (entre autres) ont mis en avant les avantages du cloud (flexibilité, scalabilité, innovation continue…). Des retours d’expérience un peu trop parfait à mon goût. J’aurais souhaité avoir plus d’informations sur les écueils rencontrés lors du passage d’un mode on-premise traditionnel vers le cloud.

Une cohérence de l’écosystème CLOUD

Laurent Bride a présenté sa vision de Talend Cloud : « More integration, integrity, intelligence ». Et sur cette vision 4 étapes majeures en lien avec les outils en place

  • Collecter : grâce à Stitch Data Loader,
  • Gouverner :
    • Data Catalog (ex Talend Metadata Manager),
    • Data Quality,
    • Data Stewardship.
  • Transformer :
    • Data Streams
    • Data Integration via Studio,
    • Data Preparation.
  • Partager :
  • API Services
    • API Tester

L’arrivé du Frictionless

Au détour d’une slide, apparaît le terme de « Frictionless », soit un nouveau processus de consommation du logiciel : facile à utiliser et facile à acheter, sans la contrainte d’un processus de vente ou d’un contrat à long terme. Intéressant. Le mode de licence traditionnel de Talend est le mode « souscription ». Le client souscrit à une licence pour une durée de 1 à 5 ans. Licence renouvelable à échéance.

Le Frictionless est la vision développée par certains acteurs du Cloud tel AWS ou Azure, et également hérité de l’acquisition de Stitch

Pas question néanmoins aujourd’hui de placer totalement la plateforme Cloud sous ce nouveau mode de consommation. Certains services seront mis à disposition au fur et à mesure. De premières annonces sont attendus pour le 2ème trimestre

Une petite nouveauté pour l’équipe Sales de Talend (et ses partenaires) qui vont devoir adapter leur discours auprès des clients.

Et le On-Premise dans tout ça….

Et bien ce kick off était clairement placé sous le signe du cloud…

Côté on-premise, Data Catalog était à l’honneur. Certaines annonces côté CLOUD permettent aussi d’entrevoir l’arrivée de nouvelles features dans le Studio

La place de l’ETL dans cet écosystème

Avec le rachat de Stitch, le développement de Data Streams et du traditionnel Studio, ce n’est pas moins de 3 produits différents qui permettent de faire de l’ETL.

La question évidente est donc de savoir quand et comment positionner Stitch, Pipeline Designer ou le Studio.

Deux contextes principaux :

  • Si vous n’êtes pas adepte du Cloud, alors la réponse est basique. Seul le Studio On Premise vous permettra de créer vos flux de données.
  • Si vous êtes dans une stratégie Cloud, alors la réponse peut être trouvée en fonction du niveau de complexité du flux développé :

Talent Engage ETL

 

Il s’agit évidemment d’une vulgarisation en fonction d’un critère basique.

D’autres critères peuvent entrer en jeu : connecteur disponible ou non, format de la données, etc… N’hésitez pas à nous contacter pour discuter de vos problématiques. Nous sommes en mesure de vous accompagner sur cette prise de décision.

Des partenariats techniques majeurs

Enfin, Talend met de plus en plus en place des partenariats technologiques forts.

  • Microsoft pour la partie Machine Learning sur Azure. Plusieurs annonces renforçant le partenariat Talend et Microsoft émailleront tout au long de l’année 2019
  • Databricks a pour vocation de réunir Data Engineer et Data Scientist tout au long du cycle de vie du Machine Learning, de la préparation des données à l’expérimentation et au déploiement d’applications ML. Plateforme basée sur Spark. La relation est au beau fixe entre Databricks et Talend avec une forte collaboration entre le Product Manager Big Data de Talend et le Product Manager de Databricks.
  • Snowflake: Depuis maintenant 2 ans, Talend promeut Snowflake (DW dans le cloud) et met à disposition tant sur le on premise que sur le cloud les connecteurs pour charger ou interroger Snowflake.

En synthèse, un super un événement avec notre partenaire Talend.
Nous y avons appris de nombreuses choses concernant la stratégie et l’évolution des produits de l’éditeur.

Si vous voulez en savoir plus, contactez Xavier, le rédacteur

Blog-Poster-petit-dej-indexima

Petit-Déjeuner | Performances Big Data & Analytique

Faster, bigger, cheaper, better ? Les nouveaux défis du Big Data.

L’importance de l’utilisation des données n’étant plus à prouver, les entreprises se trouvent désormais face à un défi de taille : traiter plus de données, plus rapidement et à moindre coût.

Comment sont gérés actuellement les projets d’accès aux données et comment faire pour améliorer cette gestion au quotidien?

Pour répondre à ces questions, ce petit déjeuner reviendra sur:

  • les bonnes pratiques métiers avec le retour d’expérience de Gilai(1) et Mappy (2)
  • les solutions technologiques pour tirer parti du Big Data avec un accès instantané à la donnée, grâce à Indexima

(1) Gilai est l’association qui regroupe l’informatique des Offices de l’assurance-invalidité (AI) de vingt cantons suisses et du Liechtenstein.

(2) Mappy est le spécialiste du calcul d’itinéraire et des services de cartographie. Mappy est reconnu comme le leader français de la recherche locale par la carte sur Internet, mobiles et tablettes.

 

Blog-Poster-gdpr1

GDPR : On y est !

Ça y est ! On y est ! Le 25 Mai est passé. Officiellement et légalement, les entreprises devraient être conforme avec le règlement.
Dans la réalité, il y a une très grande disparité dans le niveau de conformité entre les entreprises.
Les comportements et ressentis par rapport à ce règlement sont divers et variés. Ceci explique cette différence de niveau de conformité.
Néanmoins, on voit aussi les différents sites web et applications mobiles mettre à jour leurs politiques de protection des données mais pas toujours de manière adaptée.

L’accueil de la GDPR et le niveau de mise en conformité

Etre consultant a un côté positif vis-à-vis de la GDPR : naviguer entre différents clients, cela nous permet de rencontrer des profils différents, avec des ressentis variés, et par conséquent, un accueil, une approche et une mise en conformité différente.

Si on fait le tour des « catégories », on peut identifier les suivantes :

  • Les « réfractaires » : La GDPR est perçu comme une énième contrainte, qui va engendrer des coûts et du temps à dédier. La conformité sera faite de manière minimale ; on est conforme mais on ne va pas en faire plus.
  • Les « sereins » : Des actions ont été menées et ils considèrent qu’ils sont conformes, sans forcément refaire d’audit ou de suivi.
  • Les « sans inquiétudes » : Ce sentiment se rapporte aux amendes. Ils se demande comment l’UE peut intervenir sur les entreprises basées hors UE (Suisse, USA, Chine, etc.). Ne se sentant pas sous pression, la mise en conformité n’est pas la priorité. Par contre, la plupart la garde dans un coin de leur tête.
  • Les « bons élèves » : Le sujet est pris au sérieux, les actions ont été menées et un suivi est réalisé.
  • Les « avant gardistes » : Il faut le noter, certaines entreprises n’ont pas attendu cette réglementation pour se soucier de la protection des données personnelles et sont déjà en conformité, ou presque, et cette culture est déjà adoptée par les personnes.

Des centaines de mails et des pop-ups.

Ces dernières semaines, et même après le 25, une avalanche de mails envoyés pour nous signifier des changements de politiques de protection des données, est arrivée dans les boîtes mails des utilisateurs ; avalanche particulièrement désagréable, tant par la quantité que par le fond « vite » de certains mails.
Pour certains sites web ou applications mobiles, ces modifications se sont traduites par des mises à jour obligatoires de paramètres.
Et là, il y a un problème ! Dans certains cas, si on refuse de souscrire à une newsletter ou de réduire les données que l’on souhaite diffuser, on ne peut tout simplement pas utiliser le site ou l’application, ou alors on nous demande la suppression de notre compte
Il faut faire un réel travail pour que l’intérêt de ce règlement soit compris et que les modifications soient en adéquation avec ce qui est attendu.

Une philosophie, une culture

C’est là que l’on réalise vraiment une des difficultés intrinsèques de ce règlement. Il faut que toute la chaîne, du DPO au développeur, en passant par le juridique, le métier, les designers, etc. aient bien intégré toutes les facettes de ce règlement, et que les bonnes pratiques deviennent un réflexe.

Vous souhaitez en discuter ? Venez nous rencontrer et en discuter lors de notre afterwork dédié à la GDPR organisé par Synotis et Talend

Découvrez nos autres articles : GDPR : Oh la belle opportunité et GDPR, ou quand l’humain reprend le pouvoir !

Blog-Poster-gdpr2

GDPR, ou quand l’humain reprend le pouvoir !

La GDPR, règlement européen sur la protection des données, a pour objectif principal de redonner le pouvoir aux personnes de mieux maîtriser leurs données personnelles et les sécuriser.

Il y a 2 facettes inhérentes à cette réglementation : les personnes qui fournissent leurs données, mais également les personnes qui traitent les données.

Des données ! Mais pas que !

Derrière les 0 et les 1 se cachent des personnes, dotées de droits et de libertés. Il semblerait que ceci ait été oublié dans la course frénétique à l’innovation, à toujours plus de services sur Internet. Rajoutons à ceci les réseaux sociaux, les sites de e-commerce et nous avons un cocktail complet dans lequel se mélangent des intérêts commerciaux et des données personnelles.

La GDPR essaye de corriger ces années de dérives en rappelant que ces données appartiennent à la personne et que les entreprises doivent les protéger. En effet elles ne pourront plus disposer, traiter, acheter ou vendre ces données sans le consentement explicite de la personne concernée.

Au travers des droits énoncés dans la GDPR (accès, information, oubli, etc.), les personnes ont les moyens de reprendre en main leurs données personnelles et de décider ce qu’elles souhaitent en faire.

C’est un changement de philosophie et de façon de penser, mais avec un peu de temps, d’auto-projection et de bon sens, on réalisera que ceci aurait dû toujours être le cas.

L’humain au cœur de la mise en conformité

Il est évident que tous les processus, les mesures mises en place ainsi que les systèmes informatiques déployés ont une importance capitale dans la mise en conformité.

Mais pour s’assurer de la bonne application et de l’appropriation du sujet au sein de l’entreprise, il convient de sensibiliser les personnes. Car ce sont ces personnes (les employés) qui, lors de traitements manuels, vont être en relation avec les données.

Nous connaissons tous des situations où, par confort, par facilité, ou parce qu’il n’y a pas de solutions existantes/pertinentes, ces données se retrouvent directement sur les postes utilisateurs (fichiers Excel, bases de données, …). Or, ces éléments peuvent contenir des données personnelles !

C’est ce genre de comportement qu’il faut identifier et éviter. Il faut donc impliquer, former et sensibiliser les collaborateurs. Plusieurs méthodes existent. Celle de les aider à se projeter et de les faire se questionner sur ce qu’ils souhaitent pour leurs propres données semble la meilleure.

La mise en conformité repose sur cette étape clé : que les employés soient convaincus de son importance et se sentent concernés !

Découvrez nos autres articles : GDPR : Oh la belle opportunité et GDPR : On y est

Blog-Poster-gdpr3

GDPR : Oh, la belle opportunité !

Alors oui, en effet, quand on prend la GDPR telle quelle, on n’y voit pas une opportunité mais une quantité de contraintes, d’obligations, de dépenses.
Mais posons-nous un moment et regardons au-delà ?

Tes données tu maîtriseras, ton business tu amélioreras

En prenant le temps d’analyser les obligations inhérentes à la GDPR, on se rend compte que pour être conforme, il faut maîtriser les données utilisées (minimisation, exactitude, durée de conservation). Il va donc falloir identifier ces données, savoir où elles sont stockées, mettre en place des traitements pour les nettoyer et les corriger.
En somme, mettre en place un système de « Data Management », où les termes tels que Master Data Management, Data Quality, Data Catalog, prennent tout leur sens.
Il faut voir l’occasion de modifier son SI, d’améliorer le traitement des données et leurs qualités. Avec comme objectif final de réduire ses coûts et améliorer son business.

Maîtriser et optimiser ses processus

Outre la partie informatique, il y a la partie traitement des données, définis par des processus.
Souvent, ces processus ne sont pas documentés, ou ne sont pas mis à jour. Il est nécessaire de revoir les processus associés afin de préciser les finalités d’un traitement. C’est l’occasion de revoir pourquoi ils ont été définis ainsi, quelles données sont nécessaires, et potentiellement les axes d’optimisation.
Toujours avec comme finalité de s’améliorer, de réduire ses coûts et de faire progresser son business.
Durant cette étape, il est nécessaire d’impliquer les équipes (cf. mon précédent billet)

La confiance, cette valeur sous-estimée

Etre conforme ne va pas révolutionner l’image que les gens ont d’une entreprise. Néanmoins, elle va considérablement l’améliorer. Nous savons tous à quel point il est difficile de fidéliser les clients. Il est surtout facile de les perdre en cas de problèmes ; La notoriété peut disparaître en un éclair. Avec l’avènement des réseaux sociaux, le bouche à oreille négatif (le fameux « bad buzz ») circule d’autant plus vite, alors que le positif reste toujours discret.
Respecter la GDPR pourra faire pencher la balance en votre faveur si une personne soucieuse de la protection des données vous sait impliqué dans cette démarche, et idéalement conforme. Il faudra donc mettre en place une communication efficace sur le sujet pour valoriser toute cette démarche de conformité..

Découvrez nos autres articles : GDPR : On y est et GDPR, ou quand l’humain reprend le pouvoir !