Archives du mot-clé data

Data is like gold : you better move it rather than sit on it

Mine d'Or
Il s’agit d’un bien précieux très recherché et apprécié depuis les temps anciens. L’homme a dû apprendre à l’extraire, le raffiner, le transformer, puis le valoriser… avant de finalement l’utiliser en guise de thésaurisation.

Si cette description ne vous éclaire pas sur le sujet dont il est question, c’est bien parce que l’or et la data se confondent facilement aujourd’hui. D’ailleurs, la terminologie employée n’est pas anodine: à l’état « naturel », la data se présente sous une forme aussi brute que celle d’une pépite d’or qu’il convient d’extraire. Le travail de préparation de la donnée brute constitue ainsi près de 70% du temps passé sur un projet Big Data. Et malheureusement, c’est dans cet état primaire que de nombreuses entreprises la conservent indéfiniment. Texte, email, réseaux sociaux, navigation, localisation, météorologie, démographie… les filons sont nombreux mais les prospecteurs de la data n’y ont pas accès. Ce véritable trésor insoupçonné constitue pourtant un atout de poids dans le business d’une entreprise car, contrairement au métal précieux, la pertinence de la donnée décuple lorsqu’elle est corrélée à d’autres sources. Dès lors, on comprend rapidement qu’il ne convient pas de rester assis sur cette montagne de données sans chercher à en tirer profit. Les plateformes open data l’ont bien compris et prolifèrent aujourd’hui sur la toile.

L’open data, c’est un concept simple qui traduit la volonté de mettre l’information à disposition du public. À l’instar de l’Etat avec la plateforme data.gouv.fr qui contient déjà 18500 jeux de données, des grandes agglomérations (Toulouse, Rennes, Issy-les-Moulineaux…), la SNCF, la RATP, ErDF ou encore JC Decaux procèdent au déverrouillage des données. En face, les « sportifs » de la data se challengent lors des datathons, favorisant au passage le raffinage de la donnée. Pourtant, cette démarche d’ouverture ne devrait pas profiter qu’aux grandes entreprises. Ordonner une liste d’hôtels pour maximiser les ventes, ne pas retrouver une housse de portable dans la catégorie smartphone sur un site d’e-commerce ou estimer automatiquement le prix de vente d’un véhicule d’occasion: voici quelques exemples par lesquels des entreprises ont pu dynamiser des données internes en « se contentant » de les publier. Bien sûr, la publication des données peut se faire à différentes échelles et par différents moyens. Il est effectivement possible de débuter au sein de l’entreprise, en regroupant les sources de données variées et de divers formats sur une plateforme telle qu’OpenDataSoft. Dans un second temps, on pourra augmenter sa couverture à de nouveaux départements, filiales… avant de se décider quant à une éventuelle publication sur le web notamment grâce aux API. Deux possibilités sont donc offertes pour favoriser le monde des données ouvertes : Open API ou Open Data. Un même but, une stratégie différente.

Enracinée parmi les fondements de la république, la politique d’ouverture des données est l’un des chantiers numériques de notre siècle. En témoigne la 3ème position de la France au classement mondial de l’Open Data Index (derrière le Royaume-Uni puis le Danemark, décembre 2014). Initialement porté par la recherche puis par le gouvernement, l’open data alimente les possibilités offertes par le big data en se joignant à la production humaine que l’on retrouve déjà sur les réseaux sociaux. En plein essor, il propulse une entreprise classique sur le devant de la scène car ouvrir ses données vers l’extérieur promet de développer de nouveaux usages autour de son métier historique tout en participant au développement économique. Le déploiement des compteurs communicants dans le secteur énergétique, associé aux futures smart grids, en sont une illustration. Les frontières doivent cependant être clairement définies lorsqu’on abordera des données personnelles, car développer un business autour de cette matière première, à l’image des GAFA (Google, Apple, Facebook, Amazon), ne s’improvise pas.

The Gold Rush

Le choix de politique d’ouverture des données appartient à chacun. Si la démarche semble échapper au commun des mortels, il est toujours possible de faire appel dans un premier temps au data scientist au sein même de l’entreprise. Cet expert peut effectivement bousculer la masse d’informations dans un bac à sable en la conciliant judicieusement avec diverses sources d’open data existantes. Et qui sait si ces différentes corrélations réalisées, caractéristiques d’un « datalab », ne vous permettront pas au passage d’élucider des problématiques de fraude ou de désabonnement, pour ne prendre que deux exemples concrets…

open data - Observatoire CONIX de la Donnée

Auteur : Elkhader FATNI. Illustration (mine d’or) par Gord McKenna, sous licence CC-BY-NC-ND

Gouvernance des données : préparez-vous ! le réglementaire vous concerne…

Gouvernance des données

Gouvernance des données

Organiser de façon opérationnelle la Gouvernance des données, est de plus en plus d’actualité… au-delà des G-SIBs banques dites systémiques au niveau international, les D-SIBs banques dites systémiques au niveau national, et les Assureurs vont également devoir s’y préparer.

L’exemple du BCBS 239 : La gouvernance des données est au cœur de la publication par le Comité de Bâle, le 9 janvier 2013, des « Principles for effective risk data aggregation and risk reporting ». Avec ses 11 + 3 principes à respecter d’ici janvier 2016, ce socle de la formalisation de la vision réglementaire souhaitée et voulue pour les acteurs financiers, vise à renforcer leur capacité à agréger les données risques et à améliorer leurs pratiques de reporting.

Gouvernance des données Tableau BCBS239

Si la publication de ces principes est déjà ancienne, nombreux sont les établissements qui ont encore des difficultés à y répondre et à concilier stratégie data et stratégie business.

Malgré les nombreux projets de « data cleaning » initiés depuis deux ans, les retards pris mettent en péril l’échéance de janvier prochain (14 banques ont déjà demandé une dérogation en annonçant ne pas pouvoir tenir les délais) ; et les nouveaux séminaires autour de la « data aggregation & risk reporting » attestent de cette difficulté.

Aussi, loin de paraître dépassés, les principes d’un dispositif robuste et opérationnel de gouvernance des données, sont à réaffirmer comme des fondamentaux pour répondre à ces exigences réglementaires.

Une gouvernance de la donnée globale et inscrite dans la durée

La difficulté de la directive BCBS 239 est qu’elle ne se satisfait pas d’une solution tactique ciblée, mais demande une approche d’entreprise globale, adressant l’ensemble des processus de gestion de la donnée. Par ailleurs, cette gouvernance n’est pas un exercice ponctuel, mais la mise en place de pratiques inscrites dans le quotidien et dans une démarche d’amélioration continue. Si le respect de la directive BCBS 239 est indissociable du renforcement de la Culture Risques, il demande aussi le développement d’une Culture de la Donnée ; c’est à dire un ensemble de bonnes pratiques pour protéger et garantir la valeur des données.

Parmi elles : Identifier les données de référence, acquérir les données et leurs mises à jour, garantir la qualité de mise à jour des systèmes consommateurs de ces données, mettre les données à disposition, standardiser les services d’accès aux données, gérer et suivre le cycle de vie des données, superviser la supply chain de la donnée, …

Sans ce caractère récurrent de la gouvernance des données, comment capitaliser sur les investissements souvent lourds déjà réalisés par les établissements en matière de nomenclatures et de définitions (exemples : référentiels de notations, assiettes de pilotage, décisionnel) ?

Ces pratiques s’inscrivent dans une « politique », non pas de simples intentions, mais bien un cadre précis et structurant qui énonce et partage : les enjeux, les objectifs en matière de données, les périmètres, les moyens, les rôles et responsabilités, les règles à respecter, les modes de fonctionnement et prises de décision.

Une gouvernance fédératrice

Tout comme les actions sur les données ne peuvent être « one-shot », elles ne sont pas non plus dédiées au seul sujet réglementaire, elles sont partagées par l’ensemble des projets métier. C’est ce qui légitime les référentiels et conditionne la qualité des données. En étant partagées ces questions sur les données s’invitent aux comités S.I. et donnent lieu à des arbitrages. Elles responsabilisent et fédèrent donc, par nature.

Pour favoriser le décloisonnement des filières et la compréhension d’enjeux communs, des postes de « coordinateurs de données » sont parfois mis en place pour assurer la synergie des différents métiers et de la DSI (en regroupant propriétaires de données, référents de données métiers, pilotes d’applications, administrateurs de référentiels de données, …). Ils accompagnent notamment les diverses parties prenantes dans le ciblage du niveau de qualité attendu et l’ajustement de la Politique Données associée.

Enfin, la maîtrise de la circulation de la donnée et de sa transformation, de bout en bout, adresse l’intérêt d’une supervision de la supply chain de la donnée. Si le terme reste encore peu utilisé, la notion de « pipeline » utilisé dans le contexte des big data, bien que plus réducteur, nous le rend plus tangible : acquisition et stockage, raffinement et enrichissement, exploration, distribution et management des services associés, connaissance des consommateurs de ces données et consignation de leurs usages. Fédérer et mettre sous contrôle les différents composants de cette chaîne est un pré-requis pour la qualité et l’auditabilité.

L’impact organisationnel et humain

Enfin, au-delà de la politique et de la stratégie, la gouvernance des données avec la mise en œuvre de référentiels, demande des choix d’organisation et de gestion : quel degré de centralisation ? quelles activités réalisées au niveau corporate ou maintenues localement ? quelles responsabilités de saisies des données et de contrôle ? quelles cellules d’administration mettre en place ? sur quels périmètres ?

Ce sont aussi des questions de compétences et de filières RH : avec qui constituer ces cellules ? comment valoriser ces postes aujourd’hui moins en vue que les nouveaux métiers de la donnée et pourtant essentiels pour sa qualité ?

Conclusion

Dans un 1er temps le nombre d’établissements financiers ciblés par la directive BCBS 239 reste limité. Mais une extension du périmètre initial est à prévoir : Banques non G-SIBs et acteurs de l’Assurance vont devoir se préparer à prendre en compte progressivement les principes de la directive et les intégrer à leurs différents projets.

Les bases de cette préparation sont désormais reconnues : une gouvernance de la donnée solide, une organisation opérationnelle définie en amont, complétées d’un dispositif continu d’animation et de surveillance pour en détecter les points d’amélioration.

Un investissement conséquent oui, mais pas uniquement au service du réglementaire. Cette approche globale et opérationnelle de la gouvernance des données s’impose comme un pré-requis pour valider la fiabilité des données explorées dans les Data Lab et Data Lakes en appui aux démarches marketing. L’adopter c’est aussi se construire un avantage concurrentiel.

Observatoire CONIX de la Donnée

Auteurs : Olivier ROBAST & Elisabeth ROUSSET – Illustration © dizain – Fotolia.com

Nouveaux métiers de la donnée, mythe ou réalité ?

Nouveaux métiers de la donnée
Si vous faites de la modélisation de données, de la gestion de données, de l’administration de données, de la construction de référentiels… et non de la data-visualisation, de la data-gouvernance, de la data-science ou de la data-stratégie, devez-vous vous considérer comme « dépassé » pour autant ?

Avec l’avènement de certains « nouveaux » métiers, qui font la une de journaux spécialisés ou des blogs, qu’en est-il aujourd’hui des activités autour des données ?

  • Comment ces rôles sont-ils portés et comment ces activités sont-elles attribuées aujourd’hui à travers ces « nouvelles » missions ?

Est-ce qu’un « Data Miner » ou un « Data Analyst » a la même mission qu’un gestionnaire de données d’antan ?

Le premier a-t-il couvert tout ou partie du périmètre de la mission du second ? Ou peut-on parler d’une approche totalement différente du métier, de son rôle, de sa fonction et de ses activités ?

  • Et ces « nouveaux » métiers (dont une liste non exhaustive est citée à la fin de l’article), sont-ils réellement nouveaux ou ne font-ils que reprendre ce qui existe déjà en rassemblant des parties de métiers existants ?
  • Est-ce le changement de modèle d’entreprise qui est à l’origine de ces « nouveaux » métiers ?

Avec une évolution de l’entreprise vers un modèle digital qui entraîne des modifications importantes au niveau technologique, qui crée de nouveaux besoins de services, l’orientation est résolument dirigée vers les clients de l’entreprise ; avec une diminution du temps consacré à la construction de nouveaux systèmes au profit du temps consacré à la gouvernance… Mais cela implique-t-il une nouvelle approche des métiers ou simplement une redistribution des activités ?


CONIX, dans le cadre de son Observatoire de la Donnée, s’interroge sur l’émergence de ces « nouveaux » métiers, la façon dont les acteurs de la DSI et des directions « Métier » vont être impliqués et impactés par l’arrivée de ces nouveaux rôles, au carrefour stratégique de l’évolution de l’organisation, des processus et de la gouvernance.

A ce titre CONIX vous propose, à travers une série d’articles, de brosser le portrait des métiers émergents autour de la data et de faire le lien avec les résultats d’enquêtes et d’analyses de l’observatoire de la donnée à paraître en fin d’année 2015.

Mais, en attendant les résultats, rendez-vous le mois prochain pour découvrir le « Data Scientist ».

Les nouveaux métiers / métiers émergeants autour de la DATA :

  • Data Scientist, Data Miner, Data Analyst, Data Steward, Data Strategist,
  • Chief Data Officer, Data Manager, Data Protection Officer, Data Custodian,
  • Data Architect, Data Sourcer, Responsable Open Data,
  • Correspondant Informatique et Liberté,
  • Animateur Responsable Datalab,
  • Responsable de Centre de Service BI/Data agile, Traffic Manager,
  • Data Business Analyst,

 

Nouveaux métiers de la donnée - Observatoire CONIX de la Donnée

Auteur : Jean-Marc MESSAN

Pour une définition de l’IT Compliance de la Donnée à travers l’explosion des flux

Compliance IT de la donnée

Depuis quelques années, l’explosion des données se caractérise par les dimensions hors normes en jeu, les  natures diverses et atypiques des sources (ERP, CRM, SMAC : Social, Mobile, Analytic, Cloud)  et les contraintes de conservation qui en résultent. Ceci crée des opportunités d’innovation pour les  métiers mais aussi une implication de la fonction IT Risk qui devient le garant d’un cadre de conformité IT de la donnée.

Un cadre de conformité IT de la donnée, pour quoi faire ?

La valorisation de la Donnée doit s’accompagner d’un cadre IT Compliance Risk qui s’assure que la Donnée est conforme à la fois :

  • aux attentes métier (capture, traitement, disponibilité, sauvegarde, intégrité de la donnée) ;
  • aux attentes de gouvernance (respect des procédures des opérations (documentation), sécurité (droits d’accès), respect des standards IT (architecture, obsolescence), respect des contrats envers les fournisseurs, continuité d’activité, réponse aux auditeurs internes, certification de type ISAE 3402…) ;
  • et aux attentes réglementaires ou légales (données personnelles, durée d’archivage,…).

<p »>La combinaison de ces 3 attentes crée de facto une définition élargie de la notion d’IT Compliance.

Un cas d’application

Exemple de l’une de nos missions dans le cadre des marchés financiers et du Dodd Frank Act autour du traitement d’un ordre SWAP. L’un des objectifs était de pouvoir reconstituer au travers d’un identifiant unique (personne, numéro d’opération) :

  1. tous les flux opérationnels (opérations effectuées à travers les départements Front Office/Middle Office/Back Office) ;
  2. tous les flux informationnels en termes de Data Processing (revue des accès applicatifs, logiciels utilisés, flux middleware, serveurs applicatifs, serveurs de base de donnes, stockage, backups) ;
  3. toutes les opérations et flux de données de type voix, messagerie email, messagerie instantanée se rattachant à cet identifiant ;
  4. tous les échanges publics sur des réseaux sociaux (Facebook, Twitter, Instagram, LinkedIn, Viadeo…) qui ont pu être faits.

Une méthodologie globale, la DATA Processing Approach

Cette IT Compliance demande une approche ERM – Enterprise Risk Management

  • pluridisciplinaire : regroupant les Directions Fonctionnelles Risques et Conformité, les auditeurs (internes et externes), les Architectes IT, les Services Managers et l’ensemble des acteurs en charge de la gestion des assets IT (SAM, obsolescence,…) ;
  • globale et systématique : s’inscrivant dans une démarche holistique complète, questionnant chaque activité IT, chaque famille de composants.

CONIX a développé une méthodologie globale de gestion des risques adaptée à la Gestion de la Donnée (Data Processing Approach). Elle permet de garantir :

  • la bonne délivrance du service attendu selon les besoins Métier (disponibilité, traitement, sauvegarde) ;
  • la protection de la donnée : intégrité de la donnée, droits d’accès aux informations ;
  • la conformité aux standards de l’architecture qui soutient la donnée ;
  • la conformité réglementaire : données personnelles, conservation des données.

Cette méthodologie, déclinable aussi bien dans un environnement IT propriétaire que dans un environnement Cloud (Iaas, Paas, Saas), se traduit par :

  • Une gouvernance avec des rôles et responsabilités clairement identifiées et des règles d’escalade adaptées ;
  • Un IT Compliance Risk framework qui répertorie l’ensemble des risques opérationnels sur l’intégralité du scope des activités IT et de leurs composants. L’intégration de ce framework IT Risk dès l’amont, est la condition d’une « Compliance by Design » qui accompagne les projets Data dès leur conception, de façon à identifier toutes les composantes qui serviront de base à la fourniture d’information. Nous l’adaptons à chaque exigence réglementaire (Dodd Frank Act, EMIR/MiFID regulations, EU Data Protection) ;
  • La définition de politiques et de procédures ;
  • Un plan de contrôles élaboré à partir d’objectifs, garant de la valeur ajoutée de la Donnée. Ce plan de contrôles adresse l’ensemble des activités IT (stockage, gestion de capacité, respect des règles d’archivage, gestion des accès, continuité d’activité, gestion des incidents,…) ;
  • Un monitoring et reporting qui permettent à travers des indicateurs (KRI – Key Risk Indicators-, niveau de maturité,…) de s’assurer que le niveau de Risque est maitrisé.

L’IT Compliance Manager, un métier clé du « data world »

L’approche IT Compliance de la donnée révèle l’IT Compliance Manager comme un métier clé du « data world ».

C’est lui qui va accompagner l’élaboration de la Cartographie des Risques basée sur le Data Processing Flow, la création d’un cadre de gouvernance de la donnée orienté Risques, la détermination du niveau de maturité/acceptation du Risque, la définition des Politiques – Principes – Processus, la création d’un Modèle de conservation des données et la définition de Reporting (métriques KRI – précision, intégrité, cohérence, complétude, validité).

Moins en vue au plan Marketing que le Chief Data Officer ou le Data Scientist, l’IT Compliance Manager est un métier essentiel dans l’environnement des données. C’est lui qui orchestre la Conformité IT de la Donnée et contribue à doter les acteurs en charge de l’innovation, de données conformes et de qualité. Il est important de bien l’intégrer dans le panorama des métiers qui comptent dans la transformation numérique autour de la donnée !

IT Compliance - Observatoire CONIX de la Donnée

Auteur : Faha RAMOELINTSALAMA

Lancement de l’observatoire CONIX de la donnée

Observatoire CONIX de la Donnée

Big Data, Data analysis, Data vizualisation, open Data, Data science… sont les représentants d’une révolution qui touche tous les acteurs du monde digital. Mais derrière le discours marketing se cachent de profonds changements.

Où en sont les entreprises aujourd’hui ? Qu’attendent-elles ? Qu’ont-elles entrepris ? Qu’en ont-elles retiré ?

CONIX lance son observatoire de la donnée pour mieux comprendre la maturité du marché en matière de données, apporter des retours d’expérience et favoriser la transformation numérique au travers des données.

observatoire CONIX de la donnée

Ces 4 questions fondamentales sont le fil rouge d’une réflexion que nous partageons au quotidien avec nos clients. Elles structurent un questionnaire qui sera diffusé avant l’été, et dont nous publierons la consolidation et l’analyse à la rentrée.

L’observatoire CONIX de la donnée rassemble également plusieurs initiatives que vous retrouverez sur notre blog et les réseaux sociaux. Ciblées sur la Donnée ces initiatives adressent la question de la gouvernance, des nouveaux métiers, de l’évolution du rôle de l’architecte, des dispositifs de valorisation des données, du cloud,….mais aussi de la protection de la donnée et de l’éthique.

Merci de continuer à nous suivre, nous relayer et participer à cette première campagne de l’observatoire CONIX de la donnée.