CONIX participe au DEP 2015

DEP 2015

DEP 2015

Les 26 et 27 novembre derniers, l’association ExQi (Excellence Qualité de l’information) a organisé le DEP 2015 (Data Excellence Paris) – 4ème édition – , un événement unique en France dédié à la Gouvernance, à la Gestion et à la Qualité des Données.

Cet événement a rassemblé une grande variété de participants du monde de l’Entreprise, du Conseil, de l’Edition et de la Recherche, dont CONIX.

Retour sur l’un des thèmes phares de cette édition DEP 2015 : la table ronde des Data Scientists, animée par Delphine Barrau et Laurent Faullimmel et qui fera l’objet d’une synthèse des échanges sur le site d’ExQi.
Les Data Scientists présents : D. Bachir (ENSIEE), S. Ben Hassine (Covéa), E. Fatni (CONIX), J.B. Rouquier (Dataiku), J.P. Malle (M8).

Eclairage sur ce métier avec Elkhader Fatni :

Pouvez-vous vous présenter ?

Bonjour, je m’appelle Elkhader Fatni. Je suis Data Scientist chez CONIX, une société de plus de 200 personnes qui accompagne les entreprises dans leur transformation et la maîtrise des risques.

J’interviens sur des projets orientés cas d’usages métier (fraude, désabonnement, hyperpersonnalisation…), souvent à travers des Datalabs, ou bien en « immersion ». Je contribue également au développement de l’offre Big Data de CONIX, notamment par la création d’un Datalab interne, sa promotion en participant à divers challenges de data science, de type Datathon.

Quelle définition donneriez-vous du métier de Data Scientist en une phrase ?

Je pense qu’un Data Scientist est une personne capable d’extraire, de combiner, d’analyser et de synthétiser des données massives dont la source, la nature et la fréquence de production sont variées. Finalement, il s’agit d’être capable d’exploiter « positivement » toutes les « connaissances » humaines.

Data Scientist, oui mais… et depuis quand ?

Le métier le plus « sexy » de ce début du 21ème siècle n’est certainement pas apparu du jour au lendemain. Je défends l’idée que le métier de Data Scientist résulte d’une part des progrès des technologies qui nous entourent et, d’autre part, de l’évolution d’un métier que l’on connait tous : le statisticien. En effet, les statisticiens ont longtemps été dévolus à l’analyse d’un certain type de données, que l’on retrouve principalement dans les systèmes de stockage traditionnels (bases de données).

Puis, les techniques de statistiques se sont perfectionnées donnant lieu à des profils capables de fournir une aide à la décision : la BI – Business Intelligence. Parallèlement, de nouvelles sources de données sont apparues avec le développement des sondages, par exemple, ou bien les formulaires en ligne. L’information à analyser n’est plus seulement numérique mais devient textuelle. De ce besoin est né le métier de Data Miner, personne capable d’extraire de la connaissance et de fouiller parmi les données. Ce profil s’est d’ailleurs renforcé avec la popularité des réseaux sociaux qui ont généré un véritable déluge de données non structurées.

Finalement, les géants du web perfectionnent leurs outils d’analyse, d’indexation… en prenant en compte la variété, le volume et la vélocité. Ces solutions se démocratisent et suscitent l’intérêt des entreprises qui se retrouvent avec des problématiques à forte valeur ajoutée, avec des masses de données internes mais aussi externes à leur SI, sans manuel d’utilisation. Le Data Scientist est là pour les guider.

DEP 2015- Elkhader Fatni

Que fait un Data Scientist en 2015 ?

J’interviens dans le cadre de l’offre Big Data de CONIX avec une approche orientée métiers. Je me positionne donc sur toute la chaîne d’un projet Big Data en commençant par aller à la rencontre des clients sous un angle très pédagogique quant à l’usage de la data science : je leur propose une solution selon un besoin métier, identifié ou non (fraude bancaire ou à l’assurance, hyperpersonnalisation de la relation clientèle….) avec des indices sur le ROI, je mets en avant la possibilité de constituer un datalab interne.

Dès cette étape, je débute un travail de recherche, d’extraction et de fouille de données par rapport au contexte. Dans les phases suivantes, j’effectue un long travail de prétraitement sur les données extraites puis je mets en œuvre des algorithmes de machine learning dans le but d’identifier les données corrélées. Enfin, après l’évaluation des modèles et la validation du métier, j’aborde la phase de visualisation des données qui me permettra de présenter les résultats devant le métier.

Selon le contexte, une phase d’industrialisation peut suivre, auquel cas j’interviens en tant qu’expert technique et m’assure du déploiement correct de la solution prototypée.

Avec quels outils ?

Chaque Data Scientist aura certainement ses préférences. Aussi, je distingue pour ma part deux mallettes à outils : l’une destinée à l’étape de prototypage et l’autre à l’industrialisation.

  • Prototypage : cette étape se veut courte (un à trois mois) et consiste à prouver la faisabilité et surtout le ROI potentiel d’une démarche prédictive. De ce fait, les outils manipulent souvent des jeux de données réduits et doivent être rapidement mis en place (via perl, python, scikit learn…).
  • Industrialisation : la démarche est validée, elle doit être généralisée à l’ensemble des données disponibles, sécurisée, déployable dans un environnement de production. En général, les outils Java sont à privilégier (Hadoop, Spark, etc.).

Un cadre méthodologique mûr ou encore jeune ?

Le métier de Data Scientist est récent et on peine encore à le définir. Difficile donc de parler de cadre méthodologique standard. J’ai cependant fait le choix des méthodes agiles car elles me semblent tout à fait adaptées aux projets de data science. Plus précisément, je travaille selon la méthodologie CRISP-DM (Cross Industry Standard Process for Data Miner) qui, comme son nom l’indique, est issue du data mining. Cette méthode propose des cycles basés sur la compréhension du métier, des données, leurs préparations puis leur modélisation…

Selon vous, quel est le parcours de formation le mieux adapté ?

Les formations de Data Scientist sont encore récentes, pourtant on trouve déjà des Data Scientists talentueux dans la nature ! En me fondant sur ma propre expérience, je m’aperçois que ma formation d’ingénieur m’a apporté un socle de connaissance indispensable en termes de rigueur scientifique, de connaissance de l’entreprise et de raisonnement éthique et social (en témoigne la charte d’éthique des ingénieurs). De plus, ma formation à dominante informatique m’a conforté dans l’usage des outils Big Data et me donne la capacité d’apprécier la nature des données, de comprendre leur production et de contribuer à leur interaction. Finalement, ma spécialisation de dernière année en « machine learning » et « data mining », ponctuée par un stage Big Data de fin d’étude, très enrichissant, m’a convaincu quant à mon avenir en tant que Data Scientist.

Il semble qu’aujourd’hui les DS soient principalement dans les grandes entreprises, au cœur de datalab ou de DSI. Cela vous semble-t-il représentatif ?

Il est vrai que l’on retrouve souvent ces acteurs dans les grandes entreprises, au cœur même de datalab. L’un des éléments de réponse réside dans le volume des données que ces grandes entreprises ont à offrir aujourd’hui. Pourtant, j’affirme que les Data Scientists ne sont pas réservés aux grandes entreprises. Et la raison en est simple : avec l’évolution des technologies et leur démocratisation, tous les domaines fonctionnels (banque, assurance, industrie, recherche, grande distribution…) sont concernés par l’effervescence des données et auront besoin de Data Scientists, qu’ils soient internes (création de poste) ou externes (cabinets de conseil).

Et demain… ?

Les discours mettant en avant l’or noir que constituent les données, le déluge des datas et autres métaphores poétiques laissent entrevoir l’importance du sujet dans les années à venir. Le véritable défi du Data Scientist sera sans doute de s’adapter à leur variété en combinant par exemple l’analyse des vidéos, images et sons. Plus encore, l’évolution de la technologie (processeur quantique, IoT, réalité augmentée…) suggère une infinité de nouveaux cas d’usage que les entreprises et les utilisateurs apprécieront certainement. Des frontières apparaissent cependant et des questions éthiques se posent (par exemple, Facebook a retiré son moteur de recherche sur les commentaires publics l’été dernier, redonnant ainsi le contrôle à ses utilisateurs quant à l’usage de leurs données).

En conclusion, la table ronde que nous animons aujourd’hui vise à définir un métier encore récent. Pourtant, de nouveaux métiers se profilent déjà à l’horizon : avez-vous entendu parler des Citizen Data Scientists ?


Autre thème abordé durant l’événement DEP 2015, la restitution du Groupe de Travail Big Data, avec la participation de S. Ben Hassine (Covéa), S. Corréa (Talend), D. Clément (Microsoft), K. El Idrissi (GrDF), X. Henderson (Air France – KLM), H. Husson (Conix) et D. Mariko (Information & Records Manager), sur les thèmes :

  • « Big Data – Self Healing Data Management »
  • « Comment mener un projet Big Data en tenant compte de la Data Quality ? », explications d’Hervé Husson, Cloud Practice Manager chez CONIX, via un retour d’expériences sur de vrais projets Big Data, analysés suivants 9 axes tendanciels : enjeux, politiques, organisations, métiers, processus, stratégies, architectures, réalisations et analyse de la valeur.

Eléments de réponse avec Hervé Husson :

Les projets Big Data, ça existe…

Le dernier sondage IDC-HP rapporte en effet que 56% des entreprises n’ont pas entamé d’initiative Big Data, tandis que 20% d’entre elles sont déjà dans une démarche d’évaluation de leur projet et 24% sont « en cours d’adoption » du Big Data. Si le succès semble encore mitigé, il convient de noter la progression de ce secteur dans le monde industriel.

L’objet de ce retour d’expérience présenté lors du DEP 2015 par CONIX est de montrer qu’il existe naturellement des projets Big Data au sein des entreprises, et particulièrement dans les secteurs d’activité du commerce, des transports, des services financiers et de l’énergie. Mais il s’agit également de montrer, aux travers de nos expériences, comment on peut mener un projet Big Data en tenant compte de la « data quality ».

DEP 2015 - Hervé Husson

Pour ce faire, notre étude s’est focalisée sur 9 axes dont voici les principales tendances qui se dégagent :

  • Axes Enjeux et Politiques : le Big Data constitue à l’unanimité un enjeu pour l’entreprise et traduit des ambitions fortes parmi lesquelles le pilotage de l’organisation, la connaissance des clients et prospects (grâce à la vision 360° du client), la sécurité et la prévention des fraudes mais aussi la data quality, qui est un véritable enjeu business. En effet, la donnée est au cœur de ces projets. Elle bénéficie donc de toute l’attention des acteurs métier et entraine, selon les différents cas d’usage mise en œuvre, différents schémas de prétraitements à l’origine de la data quality. On notera au passage les aspects politiques impliqués par ces prétraitements, notamment la conformité juridique et réglementaire.
  • Axes Organisations, Métiers et Processus : les organisations dédiées au Big Data sont généralement mixtes ; structure côté Métiers (exemples : commercial ou marketing) et structure côté DSI, orientée expertise technologique. A noter que les Data Scientists font souvent l’objet d’apports externes en sous-traitance. Le fameux CDO – Chief Data Officer – n’est pas encore une réalité dans toutes les organisations. Quant aux processus, la principale innovation réside dans la démarche de passage de l’expérimentation itérative à l’industrialisation.
  • Axes Stratégies, Architectures et Réalisations : la construction du SI est souvent guidée par une réflexion autour des cas d’usage. Elle se caractérise par la refonte des architectures BI classiques et met en avant des architectures Big Data de nature diverse. Lorsque les réalisations sont engagées (Proof of Concept, Proof of Value, prototype), des environnements Cloud sont privilégiés grâce à leur coût réduit et leur facilité de mise en œuvre notamment. La structure qui en découle est le « data lake », au-dessus duquel peut se greffer un datalab. La data quality n’est cependant pas un prérequis et les offres de type « DaaS » (Data as a Service) ne sont pas encore d’actualité…
  • Axe Analyse de la Valeur : s’il fallait retenir l’un des axes tendanciels de cette étude, c’est bien celui de la valeur qui émerge des initiatives Big Data. Nos retours d’expérience s’accordent sur l‘idée d’avoir pu trouver, grâce au projet Big Data, des réponses à des problématiques métiers jusqu’à présent non résolues. Plus encore, les projets liés à la donnée reposent sur une agilité accrue par le renforcement de la culture de l’expérimentation. Ce qui en ressort, c’est la capacité nouvelle qu’ont les entreprises à réaliser des analyses d’impact, leur maîtrise des données exposées, et la création de nouveaux services ou de nouvelles offres. Enfin, l’amélioration de la data quality est désormais quantifiable au cours du projet Big Data.

Le retour d’expérience que nous vous présentons est d’autant plus intéressant qu’il s’articule avec les conclusions de l’Observatoire de la Donnée CONIX, lancé récemment. La qualité des données est primordiale au sein d’une entreprise et les projets Big Data permettent finalement de mesurer la richesse de son patrimoine.


Pour plus d’informations, voici le support de la présentation. Et n’hésitez pas à contacter Hervé Husson.


Auteurs : Elkhader FATNI et Hervé HUSSON

Observatoire CONIX de la Donnée

Co-gouvernance des données : les limites d’un exercice « vertueux »

Co-gouvernance
Il était une fois, dans un pays appelé Entreprise, deux peuples qui vivaient en presque parfaite harmonie : le peuple Métier et le peuple SI (comme Système d’Information), le premier s’occupant des fonctions opérationnelles du cœur de l’activité de l’entreprise, le deuxième assurant, historiquement, le support technologique.

Le temps passe et, comme souvent dans toute organisation humaine, les activités évoluent, se mélangent, se complexifient, et les limites de responsabilité des uns et des autres, bien définies au départ, se brouillent.

C’est alors que surgit, dans notre pays appelé Entreprise, la « découverte d’une ressource inestimable » (ou devrais-je dire « la prise de conscience de la valeur jusque-là négligée d’une ressource »), je veux parler de la DONNEE ou DATA. Et cela ne se fait pas sans soulever un certain nombre de questions.

En effet, dans sa forme brute et comme beaucoup de ressources brutes, la donnée est de qualité médiocre, difficile à exploiter, à appréhender. Le peuple SI, qui stocke cette ressource dans ses espaces de rétentions (appelés communément « bases de données »), a beau déployer tous les outils possibles de raffinage, de purification, la qualité n’est pas au rendez-vous, ou alors à des coûts prohibitifs, car c’est à la source qu’il faudrait travailler ! Il devient alors impossible d’en retirer toute la valeur pressentie.

Débute une longue négociation entre les deux peuples. Qui a découvert cette ressource ? A qui appartient-elle ? Qui en a la responsabilité ?

Le peuple SI cherche à convaincre le peuple Métier de son implication dans le processus de création de cette ressource. Ce peuple doit prendre conscience que c’est SA donnée, qu’il en est le garant et qu’il assumer ce rôle pour le bien de l’Entreprise !

Peu enclin à gérer cette nouvelle activité, le peuple Métier finit par entendre raison et à se sentir investi d’une véritable mission : la GOUVERNANCE de la Donnée.

Mais le peuple SI, qui est tout de même à l’origine de cette découverte, ne voulant pas être en reste, propose d’instaurer une co-gouvernance des données : le peuple Métier sera le garant de la donnée et de sa valeur, la définira et cadrera la stratégie d’entreprise vis-à-vis de cette ressource au travers d’une Politique de la Donnée. Le peuple SI mettra en œuvre les technologies qui permettront de garantir cette politique de la donnée et de répondre aux objectifs stratégiques de l’entreprise, tout en apportant son expertise sur les technologies émergentes de traitement de l’information.

(J’aurais aussi pu vous raconter une autre histoire où le peuple Métier est, dès le départ, conscient que la donnée lui appartient et qu’il en est responsable, mais s’oppose à la résistance du peuple SI, et doit le convaincre de lui ouvrir les portes de ses espaces de rétentions pour analyser la situation et mettre en place les mesures nécessaires… Mais c’est une toute autre histoire… avec, étonnamment, les mêmes conclusions !)

Tout pourrait aller pour le mieux dans le meilleur des mondes. Mais les choses se corsent quand il est question de nommer un chef ! Qui sera le « chef de la donnée » ? Qui pilotera la manipulation et la transformation de cette donnée ? Le peuple métier qui connaît les données et leurs usages ? Ou bien le peuple SI qui connaît les outils et les technologies ?

Et c’est l’éternel recommencement (les crises ne sont pas que religieuses…). Les peuples ne se comprennent pas, s’opposent, se jugent et se déchirent (bon d’accord, là j’exagère un peu pour le sujet qui nous concerne).

Si je devais être la médiatrice du pays Entreprise, je rappellerais que, dans l’idéal, les responsabilités doivent être clairement séparées : le SI s’occupe des outils, le métier se charge des usages. La gouvernance des données concerne donc le SI essentiellement dans sa capacité à en assurer le support technologique. Mais comme aujourd’hui aucun « métier » n’a nativement l’approche transverse nécessaire, une bonne gouvernance des données passe par un parfait équilibre entre des acteurs métiers et des acteurs SI.

Néanmoins, comme dans toute structure (française, au moins), pour réussir et s’imposer il faut un seul et unique pilote. Un pilote proche du pouvoir, qui sait écouter et comprendre, ouvert et innovant et qui travaille pour le bien collectif de l’entreprise. Que ce pilote soit d’une origine ou d’une autre, je dirais « peu importe », à condition que ceux qui l’accompagnent dans la définition de la politique de la donnée, dans la connaissance du patrimoine DATA de l’entreprise, dans la sécurisation, le partage et le maintien en vie de ce patrimoine, soient mixtes et intégrés. Et je conseillerais fortement à ce pays de positionner ce pilote, quelque soit son origine, coté Métier dans une nouvelle structure transverse, voire dédiée.

J’espère que vous aurez apprécié le ton volontairement un peu naïf de cet article qui a pour finalité première de rappeler que l’on oublie trop souvent les fondamentaux, même (ou surtout) dans la gouvernance des données, quand il est question de Pouvoir.

Auteur : Delphine BARRAU

Le CDO mis à prix : tout le monde en veut !

CDO Wanted

Oui, mais lequel ? Le Chief Data Officer ou le Chief Digital Officier ?

En effet, duquel parle-ton ? Parmi les articles nombreux sur le Web, certains sèment la confusion. Nous avons l’exemple significatif du Journal du Net qui démarre l’article « Chief Data Officer, une destinée de bon augure ? », en décrivant les missions du Chief Data Officer, et le termine en évoquant la direction de rattachement probable et le salaire du … Chief Digital Officer ! Soit il s’agit d’une coquille (un peu grosse), soit l’auteur considère avoir affaire au même poste. Autre cas non moins symptomatique, celui d’Henri Verdier, nommé Administrateur Général des Données de l’État, poste que le journal Le Monde traduit par Chief Data Officer et met au même niveau que les Chief Data Officers de villes nord-américaines comme New York ou San Francisco, alors que celles-ci ont fièrement annoncé avoir embauché leur … Chief Digital Officer ! Une telle confusion n’est peut-être que le reflet de celle qui paraît régner dans les entreprises puisque, d’après Les Echos, 85% de ces dernières déclarent avoir un Chief Digital Officer. Ce phénomène est par ailleurs compréhensible car depuis deux ans, se succèdent les annonces de nominations de Chief Digital Officers par les grandes entreprises françaises (ERDF, L’Oréal, Pernod Ricard, Renault…). Alors, effet de mode ? Finalement, qui est qui ?

De fait, pour commencer à positionner les rôles respectifs du Chief Data Officer et du Chief Digital Officer, il faut revenir aux contextes encadrant ces métiers : le Big Data et la transformation numérique. Le premier contexte est celui de la multiplicité des sources de données internes / externes et structurées / non structurées. Le second regroupe les problématiques d’organisation et de modes de travail à partir du numérique pour repenser les activités, les partenariats, la relation client et jusqu’au business model de l’entreprise. Le Chief Data Officer serait alors plus proche du Big Data en termes opérationnels et le Chief Digital Officer de la transformation numérique en termes stratégiques. Qu’est-ce que cela signifie pratiquement ? Que font ces deux profils ? Que sont-ils censés savoir faire ? Où les trouve-t-on ? Où faut-il les placer au sein de l’entreprise ?

Chief Data Officer et Chief Digital Officer, pour quoi faire ?

Dans les magazines spécialisés du net, un consensus semble émerger à propos de la mission d’un Chief Data Officer. Son objectif serait d’apporter aux directions métiers – les directions marketing, commerciale, innovation et R&D sont généralement citées ; j’ajouterais celles de la production, des ressources humaines et de la finance – des « insights » pertinents et générateurs de valeur à partir du Big Data. L’« insight », en tant que vérité sur le consommateur porteuse d’un potentiel d’activité pour l’entreprise, oriente rapidement sur le point de vue du marché et du revenu bien sûr essentiel pour l’entreprise, mais la valeur peut se situer plus en amont, c’est-à-dire qu’on peut donner du sens à des données pour des directions qui ne génèrent pas du revenu (finances ou ressources humaines par exemple), et toute l’entreprise pourra en bénéficier.

En retouchant la définition de la mission du Chief Data Officer, on obtient : son objectif est d’apporter aux directions métiers, quelles qu’elles soient, à partir du Big Data, du sens générateur de valeur pour elles. Dans le détail, ce sens est construit en trois phases successives : la collecte, le traitement et la restitution / diffusion de données. En première phase, il s’agit d’identifier les sources de données, de les faire acheter par l’entreprise si nécessaire (en négociant les fonds en interne et avec les fournisseurs), de vérifier la qualité des données collectées, de les organiser et enfin de les classifier. Dans la phase de traitement, il faut filtrer les données, effectuer des calculs sur elles et les consolider en respectant les règles de gestion de l’entreprise. En ce qui concerne dernière phase, l’objectif est de rendre accessible les données obtenues sous le bon format, à la bonne personne et au bon moment. Dans ce cadre, il est facile d’imaginer l’utilité des outils de décisionnel (business intelligence en anglais) et d’analyse prédictive, mais la compétence associée à la maîtrise de ces outils doit s’accompagner d’une bonne connaissance du métier !

Le recruteur Robert Half a une formule heureuse pour décrire le poste de Chief Data Officer : « responsabilité de la gouvernance du capital que représentent les données ». Cette description met en évidence d’une part la notion de gisement de valeur des données, et d’autre part la fonction de garant de la politique de données, rarement citée et pourtant fondamentale dans l’activité du Chief Data Officer : un capital se protège et s’utilise selon des règles précises !

Cependant, dans ce qui précède n’est évoquée nulle vocation à faire transformer les processus et les organisations, même si la mise en place d’outils de traitement et d’analyse de données peut être à l’origine de telles transformations. C’est à ce moment qu’entre en jeu le Chief Digital Officer.

Autant, dans la littérature du Web, la description de la mission du Chief Data Officer est relativement précise, autant celle du Chief Digital Officer est vague ! Par exemple, le Chief Digital Officer doit « transformer, fédérer et piloter », formule manifestement appréciée, pouvant embrasser de bien vastes chantiers, mais lesquels précisément ? Les entreprises pressentent bien qu’il y a quelque chose à faire à partir du numérique, au moins générer plus de revenus et/ou rationaliser le portefeuille de projets numériques, d’où la nomination en série de Chief Digital Officers, parfois clonés au sein de la même structure et affectés d’objectifs pouvant parfois se contredire. Ainsi, pour l’Usine Digitale, un Chief Digital Officer est « chargé de guider l’entreprise dans sa transition numérique. (…) Il diffuse la culture et les projets digitaux auprès des collaborateurs. » Le mot est lâché, c’est un guide dont l’entreprise aurait besoin. Ce n’est pas elle qui sait, c’est lui qui a la VISION. Le mysticisme n’est pas loin, surtout dans les milieux technologiques qui raffolent des gourous. Même sans être croyant, une chose est sûre : l’enjeu est clairement organisationnel. S’il fallait retenir une description des missions d’un tel guide, on pourrait conserver celle d’Accenture qui propose 4 rôles :

  • le « digital strategist » qui pense la stratégie numérique de l’entreprise,
  • le « digital marketing leader » en charge de la génération de (nouveaux) revenus en ligne,
  • le « digitalisation leader » qui a pour objectif d’« injecter » le numérique dans la chaîne de production de l’entreprise,
  • et le « digital transformation leader » qui accompagne la transformation numérique, aux niveaux de l’organisation et des processus de l’entreprise.

On retrouve bien ici l’axe « externe » de la génération de revenus à partir de canaux numériques et celui « interne » de transformation des processus et des organisations, à partir d’une stratégie (autre mot pour vision).

Nous pouvons maintenant poser que le Chief Digital Officer travaille sur la valeur de l’entreprise (optimisation des modes de travail et des revenus) à partir de la valeur de la donnée, tandis que le Chief Data Officer s’applique concrètement à faire surgir cette valeur de la donnée. Le premier s’appuie dès lors naturellement sur le second.

Avec quelles compétences ?

On attend beaucoup d’un Chief Data Officer, peut-être un peu trop. Car qui ne rêverait d’embaucher un profil à la fois créatif, rigoureux, investigateur, ouvert, pédagogue et bon communicant auprès du management, connaissant les systèmes d’information, les langages de programmation, l’architecture de réseaux, l’analyse décisionnelle tout en ayant une forte orientation business ? Tout ceci pour un salaire entre 42 et 59k€ ! Difficile de faire mieux en termes de rapport qualité – prix.

Selon moi, il faudrait plutôt se concentrer sur l’essentiel, c’est-à-dire la valeur de la donnée pour les métiers. Deux axes de compétences sont ainsi concernés : une bonne connaissance des SI et en particulier une expérience consolidée sur des projets BI, associée à une expertise métier. Avec, en appui de ces compétences, une capacité à dialoguer / écouter et à transmettre. Reste qu’avec ce type de préconisation, il faut tout de même réussir à trouver l’homme ou la femme idoine, à rémunérer selon une fourchette de salaires forcément plus élevée que celle annoncée précédemment.

En revanche, le profil du Chief Digital Officer est plus difficile à cerner. L’opinion commune des cabinets et des ressources humaines cerne un expert de la transversalité, doté d’une culture hybride mêlant technicité digitale et connaissance du marché, adepte des méthodes agiles et possédant une bonne vision des enjeux stratégiques de l’entreprise. Peut-on être plus précis ? Pour ma part, je définirais le Chief Digital Officier comme la personne capable de dire rapidement à un comité directeur ce que signifie concrètement pour l’entreprise transformation numérique en termes d’optimisation de l’organisation et des revenus, soit un stratège ou un entrepreneur (ou les deux à la fois) avec une culture, même récente, de la data. Ce sera un dirigeant, et aura des émoluments en conséquences : la fourchette couramment citée est 150-200 k€.

Ainsi, le Chief Digital Officer pense la stratégie de la transformation numérique, son plan d’action et le promeut. Je verrais alors le Chief Data Officer comme la cheville ouvrière de la conduite du changement correspondante.

Où recruter ?

En ce qui concerne les formations par lesquelles pourraient passer les futurs Chief Data Officers, il ne semble pas encore y avoir de maturité au sein de l’enseignement supérieur français. Pêle-mêle, il y a en particulier le Master européen Datamining & Knowledge Management proposé par UPMC, Université de Lyon Lumière Lyon 2 et Polytech Nantes, le Master Degree in Multimedia and Data Management de Polytech Nantes, le Mastère Spécialisé Big Data : Gestion et Analyse des Données Massives de Télécom Paris Tech, le Mastère Spécialisé Big Data : analyse, management et valorisation responsable de l’ENSIMAG et de l’EMSI à Grenoble… Pour le type de fonctions occupées auparavant, il y a celles autour de la « data » – Datascientist, Master Data Manager, Data Protection Officer… Encore faut-il, dans ces cas, identifier la compétence métier et/ou business… A l’inverse, il est aussi possible de chercher parmi les postes au sein de directions métiers en lien avec le marché – des responsables commerciaux, marketing, innovation – et identifier la compétence data. Pour les ressources humaines, il s’agit d’un véritable challenge car le recrutement d’un tel « hybride » va au-delà des grilles classiques de recherche. Elles auront nécessairement besoin d’accompagnement…

Quant aux Chief Digital Officers, les « filières » naturelles sont celles où la transition numérique s’est déjà opérée, par exemple celles de l’informatique et des télécoms sans oublier le passage par une start-up. On trouve en particulier dans ces filières les éditeurs, les SSII, les intégrateurs et les opérateurs. Comme pour le Chief Data Officer, on peut aussi partir du métier et rechercher un profil qui a occupé des fonctions de direction dans la production, le commercial, le marketing ou l’innovation et qui est doté d’une très forte « appétence » pour le numérique. N’oublions pas que la cible est un visionnaire pragmatique du numérique.

Pour quel positionnement ?

Pour bien appréhender le positionnement possible de ces deux profils au sein de l’entreprise, c’est en fait une équipe complète qu’il faut considérer, intégrant des ressources propres et utilisant des ressources d’autres directions. Le patron de cette équipe est le Chief Digital Officer qui est un cadre dirigeant, rappelons-le, rattaché au Comité de Direction et nommé par la Direction Générale. Il y a donc du management hiérarchique dans sa fonction, mais aussi, et c’est essentiel, du management non hiérarchique, car il sera le relais de la transformation numérique auprès des métiers.

Il devra notamment travailler sur trois axes : l’axe technique, l’axe métier et l’axe diffusion. Le premier axe est en lien étroit avec la Direction du Système d’Information (DSI). De façon « naturelle », l’articulation entre la DSI et les directions métiers sera opérée par le Chief Data Officer qui, lui-même, en fonction de la taille de l’entreprise, s’appuiera sur une équipe de datascientists, de chefs de projet en décisionnel, de statisticiens et d’experts métiers amateurs de data. Pour l’axe métier, comme la transformation numérique commencera par la transformation des modes de travail et se poursuivra par la transformation organisationnelle, elle se fera en liaison avec les ressources humaines de l’entreprise et sera accompagnée par des spécialistes de la conduite du changement. L’axe diffusion vise la communication auprès des relais métiers et auprès de tous les salariés. Dans le premier cas, la communication est inter-personnelle : elle est du ressort direct du Chief Digital Officer. Dans le second cas, elle s’appuie sur la communication interne de l’entreprise et ses outils de marketing opérationnel. On voit bien que, pour monter une telle équipe, il vaut mieux éviter d’être seulement dans la réaction : il est nécessaire d’anticiper et de se préparer…

L’analyse qui vient d’être esquissée montre que s’interroger sur une mode actuelle, celle du CDO, Chief Data Officer ou Chief Digital Officer, revient à s’interroger sur la manière de gérer l’arrivée de la lame de fond de la transformation numérique, ici à travers la compréhension de ce que peuvent être ces deux profils et de ce à quoi ils peuvent servir dans ce contexte. En fait, c’est toute une stratégie que l’entreprise va devoir mettre en place qui va la modifier en profondeur, dans ses relations avec ses clients et dans son organisation. Une culture va remplacer une autre. Soit on « surfe » sur la mode et on fait comme les autres, on embauche son Chief Digital Officer dont on espère qu’il détiendra la vérité, soit on se prépare à la transformation numérique en y réfléchissant d’abord avec ceux qui la perçoivent déjà dans les directions métiers, au sein de la DSI, et avec l’aide éventuelle de conseils externes, et on imagine ensuite l’équipe, dont j’ai tenté la définition, et les moyens correspondants. Enfin, on recrute et on trouve les « pépites », avec un peu de chance…

Auteur : Michel GIRONDE

Case Management et BPM, le décryptage

Case Management

De l’affaire au dossier

Le terme « affaire » est largement répandu dans les entreprises et les organisations publiques : l’instruction d’un sinistre chez un assureur, l’organisation et le suivi de travaux dans un réseau de distribution d’énergie, le traitement d’une réclamation au service après-vente, le recrutement d’un cadre au sein des Ressources Humaines, le traitement d’un appel d’offres à la Direction des Achats, etc. sont des « affaires ». L’affaire c’est « l’objet d’un travail, d’une occupation, d‘un intérêt ».

L’affaire se matérialise généralement par un « dossier ». Dans ce dossier, on trouvera tout ce qui a trait à l’affaire : documents, notes, pièces justificatives, fiches de contact, ordres de mission, comptes-rendus, tableau de bord financier, tous classés selon une logique propre au métier concerné. Si ces contenus contiennent des informations essentielles à la compréhension de l’affaire, ils attestent également, par leur présence ou leur absence qu’un certain nombre d’actes de gestion ont été réalisés ou sont à réaliser par des acteurs internes ou externes à l’entreprise.

Au final, affaire et dossier ne font qu’un, et l’avancement de l’affaire se confond avec le statut du dossier.

Le « Case Management » et ses trois dimensions

Le « Case Management » désigne la « Gestion d’Affaire » ou la « Gestion de Dossier ».

Les dossiers, et leurs contenus, sont aujourd’hui largement informatisés, rendant obsolètes les dossiers « physiques », façon pochettes cartonnées sur lesquelles étaient inscrites des références et qui regroupaient tous les documents et pièces relatifs au sujet traité.

Mais le Case Management ce n’est pas uniquement du contenu, c’est aussi l’instruction de l’affaire, la gestion du processus organisé. Il permet de piloter la logique de traitement : poser une tâche à faire dans la corbeille de tel acteur, alerter tel autre qu’une tâche est en retard, demander à un troisième de valider un document, etc.

Enfin, et ce n’est pas le moins innovant, le Case Management c’est aussi la coopération au sein d’un réseau d’acteurs. Il propose aux acteurs, au-delà des échanges formalisés et normalisés, des possibilités d’échanger de façon informelle autour de l’affaire, à la manière de ce qui se passe sur les réseaux sociaux.

En résumé, on peut dire que le Case Management gère une « Affaire » sur trois dimensions : contenu, processus, collaboration.

La définition de ce qu’est un outil de Case management n’est pas toujours exprimée autour de ces trois dimensions. Un outil de Case Management est parfois défini en comparaison au Business Process Management (BPM). Cela revient à mettre en avant la dimension processus. Pour partielle que soit cette vision, elle ne nous parait pas dénuée d’intérêt pédagogique, comme on va le voir tout de suite.

BPM or not BPM ?

Comparer le Case Management au BPM reste, en effet, une excellente façon de faire comprendre ce qu’il est :

  • Alors que le BPM est centré sur l’orchestration de processus (process centric), et vise l’optimisation de l’enchaînement des tâches, la fluidité des échanges, la réduction des temps de latence, le Case Management adresse, lui, la gestion d’affaire autour du contenu de l’affaire – le dossier –, représenté par l’ensemble des informations requises (information centric) pour instruire l’affaire.
  • Si le BPM adresse des processus de gestion maîtrisés, très formels, dont les possibles sont connus à l’avance (déterministe – « process in the machine »), le Case Management fait appel, lui, à des décisions humaines, suivant un ordonnancement qui n’est pas nécessairement connu à l’avance (non déterministe – « process in the brain »).
  • Avec le BPM, c’est le processus qui est le chef d’orchestre, et hormis les cas à la marge et les imprévus, le BPM vise l’automatisation des tâches à faible valeur ajoutée (automatisation du processus), alors que le Case Management, lui, laisse l’initiative aux intervenants dans la gestion du dossier (pilotage du processus); C’est le déroulement des événements, couplé à la connaissance métier des intervenants, qui permet de conduire le dossier et de créer la valeur ajoutée.

Différent mais pas indifférent, le Case Management peut être vu comme une extension du BPM.

  • Le Case Management regroupe des contenus (documents et pièces justificatives, informations brutes ou travaillées), des acteurs (associés à des rôles) et des évènements (issus de processus BPM), autour d’un « Dossier numérique ».
  • Le Case Management utilise les services BPM pour la transmission des données et documents, l’assemblage d’informations disparates en ensembles cohérents, le routage aux bons interlocuteurs et la traçabilité des échanges.
  • Le Case Management peut intégrer des parties de processus automatisés (relevant donc du BPM) ; C’est d’ailleurs une façon astucieuse (pragmatique, opérationnelle, agile) de fédérer des processus élémentaires autour d’une approche macro-processus : le Case Management peut aussi être utilisé pour piloter les fameux « macro-processus de bout en bout » qui, en partant du client (et de sa demande), traversent les différents services de l’entreprise pour… revenir au client.

Typologies de solutions

Construire une application de Case Management nécessite de mêler contenus documentaires, gestion des tâches et gestion des intervenants, avec accès aux applications métiers pour la réalisation des « actes de gestion » ou le déclenchement de processus externes. Il s’agit de gérer les processus, les acteurs, les contenus, les collaborations, et de produire des indicateurs de pilotage de l’activité ainsi réalisée et de la qualité du service rendu.

Du point de vue « IT », le Case Management est à la croisée de nombreux chemins technologiques :

  • La gestion des pièces documentaires (Entreprise Content Management).
  • L’orchestration d’opérations métiers (Business Process Management).
  • La gestion du dispositif organisationnel (Workforce Management).
  • La gestion des échanges avec les acteurs externes (eXtended Relationship Management).
  • Le suivi des indicateurs d’activité (Business Activity Monitoring).

Case Management et BPM - Case management pillars

Les éditeurs positionnés sur ces différents domaines IT proposent maintenant de couvrir, avec des solutions de type « all in one », l’ensemble de ces volets. Mais il existe également des « pure players », généralement des éditeurs originaires d’un de ces domaines IT où ils ne sont jamais vraiment imposés et qui retrouvent une seconde jeunesse sur le marché du Case Management.

Une solution de Case Management doit mettre l’accent sur l’intégration avec les autres briques d’un SI (applications métiers, gestion de documents, gestion des relations, moyens de communication, etc.). Elle doit faire preuve de souplesse et d’adaptabilité pour gérer tous les cas de gestion qui se présentent, que ce soit le processus nominal ou tous les cas à la marge et autres imprévus. C’est ce qui plaît aux utilisateurs et favorise leur adhésion.

Choisir une plate forme de Case Management constitue un acte architectural majeur. Ceux qui l’ont fait et ont réussi à passer le cap de l’intégration au reste du SI se rendent d’ailleurs compte que les cas d’usage sont beaucoup plus nombreux qu’on ne l’imagine. Car, à bien y regarder, quelle activité métier impliquant une coordination entre plusieurs acteurs est indifférente aux trois dimensions du Case Management : contenus, processus, collaboration ?

Auteurs : Christophe ROUXEL & Joseph PAUMIER.
Illustration Syda Productions © Fotolia

Data is like gold : you better move it rather than sit on it

Mine d'Or
Il s’agit d’un bien précieux très recherché et apprécié depuis les temps anciens. L’homme a dû apprendre à l’extraire, le raffiner, le transformer, puis le valoriser… avant de finalement l’utiliser en guise de thésaurisation.

Si cette description ne vous éclaire pas sur le sujet dont il est question, c’est bien parce que l’or et la data se confondent facilement aujourd’hui. D’ailleurs, la terminologie employée n’est pas anodine: à l’état « naturel », la data se présente sous une forme aussi brute que celle d’une pépite d’or qu’il convient d’extraire. Le travail de préparation de la donnée brute constitue ainsi près de 70% du temps passé sur un projet Big Data. Et malheureusement, c’est dans cet état primaire que de nombreuses entreprises la conservent indéfiniment. Texte, email, réseaux sociaux, navigation, localisation, météorologie, démographie… les filons sont nombreux mais les prospecteurs de la data n’y ont pas accès. Ce véritable trésor insoupçonné constitue pourtant un atout de poids dans le business d’une entreprise car, contrairement au métal précieux, la pertinence de la donnée décuple lorsqu’elle est corrélée à d’autres sources. Dès lors, on comprend rapidement qu’il ne convient pas de rester assis sur cette montagne de données sans chercher à en tirer profit. Les plateformes open data l’ont bien compris et prolifèrent aujourd’hui sur la toile.

L’open data, c’est un concept simple qui traduit la volonté de mettre l’information à disposition du public. À l’instar de l’Etat avec la plateforme data.gouv.fr qui contient déjà 18500 jeux de données, des grandes agglomérations (Toulouse, Rennes, Issy-les-Moulineaux…), la SNCF, la RATP, ErDF ou encore JC Decaux procèdent au déverrouillage des données. En face, les « sportifs » de la data se challengent lors des datathons, favorisant au passage le raffinage de la donnée. Pourtant, cette démarche d’ouverture ne devrait pas profiter qu’aux grandes entreprises. Ordonner une liste d’hôtels pour maximiser les ventes, ne pas retrouver une housse de portable dans la catégorie smartphone sur un site d’e-commerce ou estimer automatiquement le prix de vente d’un véhicule d’occasion: voici quelques exemples par lesquels des entreprises ont pu dynamiser des données internes en « se contentant » de les publier. Bien sûr, la publication des données peut se faire à différentes échelles et par différents moyens. Il est effectivement possible de débuter au sein de l’entreprise, en regroupant les sources de données variées et de divers formats sur une plateforme telle qu’OpenDataSoft. Dans un second temps, on pourra augmenter sa couverture à de nouveaux départements, filiales… avant de se décider quant à une éventuelle publication sur le web notamment grâce aux API. Deux possibilités sont donc offertes pour favoriser le monde des données ouvertes : Open API ou Open Data. Un même but, une stratégie différente.

Enracinée parmi les fondements de la république, la politique d’ouverture des données est l’un des chantiers numériques de notre siècle. En témoigne la 3ème position de la France au classement mondial de l’Open Data Index (derrière le Royaume-Uni puis le Danemark, décembre 2014). Initialement porté par la recherche puis par le gouvernement, l’open data alimente les possibilités offertes par le big data en se joignant à la production humaine que l’on retrouve déjà sur les réseaux sociaux. En plein essor, il propulse une entreprise classique sur le devant de la scène car ouvrir ses données vers l’extérieur promet de développer de nouveaux usages autour de son métier historique tout en participant au développement économique. Le déploiement des compteurs communicants dans le secteur énergétique, associé aux futures smart grids, en sont une illustration. Les frontières doivent cependant être clairement définies lorsqu’on abordera des données personnelles, car développer un business autour de cette matière première, à l’image des GAFA (Google, Apple, Facebook, Amazon), ne s’improvise pas.

The Gold Rush

Le choix de politique d’ouverture des données appartient à chacun. Si la démarche semble échapper au commun des mortels, il est toujours possible de faire appel dans un premier temps au data scientist au sein même de l’entreprise. Cet expert peut effectivement bousculer la masse d’informations dans un bac à sable en la conciliant judicieusement avec diverses sources d’open data existantes. Et qui sait si ces différentes corrélations réalisées, caractéristiques d’un « datalab », ne vous permettront pas au passage d’élucider des problématiques de fraude ou de désabonnement, pour ne prendre que deux exemples concrets…

open data - Observatoire CONIX de la Donnée

Auteur : Elkhader FATNI. Illustration (mine d’or) par Gord McKenna, sous licence CC-BY-NC-ND