L’essentiel de la réforme IFRS9

Le 27 juin 2016, le comité de réglementation comptable (CRC1) a rendu un avis positif sur un règlement de la Commission approuvant une nouvelle norme comptable internationale dans l’UE, la norme IFRS 9 « Instruments financiers ». D’ici la fin du quatrième trimestre de 2016, la commission européenne devrait apporter sa validation finale au projet de règlement permettant à IFRS 9 d’entrer en vigueur pour les exercices ouverts à compter du 1er Janvier 2018. Une application anticipée de la norme a par ailleurs été autorisée.

Si le contenu de cette norme ainsi que le calendrier de sa mise en œuvre sont largement documentés, ses implications en termes de coût et ses contraintes pour les établissements de crédit sont moins claires. Il en est de même de l’éventuel avantage qu’ils pourraient en tirer, même si la finalité de la norme n’était pas de « servir » les banques mais de produire une information fiable pour les consommateurs des états financiers.

DE L’IAS 39 A L’IFRS 9

Rappelons que les normes IFRS (International Financial Reporting Standard) s’appliquent aux états financiers consolidés des sociétés cotées dans l’UE depuis le 1er janvier 2005. IFRS 9 « Instruments Financiers » vient remplacer (ou compléter sur certains aspects) la norme IAS 39 « Instruments financiers : comptabilisation et évaluation », dans un souci d’amélioration de l’information financière.

Le principe de cette norme, qui est d’adopter une approche plus prospective pour la comptabilisation des pertes attendues sur les actifs financiers, découle d’un appel du G-20 dans le cadre du débat né de la crise financière de 2008. Elle apparait comme la réponse complète et proportionnelle de l’International Accounting Standard Board (IASB) aux causes de la crise et celles de son aggravation.

En reprenant IFRS 9 à son compte, l’objectif de la commission européenne est de renforcer les principes permettant de présenter des informations pertinentes aux utilisateurs des états financiers. IFRS9 constitue un réel changement d’approche du régulateur.

Une approche en trois piliers

La Norme IFRS 9 « Instruments Financiers » s’articule autour de trois grands piliers appelées « Phases » :

  • PHASE 1 : Classification et évaluation des instruments financiers
  • PHASE 2 : Dépréciation des instruments financiers
  • PHASE 3 : Couverture des instruments financiers
PHASE 1 : la classification et évaluation des instruments financiers

En IAS 39, la comptabilisation et l’évaluation des instruments financiers se base sur l’intention de leur gestion et de leurs caractéristiques. Elle distingue quatre catégories d’actifs financiers et deux catégories de passifs financiers :
Classification IAS39

Classification IAS39

En IFRS 9, la classification des actifs financiers prend en compte le modèle économique de l’entité pour la gestion des actifs financiers et les caractéristiques des flux de trésorerie contractuels de l’actif.

En fonction du modèle économique, les actifs financiers sont ainsi classés et évalués selon trois catégories :
Classification IFRS9

Classification IFRS9

Concernant les passifs financiers, IFRS 9 inclut la même option que dans IAS 39. Toutefois les variations de juste valeur seront désormais enregistrées dans les autres éléments du résultat global.

Classement des actifs financiers en IFRS9

IFRS 9 offre trois catégories de classement des actifs financiers définissant leur mode d’évaluation ultérieure :

  • L’évaluation au coût amorti,
  • L’évaluation à la juste valeur par le biais d’autres éléments du résultat global (OCI : other comprehensive income),
  • L’évaluation à la juste valeur par le biais du résultat net.

Ce classement se fait selon le modèle économique que suit l’entreprise pour la gestion des actifs financiers et selon les caractéristiques des flux de trésorerie contractuels de l’actif financier.

Ainsi, un actif financier doit être évalué au coût amorti si deux conditions sont réunies :

  • Sa détention s’inscrit dans un modèle économique dont l’objectif est de détenir des actifs financiers afin d’en percevoir les flux de trésorerie contractuels.
  • Les conditions contractuelles de sa détention, donnent lieu, à des dates spécifiées, à des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû.

L’évaluation à la juste valeur par le biais d’autres éléments du résultat global est admise si :

  • L’entité fait le choix irrévocable, lors de la comptabilisation initiale, de présenter dans les autres éléments du résultat global les variations futures de la juste valeur d’un placement particulier en instruments de capitaux propres qui serait autrement évalué à la juste valeur par le biais du résultat net.
  • Concomitamment, deux conditions sont réunies : la première étant que la détention de l’actif financier s’inscrive dans un modèle économique dont l’objectif est atteint à la fois par la perception de flux de trésorerie contractuels et par la vente d’actifs financiers. La seconde condition étant que les conditions contractuelles de l’actif financier donnent lieu, à des dates spécifiées, à des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû.

Concernant l’évaluation à la juste valeur par le biais du résultat net, elle n’est applicable que si :

  • L’actif n’est évalué ni au coût amorti ni à la juste valeur par le biais des autres éléments du résultat global
  • L’entité décide irrévocablement, lors de la comptabilisation initiale de le désigner comme étant évalué à la juste valeur par le biais du résultat net ; encore faut-il dans ce cas, que cette désignation élimine ou réduise sensiblement une incohérence dans l’évaluation ou la comptabilisation.

Classement des passifs financiers en IFRS9

Excepté quelques situations décrites dans le paragraphe 4.2.1 de sa note officielle, IFRS 9 impose un classement des passifs financiers au coût amorti, sans possibilité de reclassement. Cependant, l’établissement de crédit dispose toujours de l’option de désigner un passif financier comme étant à la juste valeur par le biais du résultat net. Cette option n’étant possible que dans deux situations : soit dans un but d’éliminer une « non-concordance comptable »2, soit parce que la gestion du groupe de passifs financiers et l’appréciation de sa performance sont effectuées à la juste valeur conformément à une stratégie de gestion de risque ou d’investissement établie par écrit.

Reclassement des instruments financiers

Le reclassement des actifs financiers est très encadré par IFRS9. Celui-ci n’est désormais possible que lorsque le modèle économique change ; ce qui demeure un fait plutôt rare pour un groupe d’actifs financiers.

Quant au reclassement de passifs financiers, il est interdit. Cette contrainte appelle à la plus grande rigueur lors de l’analyse en vue de la comptabilisation initiale de ceux-ci.

PHASE 2 : La dépréciation

La grande innovation de la norme IFRS 9, et probablement l’un des points à surveiller pour les établissements de crédit, voire le plus coûteux pour les EDC est la dépréciation des instruments financiers. L’élément déclencheur de cette dépréciation sera fondé non plus sur les pertes avérées (Incurred Losses), mais plutôt sur les pertes attendues (Expected Losses). Ce changement de modèle induit de nouvelles règles de provisionnement et de comptabilisation des pertes attendues, et ce dès l’origination de crédit.

Pour mieux accompagner cette évolution majeure, le Comité de Bâle a publié en Février 2015, une version révisée de la « Guidance » sur les bonnes pratiques d’évaluation du risque de crédit dont la version initiale remonte à 2006.

Ce changement d’approche introduit une nouvelle complexité qui est, l’estimation des pertes attendues « Expected Credit Loss » (ECL). Cette dernière n’est rien d’autre que le montant de pertes anticipées calculé dans le cadre du provisionnement pour chacune des tranches IFRS 9.Ce Montant prend en compte des projections futures.

Le modèle mis en place par IFRS 9 s’articule autour de trois « Buckets » ou strates dépendantes du niveau de dégradation du risque de crédit attaché à l’actif :
IFRS9 - Buckets

PHASE 3 : Couverture des instruments financiers

IFRS 9 introduit une légère réforme de la Comptabilité de couverture (hors macro couverture). Elle a certes reconduit en grande partie les règles relatives aux opérations de couverture notamment en maintenant les différents types de relation de couverture : la couverture de juste valeur ; la couverture de flux de trésorerie ; la couverture d’un investissement net. Les évolutions portent essentiellement sur :

  • L’élargissement des règles d’éligibilité des instruments couverts ;
  • L’élargissement des règles d’éligibilité des instruments de couverture ;
  • L’assouplissement des critères d’efficacité ;
  • Le renforcement du niveau d’information à fournir ;

Les contraintes de la réforme IFRS 9 pour les établissements de crédit

IFRS9 présente pour les EDC, des contraintes dont les principales sont fonctionnelles.

Celles-ci sont d’abord liées au classement. Le classement des instruments financiers tel qu’introduit par IFRS 9 apparait comme une standardisation de l’évaluation à la juste valeur et un durcissement des conditions de l’évaluation au coût amorti. Bien que venant corriger une difficulté d’application de la classification des actifs du point de vue d’IAS 39, il soulève de nombreux défis.

Les EDC devront être en mesure d’identifier clairement les impacts du nouveau classement des instruments financiers, ainsi que ses implications sur leurs processus métier. Notamment, mesurer et évaluer la FTA (First Time Application).

Egalement, ils devront désormais mettre davantage de moyens à l’analyse des instruments financiers lors de la comptabilisation initiale, vu que le reclassement est devenu pratiquement impossible, notamment lors de la ventilation des instruments de leur classe d’IAS39 vers celle d’IFRS9.

De même, les établissements devront être en mesure d’identifier un niveau de regroupement des actifs financiers, leur permettant d’apprécier le modèle économique. Il convient de préciser que ce modèle économique est déterminé au niveau auquel l’entité regroupe ses actifs financiers en vue d’atteindre un objectif économique donné, sans tenir compte des situations pouvant s’opposer à cet objectif. Car IFRS9 propose une appréciation du modèle économique uniquement à partir des faits et non sur la base de déclarations d’intention.

Par ailleurs, les personnes assujetties devront pouvoir caractériser les flux de trésorerie, et déterminer s’ils remplissent les conditions du test SPPI3 (Solely Payment of Principal and Interests), c’est-à-dire des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû. Car d’un instrument à l’autre, cette analyse peut s’avérer très complexe. Il faudra aussi être capable d’apprécier ou de modéliser clairement les flux de trésorerie, ainsi que leur échéancier de paiement, en prenant en compte les éventuelles modifications de ceux-ci.

Les contraintes fonctionnelles sont aussi liées à la dépréciation. L’introduction du modèle prospectif de la dépréciation, se traduira par une augmentation importante des provisions qui doivent être calculées pour les 12 mois à venir dans le meilleur des cas, et pour toute la durée de vie de l’instrument dès l’apparition d’un risque de crédit. Ce modèle pourrait aussi causer des difficultés de pilotage de la volatilité semestrielle de la CNR (Charge Nette du Risque) et entraîner :

Une refonte des approches et stratégies de gestions des actifs – Les établissements de crédit devront réfléchir à la durée de vie des instruments financiers, au regard du profil de risque de la contrepartie, d’autant qu’en cas d’apparition du risque de crédit, cela pourrait avoir un impact sensible sur les provisions, compte tenu de la durée de provisionnement.

La nécessité de mettre en place d’un modèle robuste d’estimation des pertes de crédit (calcul de l’ECL) attendues à 12 mois ou sur la durée de vie du crédit pourrait impliquer la conception de nouveaux modèles statistiques et/ou la collecte de nouvelles données nécessaires à la construction des modèles. En effet, IFRS 9 exige que l’estimation des pertes attendues ne se fasse pas uniquement à l’aune des données historiques, mais en prenant en compte les données de l’environnement économique de la période concernée.

La notion « d’augmentation significatif de risque de crédit » étant déterminante pour l’établissement de la durée sur laquelle les pertes attendues doivent être calculées (12 mois ou la durée de vie de l’instrument), il pourrait nécessaire d’établir un référentiel des seuils par instruments ou groupe d’instruments ou de défaut pour les financiers.

La mise en place de méthodes de calcul de la dépréciation de portefeuilles de crédit comportant des encours repartis dans différents Buckets, en tenant compte des possibilités de transfert entre Buckets (notamment Bucket 1 et Bucket 2) mais aussi la mesure de l’impact sur la rentabilité de ces portefeuilles.

La mise en place de procédures de contrôles pour les nouvelles exigences.

En plus de ces contraintes fonctionnelles, les nombreuses modifications introduites par IFRS9 nécessitent une adaptation du système d’information. Au vu de la complexité et de la variété des modifications introduites par IFRS 9, il apparait évident que les systèmes d’informations connaitront des modifications sous diverses formes :

  • La modification des architectures SI existantes en vue de l’intégration de nouveaux outils ou le retrait de certains outils (comme les outils de reclassement d’actifs)
  • La migration de données après une fusion ou une scission d’outils, ou simplement pour la gestion des reclassements des instruments qui changeront de classe sous IFRS 9.
  • La modification des référentiels existants (nouvelles mailles d’agrégation de données, ajout de nouveaux champs)
  • La mise en place de nouvelles bases de données ou la modification des bases existantes.
  • La refonte des outils de calculs et de modélisation (calcul de CVA, DVA…)

IFRS9 se traduira aussi par un coût potentiel lié au nouveau classement au regard des exigences de fonds propres de Bâle 3 en même temps qu’elle induira l’accroissement potentiel de provisions avec pour conséquences la consommation de fonds propres et la limitation de capacités d’investissement. Elle pourra dans plusieurs cas, limiter la progression des engagements des EDC notamment vis-à-vis des contreparties jugées risquées. Toutefois, vue sous un autre angle, elle pourrait être interprétée comme une incitation à la prise de risque par les EDC. En effet, IFRS 9 met l’accent sur la notion de « fort accroissement » du risque de crédit pour le calcul des provisions. Cela pourrait encourager des établissements financiers à faire un pari sur des contreparties ayant déjà un fort risque de crédit, mais présentant, néanmoins, de fortes perspectives d’amélioration, et donc de chute du risque de crédit.

A contrario, les challenges liés à la couverture restent les mêmes étant entendu que IFRS9 a reconduit la majorité des grands principes de la couverture utilisés sous ISA39.

En définitive, les contraintes liées à l’application d’IFRS9, ne doivent pas totalement occulter les avantages que les EDC pourraient en tirer quels qu’infimes soient-ils. Sur le plan individuel, l’investissement dans une approche prospective participe à une démarche préventive saine puisqu’il protège les établissements en amont, contre des pertes et leur permet de prendre des dispositions de maitrise a priori. Cette approche leur permet de jauger régulièrement leurs méthodes d’évaluation du risque de crédit à travers une comparaison entre le prédit et le réalisé. Sur le plan global, du fait de la démarche prospective, l’application d’IFRS9, est de nature à renforcer la résilience du système financier. Les normes IFRS de manière générale, et IFRS 9 en particulier incitent à une harmonisation des pratiques entre le groupe et ses filiales ; ce qui peut être une source d’économies substantielles.

Conclusion

L’ambition de l’IFRS 9 est donc claire, cependant, les contours de son impact et de son coût restent encore mal définis. Les impacts de cette réforme seront sans doute connus après deux ou trois exercices, lorsqu’à l’épreuve des réalités, auront affleuré quelques difficultés pratiques. Pour l’instant, l’heure est à la préparation en vue du respect des délais.

Auteur : Auguinard SEA

1 Le CRC (comité de réglementation comptable) fournit à la Commission européenne des avis sur les propositions d’adoption des IFRS en vertu de l’article 3 du règlement IAS. Il est composé de représentants des États membres et est présidé par la Commission européenne. Le comité a été créé en vertu de l’article 6 du règlement IAS (1606/2002/UE).

2 Incohérence dans l’évaluation ou la comptabilisation d’un actif ou un passif financier.

3 Il s’agit d’un test d’analyse des flux de trésorerie. Il permet de déterminer si la condition énoncée aux paragraphes 4.1.2(b) et 4.1.2A(b) de la note officielle IFRS 9, imposant à l’entité de déterminer si les flux de trésorerie contractuels liés à l’actif correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû, est remplie.

CONIX récompensée dans la lutte contre le cancer

Projet ELSE

Samedi 28 mai, se déroulait la finale du projet Epidemium, Challenge4Cancer, organisé par le laboratoire de recherche La Paillasse en partenariat avec les laboratoires Roche, et animé par le collectif Epidemium.

Une soirée pleine d’émotions et de surprises pour l’équipe de CONIX qui participait au challenge.

Mais revenons 6 mois en arrière…

Dans le but d’innover et de faciliter les recherches scientifiques sur le cancer, les laboratoires Roche et La Paillasse lancent fin 2015 le projet Epidemium, programme de recherche scientifique participatif et ouvert dédié à la compréhension du cancer grâce aux Big Data. Il qui prend la forme d’un data challenge, Challenge4Cancer. 21 000 jeux de données ouvertes sont mis à disposition par les organisateurs.

25 équipes se lancent dans l’aventure, dont CONIX avec son projet ELSE (Evolutive Life Selection Experience). Il s’agit de créer une expérience interactive et sensibilisante, sous forme d’un « Serious Game » : dans la peau d’un personnage né en 2000, le joueur sera sensibilisé aux facteurs de risques liés aux cancers susceptibles de l’affecter, lui ou ses proches, en fonction des habitudes de vie.

ELSE combine un socle scientifique de traitement de données par des modèles prédictifs avec une application simple, type jeu de plateau. Réalisé en mode Agile avec 6 sprints de 3 semaines, la documentation du projet et la répartition des tâches ont été réalisées sous Trello (outil gratuit et visuel d’organisation de projet). Ce projet a permis de rassembler au sein d’une même équipe les différentes compétences disponibles chez CONIX (architectes Big Data, développeurs, data scientists, data analystes, animateurs…) et de les mettre en œuvre sur tous les axes des BIG DATA (maîtrise d’ouvrage, maîtrise d’œuvre et développement, infrastructures, méthodologie projet).

La communication au sein de l’équipe projet (une vingtaine de personnes) a été assurée par le Réseau Social d’Entreprise de CONIX (Chatter de Salesforce).

Le cœur prédictif a été développé en Python à l’aide du notebook web Jupyter, toujours dans ce souci de travail d’équipe, en testant plusieurs modèles de régression issus de la librairie ScikitLearn. L’application a été développée avec les technologies web du moment : HTML5, jQuery et Bootstrap. Enfin, des tests sur un socle Hadoop, mis en place au sein de CONIX afin de répondre aux attentes de nos clients, ont permis de démontrer la robustesse de notre projet sur un périmètre plus large que la France (entrainant donc une volumétrie de données beaucoup plus conséquente).

Face à un jury exigeant composé d’un comité éthique et d’un comité scientifique auxquels participaient d’éminents spécialistes (dont notamment Cédric VILLANI, médaille Fields en Mathématiques), le projet ELSE s’est vu délivrer la mention spéciale « Originalité du Modèle » ainsi que le 3ème prix. Le chèque de 2000 € remis à CONIX pour ce prix par les Laboratoires Roche sera versé intégralement à la recherche contre le cancer.

Au delà de la grande satisfaction des prix et mentions décernés par le jury, ce challenge a aussi été l’occasion de confirmer la capacité de CONIX à assurer l’exécution d’un projet Big Data et Data Science sur toutes ses étapes et lui permet de renforcer ses retours d’expérience à partager avec ses clients.

Il reste néanmoins encore beaucoup de travail à réaliser pour consolider le modèle, assurer la portabilité de l’application vers des supports mobiles et surtout valider le scénario avec des collectifs d’association de malades, voire avec l’Education Nationale, pour porter le bon message auprès d’une population jeune, à sensibiliser aux facteurs de risques du cancer.

Revue de presse
Makery Info : Epidémium ouvre les mégadonnées du cancer
Roche.fr : Epidemium Challenge4Cancer : « And the winner is… Science ! »

Auteurs : Delphine BARRAU, Elkhader FATNI, Hervé HUSSON

Mise à jour (le 29/06/2016) : le projet ELSE est en ligne, à l’adresse http://www.conix.fr/epidemium/else.html

Le Case Management pour adresser la complexité de l’entreprise digitale

L’entreprise digitale et le risque de complexification du Système d’Information

La transformation digitale de l’entreprise se traduit par l’irruption de technologies numériques dans l’environnement de travail, ouvrant de nouvelles possibilités de collaboration entre les participants internes et externes à un même processus. Aujourd’hui, chacun interagit avec un fournisseur, un prestataire de service, un collègue, une administration via différents moyens de contacts – courrier électronique, formulaire web, discussion instantanée, application mobile – selon ses préférences, ses habitudes, son équipement, et selon le moment choisi pour l’interaction (il peut même les combiner pour une expérience utilisateur optimisée).

Mais l’adoption de médias modernes de communication, web ou mobile, ne suffit pas à répondre aux défis de la révolution numérique. Il faut aussi que les processus prennent en compte la diversité des modes d’interaction, et que les organisations et modes de fonctionnement s’adaptent aux besoins de plus en plus personnels et changeants des clients.

Ce phénomène n’est pas le monopole de secteurs comme le commerce, la banque ou les services, déjà préparés depuis longtemps au web, à la dématérialisation des actes de gestion, et aux objets connectés (vente en ligne, billet de train électronique, badge de télépéage d’autoroute, carte ticket-restaurant…). Le secteur industriel est aussi largement touché : dématérialisation des remises d’ouvrages sur les chantiers, automatisation des entrées et sorties de stock en entrepôt, etc.

La transformation digitale n’est donc pas uniquement une question d’adoption de nouvelles technologies. Elle apporte son lot de changements faisant apparaître de nouvelles opportunités ou exigences dans la façon de s’échanger et traiter l’information, de collaborer ou partager le travail.
Ces changements entraînent une complexification de l’activité de l’entreprise et de son pilotage. Là où hier les choses étaient claires et bien rodées, sur qui fait quoi à quel moment et avec quel résultat, la transformation digitale apporte, au travers de la contraction du temps et de l’espace, au travers de la dématérialisation toujours plus poussée et de l’adaptation permanente des modes opératoires, un sentiment de complexité qui s’accompagne d’un risque de confusion voire de perte de contrôle.

La nécessaire collaboration entre applications et entre acteurs

Face à cette complexité, le SI doit réussir à combiner des applications variées et à impliquer des acteurs différents. On a besoin d’intégrer des flux de travail (courrier, formulaire web, message électronique), d’accéder à des ressources documentaires, d’affecter l’activité à des collaborateurs en fonction de l’organisation, des compétences et des disponibilités, de tenir compte des règles métiers portées par les applications de gestion, le tout, en suivant des modes opératoires qui deviennent nativement instables.

Ce n’est pas un outil pour automatiser leur processus que les métiers réclament. Ils savent très bien gérer leur affaire sans devoir entrer dans un outil structurant, voire contraignant ; et la variabilité des manières de dérouler leur processus est trop importante ; sans compter l’indispensable réactivité qu’ils veulent conserver pour répondre aux exigences de leur marché.

Lorsqu’une situation exceptionnelle ou non prévue se présente, les acteurs veulent prendre la main et ajuster le déroulement de leur processus, par exemple en missionnant un acteur d’une nouvelle tâche, ou en court-circuitant certaines étapes. Dès qu’on se trouve avec un nombre élevé de scénarios alternatifs, l’approche strictement BPM est impuissante, la complexité d’implantation devient trop importante, et, pire, la réactivité pour adapter la solution devient insupportable.

En fait, c’est de collaboration dont on a besoin, entre les participants au processus, bien sûr, mais aussi entre les applications : les « legacy systems » qui assurent l’ossature du socle de gestion des entreprise, les applications métier, plus récentes, plus spécialisées, et parfois plus exotiques sur le plan fonctionnel ou technique (espaces clients, outils spécialisés pour les échanges B2B, open services, etc.).

On parle bien de collaboration : il ne s’agit pas seulement de s’échanger des données entre applications, mais de « travailler ensemble » avec intelligence. Ce besoin de collaboration est difficile à satisfaire car il va parfois au-delà du simple besoin d’orchestration : les règles de gestion sont mouvantes, les situations métiers sont multiples et parfois non déterministes. D’ailleurs la plupart des applications métier historiques (legacy), un peu rigides, ne sont pas, par nature, ouvertes aux exigences d’agilité d’un paradigme digital. Ceux qui ont travaillé avec un ERP savent de quoi nous parlons.

Le Case Management, agent de simplification

Le Case Management, comme nous l’avons vu dans un précédent article se positionne comme un nouveau type de solution pour les domaines métier où l’activité s’avère difficilement prévisible et nécessite d’adapter le processus nominal à pratiquement chaque situation qui se présente.

Tous les déçus ou sceptiques des solutions classiques / traditionnelles de GED ou de BPM trouvent dans le Case Management une alternative crédible pour outiller leur gestion d’affaire ou de dossier, ni totalement documentaire, ni purement déterministe, dédiée au partage d’information et à la collaboration, en permettant le suivi et le pilotage. Un outil nouveau, pas si révolutionnaire que ça, qui ressemble à un réseau social et qui permet de travailler à un résultat / une œuvre collective avec un minimum de cadre procédural et organisationnel.

Plutôt que d’apporter une réponse sophistiquée à un besoin qui se présente comme complexe, on essaie de simplifier le besoin. En fait, pour un domaine d’activité qui s’avère complexe du point de vue des processus, peut-être l’approche processus n’est-elle pas la bonne manière de l’appréhender. Si la gestion d’un dossier ou d’une affaire apparaît difficile à traiter par l’approche processus, alors essayons l’approche objet, centrée sur le « case » (l’affaire, le dossier…).

Là où le Case Management devient un agent de simplification, c’est dans ses capacités à faire fonctionner un réseau d’acteurs. En effet, lors du déroulement d’un processus impliquant plusieurs acteurs utilisant chacun un outil dédié à sa fonction (le client sur son espace web, le commercial dans son CRM, l’intervenant dans son outil de gestion de chantier, etc.) le Case Management va savoir qui fait quoi et pourquoi, positionnant ainsi chaque contribution dans le contexte global de l’entreprise digitalisée.

Pour ce faire, le Case Management dispose de plusieurs atouts. A titre d’illustration nous proposons de voir comment un outil de Case management peut gérer des acteurs et des rôles pour pouvoir donner un sens aux contributions des uns et des autres.

Dans cet exemple, le Case Management identifie les applications comme des rôles. Il va pouvoir gérer des « corbeilles d’application » qui représentent chacune un outil utilisé par des acteurs. Ainsi, l’espace client ou le portail prestataires deviennent, pour le Case Management, des corbeilles où il pourra déposer une tâche à faire ou recevoir un résultat. Un acteur pourra, lui aussi, être représenté par une corbeille, si le Case Management a besoin de savoir précisément quel acteur fait l’action. Dans ce cas, le Case Management va gérer une relation entre acteur et rôle(s).

On voit ici que le Case Management est en situation d’orchestrer les contributions des uns et des autres, le tout étant supervisé par un agent orchestrateur, par exemple une personne chargée de suivre l’activité de bout en bout. A noter que les acteurs du processus n’ont pas, dans ce schéma, besoin d’avoir la vision complète du processus. Mais rien n’empêche de leur fournir cette visibilité.

Case management

Une forme de « Lean management »

La réponse au risque de complexification du SI de l’entreprise digitale n’est donc pas la mise en place et l’outillage de processus sophistiqués (cela ne ferait que rajouter de la complexité, au prétexte de la maîtriser). L’alternative Case Management propose au contraire de se concentrer sur l’information (le « case ») et l’humain (les participants au traitement du « case ») pour offrir un espace de liberté au déroulement des processus et permettre, dans un monde en perpétuel mouvement, de réagir et d’adapter les modes opératoires (et donc le fonctionnement de l’entreprise).

Il s’agit d’une approche « allégée » (lean) pour gérer des situations complexes, en ce contentant d’une structure de processus juste nécessaire au pilotage de l’activité (une forme de frugalité). Le Case Management ne doit pas être perçu comme une hyper-sophistication informatique, qui ne fait qu’ajouter à l’enchevêtrement dans la gestion des flux d’information. Il doit rendre l’existant plus utile et plus pratique. Le leitmotiv c’est que l’introduction d’une brique de Case Management ne doit pas donner l’impression d’augmenter la complexité du Système d’Information.

Auteurs : Joseph PAUMIER et Christophe ROUXEL

Contribution PxData
Politique de la donnée – procédé et formalisation

PxData

Aucune organisation ne peut ignorer le phénomène Data. La pression par les données devient de plus en plus forte (obligations réglementaires, nouveaux risques liés à l’inflation de la circulation et de l’exposition des données…), les opportunités offertes par les données explosent (création de business models par l’intégration de services orientés données, enrichissement des données par le sourcing externe…). Les organisations multiplient les initiatives.

Dans ce contexte, comment piloter de manière concertée tout ce qui a trait aux données au sein d’une organisation ? Un élément de réponse est la définition d’une politique de la donnée.

En 2015, dans le cadre de la méthode publique Praxeme, une première version d’un procédé d’élaboration d’une politique de la donnée a été proposée. Ce procédé est le résultat de travaux de la société CONIX avec le support des auteurs de la méthode publique.

Le cœur de la politique est, par essence, le capital « données ». Sur la base de ce capital nous allons décrire les éléments clés support à la politique : définition, sensibilité à l’exposition, réglementaire, règles d’usage…

Praxeme couvre tous les aspects de l’entreprise, de la stratégie au déploiement. Sept aspects sont identifiés dans ce que l’on appelle le « Système Entreprise ». Les données sont présentes dans chacun de ces aspects et la politique de la donnée proposée est donc structurée pour répondre à chacun d’entre eux :

  • Aspect Intentionnel : les valeurs de l’entreprise et ses finalités (stratégie, culture, contraintes…)
    ➜ Déclinaison dans la politique de la donnée : exprimer les intentions liées aux données tout en respectant les valeurs de l’entreprise
  • Aspect Sémantique : la connaissance, les fondamentaux du métier (l’environnement, l’offre de l’entreprise, les objets métier…)
    ➜ Politique de la donnée : assurer la compréhension partagée des données (définition, dictionnaire, modèle sémantique…)
  • Aspect Pragmatique : les activités de l’entreprise et son organisation (rôles, processus, styles de management et de contrôle…)
    ➜ Politique de la donnée : ordonner les activités en vue de l’exploitation optimale des données, mettre en lumière dans les processus existants les impacts de la politique et faire les adaptations nécessaires
  • Aspect Géographique : la localisation des activités de l’entreprise (géographie de l’entreprise, virtualisation, télétravail, équipement nomade…)
    ➜ Politique de la donnée : préciser les dispositions techniques et organisationnelles à prendre quant à la distribution géographique des données
  • Aspect Logique : un aspect intermédiaire entre métier et technologie, introduit dans la chaîne de transformation pour faciliter la conception des systèmes techniques
    ➜ Politique de la donnée : Décrire l’architecture logique de données
  • Aspect Logistique : l’ensemble des ressources techniques au service de l’activité
    ➜ Politique de la donnée : Identifier les composants techniques support à l’architecture de données
  • Aspect Physique : le Système Entreprise complètement déployé (avec toutes ses ressources localisées)
    ➜ Politique de la donnée : Préparer le déploiement de la politique, dimensionner la cible, accompagner le changement

Enfin le dernier point nécessaire à une politique de la donnée est la gouvernance associée. C’est-à-dire l’organisation nécessaire à la maîtrise des données (profils, compétences…), l’inscription dans la « comitologie » existante, l’interaction avec les projets de transformation et trajectoire pour une cohérence transverse à la politique de la donnée et la promotion de la culture de la donnée au sens large pour la bonne mobilisation des collaborateurs.

Le formulaire et le mode d’emploi sont téléchargeables dans le respect de la licence Creative Commons qui régit le fond documentaire Praxeme (documents PxPRD-04f – Politique de la Donnée – et PxPRD-04m – mode d’emploi).

Ce premier travail, finalisé en 2015, a vocation à se poursuivre en 2016 et 2017 pour, en particulier, renforcer l’angle innovation et data science, accompagner la culture de l’expérimentation, développer le caractère auditable de l’application de la politique, explorer la dimension éthique et, enfin, réaliser un état de l’art sur les outils supports d’une politique de la donnée et de sa mise à jour.

Auteurs : Delphine BARRAU & Joël BIZINGRE

Observatoire CONIX de la Donnée

Big Data : préparez le déluge !

Arche de Noé

Dans notre précédent billet, nous évoquions la « data agility » comme levier de réussite pour la conduite d’un projet Big Data.

Si cela reste notre conviction, il n’est pas rare de lire dans la presse spécialisée SI (exemple du sondage CRIP autour du Big Data) que l’un des principaux freins à la réussite d’un projet demeure l’insuffisance de compétences au sein des DSI.

Ayant en mémoire un autre article, paru il y a quelques mois, qui abordait de manière humoristique cette problématique, force est de constater que la question des compétences nécessaires à la réussite d’un projet Big Data est un sujet récurrent.

Alors en temps qu’animateur de projet, si vous deviez, tel Noé, n’embarquer que quelques personnes pour une aventure sur le « grand lac de données » qui devriez-vous choisir ? S’il faut effectivement des compétences techniques (probablement un peu rares en regard de l’engouement récent pour le Big Data), il faut également des compétences métier. Nous vous conseillons donc d’embarquer avec vous les 6 rôles suivants.

Un narrateur sera un élément clé pour faciliter l’adhésion au projet. Par ses qualités de communicant et ses talents d’orateur, il saura porter la conviction au niveau des directions métier, communiquer sur le résultat des études, et convaincre le top Management. Il doit aussi avoir une forte appétence pour les données et très bien les comprendre pour en saisir la complexité et les limites. Le narrateur peut être interne ou externe, côté DSI ou métier, tant qu’il est à l’aise pour animer et communiquer.

La construction du modèle de données doit s’appuyer sur un expert en modélisation. Cet acteur connait et comprend l’entreprise dans sa vision dynamique (produit ou processus) et dans sa vision statique (modèle des objets métiers). Il est le gardien du temple pour les définitions et les règles métiers. Cette compétence est détenue généralement dans les pôles architectures, du côté des architectes de données ou des urbanistes. Interne ou externe, il faut surtout éviter de reproduire les modèles historiques et apporter de la généricité et de l’évolutivité.

Un ingénieur en technologie Big Data appuiera l’équipe dans le choix des outils existants, pour cibler et implémenter ceux qui répondent le mieux au besoin et à l’environnement. En fonction de son profil et de l’ampleur du projet, il devra être accompagné de développeurs pour construire le système. Ces compétences n’existent encore que peu en interne et si beaucoup de SSI se positionnent sur le marché, c’est souvent du côté des PME et startups que l’on trouve les meilleurs profils.

Il y a « the man in the shadow » (en référence au « data shadow » du précédent billet). Expert de la donnée, il les connait bien car il les manipule depuis des années avec ses outils bureautiques (fonctions d’extraction de données des applications, Access, Excel pour les interpréter, messagerie pour les échanger…). Il apportera une compétence fondamentale sur la valeur des données de l’entreprise. C’est une ressource interne par excellence, à chercher, par exemple, du côté des services financiers, marketing, ou statistiques si il existe.

Le datascientist est celui qui va créer l’inspiration et générer des idées en manipulant les données à la recherche de corrélations intéressantes (nous vous renvoyons à un de nos précédents billets pour notre vision du datascientist). Il s’appuiera sur les sachants métier, l’expert en modélisation et « the man in the shadow » pour valider son analyse des données et utiliser les bonnes sources internes à l’entreprise.

Beaucoup de projets se retrouvent bloqués par un manque de données, soit parce que le processus qui les génère n’est pas instrumenté, soit parce que l’entreprise ne les possède pas, tout simplement. Les deux derniers acteurs précités vont devoir investiguer pour résoudre cette difficulté. Ils rendront un service inestimable en remettant constamment en question le reste de l’équipe et les autres parties de la société qui pourraient fournir ces fameuses données (référence aux éternels silos métiers). Mais ils seront parfois légalement « borderline » car ne se soucieront pas toujours des conséquences (respect de la vie privée, informations commercialement sensibles…).

Un déontologue viendra donc compléter cette liste. Au plus près des équipes pour poser les questions de confidentialité sur les données et les cas d’usages, ses compétences permettront d’éviter des ennuis avec les autorités mais également avec les clients. Car l’écart est grand entre ce qui est techniquement légal et ce que les utilisateurs sont prêts à accepter. Il aidera l’équipe à trouver le juste équilibre. De récentes études prouvent que les entreprises ont tendance à prendre plus de mesures conservatrices quand elles n’ont pas accès à des conseils de qualité sur ce qu’elles peuvent faire ou non, par peur de transgresser accidentellement une loi. Des cabinets se spécialisent de plus en plus dans cette mission, ou s’associent pour offrir une couverture complète de la chaine de la donnée.

En guise de conclusion et avant de se voir opposer la carte de la disponibilité des ressources, nous parlons bien ici de compétences. Certains profils peuvent donc posséder plusieurs compétences et cumuler les rôles. Et, bien sûr, ce ne sont pas des rôles à temps plein. Ils n’interviennent parfois que ponctuellement mais toujours au juste moment. Nous avons, par nos expériences passées, acquis une certaine visibilité sur les charges associées en fonction des projets et nous les partagerons avec plaisir avec vous.

Auteure : Delphine BARRAU

Observatoire CONIX de la Donnée