Quoi de neuf dans les métiers du conseil cloud ?

Depuis 2 ans, CONIX est membre de l’association EuroCloud France. En tant que Cloud Practice Manager, j’ai l’honneur d’en être le représentant pour le Groupe CONIX. Je travaille plus particulièrement au sein de la Commission Conseils.

Depuis sa création, la Commission Conseils d’EuroCloud France s’est interrogée sur les impacts et les enjeux du Cloud Computing sur l’activité de Conseil. Avec une classique analyse de type SWOT (Forces – Faiblesses – Opportunités – Menaces), la première question en 2014 avait été centrée sur la perception du Cloud par les cabinets de Conseil : menace ou opportunité ? L’étude, résumée dans le premier Livre Blanc de la Commission Conseils, avait fait apparaître le Cloud comme une opportunité dans tous les cas de figure.

En 2015, après avoir mis en lumière que les éléments de la satisfaction des clients sont les facteurs clés de succès du Conseil Cloud, la Commission s’était interrogée sur la problématique de « Comment mieux conseiller ses clients ? ». Plus de 30 % des cabinets avaient alors remis en cause le modèle classique en présentant de nouvelles approches de Conseil : conseil des intégrateurs et revendeurs spécialisés (notamment sur des offres technologiques spécifiques), conseil en courtage de services Cloud, conseil online, etc…

En 2016, une nouvelle étude a été réalisée par la Commission Conseils d’EuroCloud afin de mieux comprendre les évolutions du métier du conseil, avec l’arrivée en force du Cloud Computing privé ou public dans les entreprises. Cette année, la Commission Conseils a ainsi étudié les trois grandes typologies de Conseil contribuant chacune au déploiement des usages apportés par le Cloud Computing :

  1. du conseil des grands cabinets historiques : le Conseil Cloud généraliste ;
  2. aux sociétés spécialisées sur des technologies : le Conseil Cloud spécialiste ;
  3. en passant par les « pure players » novateurs du Cloud : le Conseil Cloud 2.0.

Afin de pouvoir comparer ces 3 types de Conseil, une analyse complète autour de 3 portraits robots a été établie, présentant pour chacun : les spécificités, les clients, les enjeux, les conseils types, les commanditaires, la tarification, la valeur ajoutée, les méthodologies, les compétences, les partenariats et l’organisation.

Tout ce travail a été effectué sur la base d’interviews de nombreux acteurs du marché (avec l’aide des étudiants du mastère spécialisé « Expert Cloud Computing et SaaS » de l’école d’ingénieurs ISEP – Institut Supérieur d’Electronique de Paris), depuis de grands cabinets de conseil en place à l’international jusqu’à des structures plus modestes mais très innovantes.

Le Groupe CONIX, de par ses 5 pôles d’expertise (Solutions Digitales, Business Intelligence, Cybersécurité, Transformation & Innovation et Risque & Réglementaire), se situe clairement dans la catégorie des cabinets de conseil généraliste, néanmoins agile car à taille humaine (environ 210 collaborateurs). A ce titre, nous conseillons nos clients afin qu’ils utilisent le Cloud dans le cadre de leur Transformation Numérique, comme levier d’agilité et d’économie, dans une logique « as a Service » chaque fois que cela est possible (infrastructure, plate-forme, solution, etc.)

Le Livre Blanc 2016 de la Commission Conseils d’EuroCloud France est disponible en libre téléchargement >> ICI << (fichier PDF, 240 ko).

Auteur : Hervé HUSSON

Ancrage de l’architecture d’entreprise à la gouvernance du SI

Anneaux de l'urbanisme et de la gouvernance

Un urbanisme du SI qui s’est largement imposé

Dans leur grande majorité, les entreprises ont adopté une démarche d’urbanisme, ou plus largement d’architecture d’entreprise. Mais en tirent-elles les bénéfices attendus ? Lesquelles en mesurent vraiment la valeur ajoutée ? Combien sont satisfaites de la performance de leur SI et de son architecture ?

Au départ était la cartographie. L’urbaniste, avec sa compétence en modélisation, s’est attelé à décrire les processus, cartographier l’existant applicatif, modéliser les objets métiers, formaliser les flux d’information. Cette connaissance du SI lui a permis ensuite de participer au cadrage des projets, d’aider à prioriser les investissements, de détecter des obsolescences, de diagnostiquer des incohérences ou encore d’identifier des opportunités de rationalisation. Aujourd’hui, l’architecture d’entreprise se veut une discipline d’accompagnement de la transformation des entreprises et de leurs systèmes d’information.

Mais d’aucuns s’interrogent. L’urbanisme est en relation avec de nombreuses parties prenantes de l’évolution du SI (informatique comme métier), mais ses activités et son apport de valeur ne sont pas si bien appréhendés que cela.

  • L’intervention des urbanistes dans la gouvernance du SI est peu installée ; Ils contribuent à des études, participent à des travaux, émettent des avis. Mais de quoi sont-ils responsables, au juste ?
  • Les bénéficiaires des travaux d’urbanisme ne sont pas tous convaincus de la valeur ajoutée des livrables produits, et parfois ils n’en comprennent pas tous les contenus. D’ailleurs, les financeraient-ils s’ils devaient « payer » la prestation ?
  • Souvent, on reproche aux urbanistes de passer trop de temps à décrire l’existant et pas assez à qualifier la cible, ou de se limiter à une vision statique de la cible sans s’attaquer à la problématique de la trajectoire.
  • Les équipes d’urbanisme se plaignent des projets qui les sollicitent trop tard, alors que les projets estiment que les urbanistes prennent trop de temps à instruire des scénarios de solution.

On est d’accord, le trait est forcé, trop sans doute, mais il faut quand même reconnaître que ce sont des interrogations que l’on entend au sein des entreprises de la part de certains responsables.

Un cadre de référence pour mieux s’y retrouver

Au fil des années, la complexité croissante des sujets à traiter, ainsi que la diversité des préoccupations des décideurs, ont rendu les approches traditionnelles de l’architecture d’entreprise toujours plus sophistiquées… et pas pour autant plus efficaces. Les nombreux « Framework d’AE » (de Zachman à TOGAF) s’avèrent finalement trop abstraits par rapport à la réalité et à sa complexité. Ils sont faits pour une organisation idéale, où il suffirait d’enchaîner des étapes bien précises, les unes après les autres pour arriver à la solution idéale. Ils appliquent leur démarche académique à un monde parfait qui n’existe pas, et qui, s’il existait, n’aurait sans doute pas besoin de ce genre de démarche standardisée.

Au delà de la complexité inhérente à tout domaine métier, il y a le contexte, l’histoire, les habitudes, la culture d’entreprise, les enjeux de pouvoir, qui façonnent des caractéristiques uniques à toute organisation quelle qu’elle soit. Malgré des ressemblances superficielles, deux entreprises d’un même secteur d’activité se distinguent par des différences profondes et des circonstances qui font que les pratiques d’architecture de l’une ne sont pas vraiment de bonnes recettes pour l’autre. C’est sans doute pour cela que les « cadres standardisés d’architecture d’entreprise » préconisent de les adapter aux spécificités de chacun ; Mais ils se gardent bien de prodiguer des conseils pour réaliser cette adaptation.

On demande à l’urbanisme ou on attend de lui des travaux ou livrables divers et variés, et il est parfois difficile de s’y retrouver ; Quelle priorité, quelle valeur ajoutée, quelle logique d’intervention ? C’est pourtant ce qui importe le plus : s’y retrouver.

L’entreprise est une histoire en marche, une vie économique et sociale qui se déroule, et non une structure posée ou figée. Et comme la gouvernance du SI, l’architecture d’entreprise est un processus qui ne finit jamais. Les architectes n’ont donc d’autre choix que d’être dans le mouvement, et leur offre de service doit refléter cet ancrage, celui de l’architecture d’entreprise au cycle de gouvernance du SI.

Alors même si la gouvernance est à la fois l’aspect le plus difficile de l’architecture d’entreprise et le volet le plus souvent négligé, il est temps de mettre les choses au clair. L’urbanisme participe à la gouvernance du SI et de son évolution ; Il constitue une aide à la décision de transformation du SI, un support aux projets d’évolution, et un outil de pilotage du patrimoine existant. C’est donc dans ce cadre que l’urbanisme doit caractériser son offre de services et ainsi mieux promouvoir sa proposition de valeur.

Ancrage de l'Urbanisme

En s’appuyant sur les trois grandes activités SI (PLAN / BUILD / RUN), ce cadre propose les clés de lecture des rôles et des contributions permettant à la DSI et ses collaborateurs de se situer et de prendre des décisions de façon éclairée ; Et bien entendu, cela vaut aussi pour les urbanistes, puisque ce cadre adresse toutes les évolutions ayant un impact sur la cohérence et la structure du SI :

  • La planification stratégique via schéma directeur, plan de transformation à moyen terme, étude d’opportunité, cible SI et trajectoire associée ; Urbanisme prospectif.
  • La mise en œuvre des évolutions au travers de la démarche projet, les cadrages et l’investigation, la conception de solutions et les revues d’architecture ; Urbanisme de projet.
  • La récolte des résultats et la capitalisation de la connaissance sur le patrimoine SI, au service de la résolution des incidents ou de la gestion de la conformité ; Urbanisme cadastral.

Pour chacun de ces trois temps, il est important de qualifier les contributions de l’urbanisme, sous forme de livrables à valeur ajoutée pour des bénéficiaires clairement identifiés, et sous forme d’activités à mener pour les produire de façon efficace, c’est-à-dire au bon moment et avec le niveau de détail nécessaire et suffisant pour répondre aux attentes. Sa mise en place passe par un déploiement spécifique à chaque entreprise, en fonction de sa culture, de ses choix de gouvernance et de sa politique SI.

S’appuyer sur un tel cadre, constitue un socle stable des plus utiles, si ne n’est indispensable, pour maîtriser la complexité dans un environnement en mutation permanente, où l’instantanéité et le caractère d’urgence sont systématisés. D’ailleurs, ce type d’environnement est souvent propice à l’implication des architectes d’entreprise, ne serait-ce qu’à la gouvernance des investissements et aux arbitrages budgétaires. Un premier niveau d’ancrage pour mieux s’y retrouver ?

Auteur : Christophe ROUXEL

L’essentiel de la réforme IFRS9

Le 27 juin 2016, le comité de réglementation comptable (CRC1) a rendu un avis positif sur un règlement de la Commission approuvant une nouvelle norme comptable internationale dans l’UE, la norme IFRS 9 « Instruments financiers ». D’ici la fin du quatrième trimestre de 2016, la commission européenne devrait apporter sa validation finale au projet de règlement permettant à IFRS 9 d’entrer en vigueur pour les exercices ouverts à compter du 1er Janvier 2018. Une application anticipée de la norme a par ailleurs été autorisée.

Si le contenu de cette norme ainsi que le calendrier de sa mise en œuvre sont largement documentés, ses implications en termes de coût et ses contraintes pour les établissements de crédit sont moins claires. Il en est de même de l’éventuel avantage qu’ils pourraient en tirer, même si la finalité de la norme n’était pas de « servir » les banques mais de produire une information fiable pour les consommateurs des états financiers.

DE L’IAS 39 A L’IFRS 9

Rappelons que les normes IFRS (International Financial Reporting Standard) s’appliquent aux états financiers consolidés des sociétés cotées dans l’UE depuis le 1er janvier 2005. IFRS 9 « Instruments Financiers » vient remplacer (ou compléter sur certains aspects) la norme IAS 39 « Instruments financiers : comptabilisation et évaluation », dans un souci d’amélioration de l’information financière.

Le principe de cette norme, qui est d’adopter une approche plus prospective pour la comptabilisation des pertes attendues sur les actifs financiers, découle d’un appel du G-20 dans le cadre du débat né de la crise financière de 2008. Elle apparait comme la réponse complète et proportionnelle de l’International Accounting Standard Board (IASB) aux causes de la crise et celles de son aggravation.

En reprenant IFRS 9 à son compte, l’objectif de la commission européenne est de renforcer les principes permettant de présenter des informations pertinentes aux utilisateurs des états financiers. IFRS9 constitue un réel changement d’approche du régulateur.

Une approche en trois piliers

La Norme IFRS 9 « Instruments Financiers » s’articule autour de trois grands piliers appelées « Phases » :

  • PHASE 1 : Classification et évaluation des instruments financiers
  • PHASE 2 : Dépréciation des instruments financiers
  • PHASE 3 : Couverture des instruments financiers
PHASE 1 : la classification et évaluation des instruments financiers

En IAS 39, la comptabilisation et l’évaluation des instruments financiers se base sur l’intention de leur gestion et de leurs caractéristiques. Elle distingue quatre catégories d’actifs financiers et deux catégories de passifs financiers :
Classification IAS39

Classification IAS39

En IFRS 9, la classification des actifs financiers prend en compte le modèle économique de l’entité pour la gestion des actifs financiers et les caractéristiques des flux de trésorerie contractuels de l’actif.

En fonction du modèle économique, les actifs financiers sont ainsi classés et évalués selon trois catégories :
Classification IFRS9

Classification IFRS9

Concernant les passifs financiers, IFRS 9 inclut la même option que dans IAS 39. Toutefois les variations de juste valeur seront désormais enregistrées dans les autres éléments du résultat global.

Classement des actifs financiers en IFRS9

IFRS 9 offre trois catégories de classement des actifs financiers définissant leur mode d’évaluation ultérieure :

  • L’évaluation au coût amorti,
  • L’évaluation à la juste valeur par le biais d’autres éléments du résultat global (OCI : other comprehensive income),
  • L’évaluation à la juste valeur par le biais du résultat net.

Ce classement se fait selon le modèle économique que suit l’entreprise pour la gestion des actifs financiers et selon les caractéristiques des flux de trésorerie contractuels de l’actif financier.

Ainsi, un actif financier doit être évalué au coût amorti si deux conditions sont réunies :

  • Sa détention s’inscrit dans un modèle économique dont l’objectif est de détenir des actifs financiers afin d’en percevoir les flux de trésorerie contractuels.
  • Les conditions contractuelles de sa détention, donnent lieu, à des dates spécifiées, à des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû.

L’évaluation à la juste valeur par le biais d’autres éléments du résultat global est admise si :

  • L’entité fait le choix irrévocable, lors de la comptabilisation initiale, de présenter dans les autres éléments du résultat global les variations futures de la juste valeur d’un placement particulier en instruments de capitaux propres qui serait autrement évalué à la juste valeur par le biais du résultat net.
  • Concomitamment, deux conditions sont réunies : la première étant que la détention de l’actif financier s’inscrive dans un modèle économique dont l’objectif est atteint à la fois par la perception de flux de trésorerie contractuels et par la vente d’actifs financiers. La seconde condition étant que les conditions contractuelles de l’actif financier donnent lieu, à des dates spécifiées, à des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû.

Concernant l’évaluation à la juste valeur par le biais du résultat net, elle n’est applicable que si :

  • L’actif n’est évalué ni au coût amorti ni à la juste valeur par le biais des autres éléments du résultat global
  • L’entité décide irrévocablement, lors de la comptabilisation initiale de le désigner comme étant évalué à la juste valeur par le biais du résultat net ; encore faut-il dans ce cas, que cette désignation élimine ou réduise sensiblement une incohérence dans l’évaluation ou la comptabilisation.

Classement des passifs financiers en IFRS9

Excepté quelques situations décrites dans le paragraphe 4.2.1 de sa note officielle, IFRS 9 impose un classement des passifs financiers au coût amorti, sans possibilité de reclassement. Cependant, l’établissement de crédit dispose toujours de l’option de désigner un passif financier comme étant à la juste valeur par le biais du résultat net. Cette option n’étant possible que dans deux situations : soit dans un but d’éliminer une « non-concordance comptable »2, soit parce que la gestion du groupe de passifs financiers et l’appréciation de sa performance sont effectuées à la juste valeur conformément à une stratégie de gestion de risque ou d’investissement établie par écrit.

Reclassement des instruments financiers

Le reclassement des actifs financiers est très encadré par IFRS9. Celui-ci n’est désormais possible que lorsque le modèle économique change ; ce qui demeure un fait plutôt rare pour un groupe d’actifs financiers.

Quant au reclassement de passifs financiers, il est interdit. Cette contrainte appelle à la plus grande rigueur lors de l’analyse en vue de la comptabilisation initiale de ceux-ci.

PHASE 2 : La dépréciation

La grande innovation de la norme IFRS 9, et probablement l’un des points à surveiller pour les établissements de crédit, voire le plus coûteux pour les EDC est la dépréciation des instruments financiers. L’élément déclencheur de cette dépréciation sera fondé non plus sur les pertes avérées (Incurred Losses), mais plutôt sur les pertes attendues (Expected Losses). Ce changement de modèle induit de nouvelles règles de provisionnement et de comptabilisation des pertes attendues, et ce dès l’origination de crédit.

Pour mieux accompagner cette évolution majeure, le Comité de Bâle a publié en Février 2015, une version révisée de la « Guidance » sur les bonnes pratiques d’évaluation du risque de crédit dont la version initiale remonte à 2006.

Ce changement d’approche introduit une nouvelle complexité qui est, l’estimation des pertes attendues « Expected Credit Loss » (ECL). Cette dernière n’est rien d’autre que le montant de pertes anticipées calculé dans le cadre du provisionnement pour chacune des tranches IFRS 9.Ce Montant prend en compte des projections futures.

Le modèle mis en place par IFRS 9 s’articule autour de trois « Buckets » ou strates dépendantes du niveau de dégradation du risque de crédit attaché à l’actif :
IFRS9 - Buckets

PHASE 3 : Couverture des instruments financiers

IFRS 9 introduit une légère réforme de la Comptabilité de couverture (hors macro couverture). Elle a certes reconduit en grande partie les règles relatives aux opérations de couverture notamment en maintenant les différents types de relation de couverture : la couverture de juste valeur ; la couverture de flux de trésorerie ; la couverture d’un investissement net. Les évolutions portent essentiellement sur :

  • L’élargissement des règles d’éligibilité des instruments couverts ;
  • L’élargissement des règles d’éligibilité des instruments de couverture ;
  • L’assouplissement des critères d’efficacité ;
  • Le renforcement du niveau d’information à fournir ;

Les contraintes de la réforme IFRS 9 pour les établissements de crédit

IFRS9 présente pour les EDC, des contraintes dont les principales sont fonctionnelles.

Celles-ci sont d’abord liées au classement. Le classement des instruments financiers tel qu’introduit par IFRS 9 apparait comme une standardisation de l’évaluation à la juste valeur et un durcissement des conditions de l’évaluation au coût amorti. Bien que venant corriger une difficulté d’application de la classification des actifs du point de vue d’IAS 39, il soulève de nombreux défis.

Les EDC devront être en mesure d’identifier clairement les impacts du nouveau classement des instruments financiers, ainsi que ses implications sur leurs processus métier. Notamment, mesurer et évaluer la FTA (First Time Application).

Egalement, ils devront désormais mettre davantage de moyens à l’analyse des instruments financiers lors de la comptabilisation initiale, vu que le reclassement est devenu pratiquement impossible, notamment lors de la ventilation des instruments de leur classe d’IAS39 vers celle d’IFRS9.

De même, les établissements devront être en mesure d’identifier un niveau de regroupement des actifs financiers, leur permettant d’apprécier le modèle économique. Il convient de préciser que ce modèle économique est déterminé au niveau auquel l’entité regroupe ses actifs financiers en vue d’atteindre un objectif économique donné, sans tenir compte des situations pouvant s’opposer à cet objectif. Car IFRS9 propose une appréciation du modèle économique uniquement à partir des faits et non sur la base de déclarations d’intention.

Par ailleurs, les personnes assujetties devront pouvoir caractériser les flux de trésorerie, et déterminer s’ils remplissent les conditions du test SPPI3 (Solely Payment of Principal and Interests), c’est-à-dire des flux de trésorerie qui correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû. Car d’un instrument à l’autre, cette analyse peut s’avérer très complexe. Il faudra aussi être capable d’apprécier ou de modéliser clairement les flux de trésorerie, ainsi que leur échéancier de paiement, en prenant en compte les éventuelles modifications de ceux-ci.

Les contraintes fonctionnelles sont aussi liées à la dépréciation. L’introduction du modèle prospectif de la dépréciation, se traduira par une augmentation importante des provisions qui doivent être calculées pour les 12 mois à venir dans le meilleur des cas, et pour toute la durée de vie de l’instrument dès l’apparition d’un risque de crédit. Ce modèle pourrait aussi causer des difficultés de pilotage de la volatilité semestrielle de la CNR (Charge Nette du Risque) et entraîner :

Une refonte des approches et stratégies de gestions des actifs – Les établissements de crédit devront réfléchir à la durée de vie des instruments financiers, au regard du profil de risque de la contrepartie, d’autant qu’en cas d’apparition du risque de crédit, cela pourrait avoir un impact sensible sur les provisions, compte tenu de la durée de provisionnement.

La nécessité de mettre en place d’un modèle robuste d’estimation des pertes de crédit (calcul de l’ECL) attendues à 12 mois ou sur la durée de vie du crédit pourrait impliquer la conception de nouveaux modèles statistiques et/ou la collecte de nouvelles données nécessaires à la construction des modèles. En effet, IFRS 9 exige que l’estimation des pertes attendues ne se fasse pas uniquement à l’aune des données historiques, mais en prenant en compte les données de l’environnement économique de la période concernée.

La notion « d’augmentation significatif de risque de crédit » étant déterminante pour l’établissement de la durée sur laquelle les pertes attendues doivent être calculées (12 mois ou la durée de vie de l’instrument), il pourrait nécessaire d’établir un référentiel des seuils par instruments ou groupe d’instruments ou de défaut pour les financiers.

La mise en place de méthodes de calcul de la dépréciation de portefeuilles de crédit comportant des encours repartis dans différents Buckets, en tenant compte des possibilités de transfert entre Buckets (notamment Bucket 1 et Bucket 2) mais aussi la mesure de l’impact sur la rentabilité de ces portefeuilles.

La mise en place de procédures de contrôles pour les nouvelles exigences.

En plus de ces contraintes fonctionnelles, les nombreuses modifications introduites par IFRS9 nécessitent une adaptation du système d’information. Au vu de la complexité et de la variété des modifications introduites par IFRS 9, il apparait évident que les systèmes d’informations connaitront des modifications sous diverses formes :

  • La modification des architectures SI existantes en vue de l’intégration de nouveaux outils ou le retrait de certains outils (comme les outils de reclassement d’actifs)
  • La migration de données après une fusion ou une scission d’outils, ou simplement pour la gestion des reclassements des instruments qui changeront de classe sous IFRS 9.
  • La modification des référentiels existants (nouvelles mailles d’agrégation de données, ajout de nouveaux champs)
  • La mise en place de nouvelles bases de données ou la modification des bases existantes.
  • La refonte des outils de calculs et de modélisation (calcul de CVA, DVA…)

IFRS9 se traduira aussi par un coût potentiel lié au nouveau classement au regard des exigences de fonds propres de Bâle 3 en même temps qu’elle induira l’accroissement potentiel de provisions avec pour conséquences la consommation de fonds propres et la limitation de capacités d’investissement. Elle pourra dans plusieurs cas, limiter la progression des engagements des EDC notamment vis-à-vis des contreparties jugées risquées. Toutefois, vue sous un autre angle, elle pourrait être interprétée comme une incitation à la prise de risque par les EDC. En effet, IFRS 9 met l’accent sur la notion de « fort accroissement » du risque de crédit pour le calcul des provisions. Cela pourrait encourager des établissements financiers à faire un pari sur des contreparties ayant déjà un fort risque de crédit, mais présentant, néanmoins, de fortes perspectives d’amélioration, et donc de chute du risque de crédit.

A contrario, les challenges liés à la couverture restent les mêmes étant entendu que IFRS9 a reconduit la majorité des grands principes de la couverture utilisés sous ISA39.

En définitive, les contraintes liées à l’application d’IFRS9, ne doivent pas totalement occulter les avantages que les EDC pourraient en tirer quels qu’infimes soient-ils. Sur le plan individuel, l’investissement dans une approche prospective participe à une démarche préventive saine puisqu’il protège les établissements en amont, contre des pertes et leur permet de prendre des dispositions de maitrise a priori. Cette approche leur permet de jauger régulièrement leurs méthodes d’évaluation du risque de crédit à travers une comparaison entre le prédit et le réalisé. Sur le plan global, du fait de la démarche prospective, l’application d’IFRS9, est de nature à renforcer la résilience du système financier. Les normes IFRS de manière générale, et IFRS 9 en particulier incitent à une harmonisation des pratiques entre le groupe et ses filiales ; ce qui peut être une source d’économies substantielles.

Conclusion

L’ambition de l’IFRS 9 est donc claire, cependant, les contours de son impact et de son coût restent encore mal définis. Les impacts de cette réforme seront sans doute connus après deux ou trois exercices, lorsqu’à l’épreuve des réalités, auront affleuré quelques difficultés pratiques. Pour l’instant, l’heure est à la préparation en vue du respect des délais.

Auteur : Auguinard SEA

1 Le CRC (comité de réglementation comptable) fournit à la Commission européenne des avis sur les propositions d’adoption des IFRS en vertu de l’article 3 du règlement IAS. Il est composé de représentants des États membres et est présidé par la Commission européenne. Le comité a été créé en vertu de l’article 6 du règlement IAS (1606/2002/UE).

2 Incohérence dans l’évaluation ou la comptabilisation d’un actif ou un passif financier.

3 Il s’agit d’un test d’analyse des flux de trésorerie. Il permet de déterminer si la condition énoncée aux paragraphes 4.1.2(b) et 4.1.2A(b) de la note officielle IFRS 9, imposant à l’entité de déterminer si les flux de trésorerie contractuels liés à l’actif correspondent uniquement à des remboursements de principal et à des versements d’intérêts sur le principal restant dû, est remplie.

CONIX récompensée dans la lutte contre le cancer

Projet ELSE

Samedi 28 mai, se déroulait la finale du projet Epidemium, Challenge4Cancer, organisé par le laboratoire de recherche La Paillasse en partenariat avec les laboratoires Roche, et animé par le collectif Epidemium.

Une soirée pleine d’émotions et de surprises pour l’équipe de CONIX qui participait au challenge.

Mais revenons 6 mois en arrière…

Dans le but d’innover et de faciliter les recherches scientifiques sur le cancer, les laboratoires Roche et La Paillasse lancent fin 2015 le projet Epidemium, programme de recherche scientifique participatif et ouvert dédié à la compréhension du cancer grâce aux Big Data. Il qui prend la forme d’un data challenge, Challenge4Cancer. 21 000 jeux de données ouvertes sont mis à disposition par les organisateurs.

25 équipes se lancent dans l’aventure, dont CONIX avec son projet ELSE (Evolutive Life Selection Experience). Il s’agit de créer une expérience interactive et sensibilisante, sous forme d’un « Serious Game » : dans la peau d’un personnage né en 2000, le joueur sera sensibilisé aux facteurs de risques liés aux cancers susceptibles de l’affecter, lui ou ses proches, en fonction des habitudes de vie.

ELSE combine un socle scientifique de traitement de données par des modèles prédictifs avec une application simple, type jeu de plateau. Réalisé en mode Agile avec 6 sprints de 3 semaines, la documentation du projet et la répartition des tâches ont été réalisées sous Trello (outil gratuit et visuel d’organisation de projet). Ce projet a permis de rassembler au sein d’une même équipe les différentes compétences disponibles chez CONIX (architectes Big Data, développeurs, data scientists, data analystes, animateurs…) et de les mettre en œuvre sur tous les axes des BIG DATA (maîtrise d’ouvrage, maîtrise d’œuvre et développement, infrastructures, méthodologie projet).

La communication au sein de l’équipe projet (une vingtaine de personnes) a été assurée par le Réseau Social d’Entreprise de CONIX (Chatter de Salesforce).

Le cœur prédictif a été développé en Python à l’aide du notebook web Jupyter, toujours dans ce souci de travail d’équipe, en testant plusieurs modèles de régression issus de la librairie ScikitLearn. L’application a été développée avec les technologies web du moment : HTML5, jQuery et Bootstrap. Enfin, des tests sur un socle Hadoop, mis en place au sein de CONIX afin de répondre aux attentes de nos clients, ont permis de démontrer la robustesse de notre projet sur un périmètre plus large que la France (entrainant donc une volumétrie de données beaucoup plus conséquente).

Face à un jury exigeant composé d’un comité éthique et d’un comité scientifique auxquels participaient d’éminents spécialistes (dont notamment Cédric VILLANI, médaille Fields en Mathématiques), le projet ELSE s’est vu délivrer la mention spéciale « Originalité du Modèle » ainsi que le 3ème prix. Le chèque de 2000 € remis à CONIX pour ce prix par les Laboratoires Roche sera versé intégralement à la recherche contre le cancer.

Au delà de la grande satisfaction des prix et mentions décernés par le jury, ce challenge a aussi été l’occasion de confirmer la capacité de CONIX à assurer l’exécution d’un projet Big Data et Data Science sur toutes ses étapes et lui permet de renforcer ses retours d’expérience à partager avec ses clients.

Il reste néanmoins encore beaucoup de travail à réaliser pour consolider le modèle, assurer la portabilité de l’application vers des supports mobiles et surtout valider le scénario avec des collectifs d’association de malades, voire avec l’Education Nationale, pour porter le bon message auprès d’une population jeune, à sensibiliser aux facteurs de risques du cancer.

Revue de presse
Makery Info : Epidémium ouvre les mégadonnées du cancer
Roche.fr : Epidemium Challenge4Cancer : « And the winner is… Science ! »

Auteurs : Delphine BARRAU, Elkhader FATNI, Hervé HUSSON

Mise à jour (le 29/06/2016) : le projet ELSE est en ligne, à l’adresse http://www.conix.fr/epidemium/else.html

Le Case Management pour adresser la complexité de l’entreprise digitale

L’entreprise digitale et le risque de complexification du Système d’Information

La transformation digitale de l’entreprise se traduit par l’irruption de technologies numériques dans l’environnement de travail, ouvrant de nouvelles possibilités de collaboration entre les participants internes et externes à un même processus. Aujourd’hui, chacun interagit avec un fournisseur, un prestataire de service, un collègue, une administration via différents moyens de contacts – courrier électronique, formulaire web, discussion instantanée, application mobile – selon ses préférences, ses habitudes, son équipement, et selon le moment choisi pour l’interaction (il peut même les combiner pour une expérience utilisateur optimisée).

Mais l’adoption de médias modernes de communication, web ou mobile, ne suffit pas à répondre aux défis de la révolution numérique. Il faut aussi que les processus prennent en compte la diversité des modes d’interaction, et que les organisations et modes de fonctionnement s’adaptent aux besoins de plus en plus personnels et changeants des clients.

Ce phénomène n’est pas le monopole de secteurs comme le commerce, la banque ou les services, déjà préparés depuis longtemps au web, à la dématérialisation des actes de gestion, et aux objets connectés (vente en ligne, billet de train électronique, badge de télépéage d’autoroute, carte ticket-restaurant…). Le secteur industriel est aussi largement touché : dématérialisation des remises d’ouvrages sur les chantiers, automatisation des entrées et sorties de stock en entrepôt, etc.

La transformation digitale n’est donc pas uniquement une question d’adoption de nouvelles technologies. Elle apporte son lot de changements faisant apparaître de nouvelles opportunités ou exigences dans la façon de s’échanger et traiter l’information, de collaborer ou partager le travail.
Ces changements entraînent une complexification de l’activité de l’entreprise et de son pilotage. Là où hier les choses étaient claires et bien rodées, sur qui fait quoi à quel moment et avec quel résultat, la transformation digitale apporte, au travers de la contraction du temps et de l’espace, au travers de la dématérialisation toujours plus poussée et de l’adaptation permanente des modes opératoires, un sentiment de complexité qui s’accompagne d’un risque de confusion voire de perte de contrôle.

La nécessaire collaboration entre applications et entre acteurs

Face à cette complexité, le SI doit réussir à combiner des applications variées et à impliquer des acteurs différents. On a besoin d’intégrer des flux de travail (courrier, formulaire web, message électronique), d’accéder à des ressources documentaires, d’affecter l’activité à des collaborateurs en fonction de l’organisation, des compétences et des disponibilités, de tenir compte des règles métiers portées par les applications de gestion, le tout, en suivant des modes opératoires qui deviennent nativement instables.

Ce n’est pas un outil pour automatiser leur processus que les métiers réclament. Ils savent très bien gérer leur affaire sans devoir entrer dans un outil structurant, voire contraignant ; et la variabilité des manières de dérouler leur processus est trop importante ; sans compter l’indispensable réactivité qu’ils veulent conserver pour répondre aux exigences de leur marché.

Lorsqu’une situation exceptionnelle ou non prévue se présente, les acteurs veulent prendre la main et ajuster le déroulement de leur processus, par exemple en missionnant un acteur d’une nouvelle tâche, ou en court-circuitant certaines étapes. Dès qu’on se trouve avec un nombre élevé de scénarios alternatifs, l’approche strictement BPM est impuissante, la complexité d’implantation devient trop importante, et, pire, la réactivité pour adapter la solution devient insupportable.

En fait, c’est de collaboration dont on a besoin, entre les participants au processus, bien sûr, mais aussi entre les applications : les « legacy systems » qui assurent l’ossature du socle de gestion des entreprise, les applications métier, plus récentes, plus spécialisées, et parfois plus exotiques sur le plan fonctionnel ou technique (espaces clients, outils spécialisés pour les échanges B2B, open services, etc.).

On parle bien de collaboration : il ne s’agit pas seulement de s’échanger des données entre applications, mais de « travailler ensemble » avec intelligence. Ce besoin de collaboration est difficile à satisfaire car il va parfois au-delà du simple besoin d’orchestration : les règles de gestion sont mouvantes, les situations métiers sont multiples et parfois non déterministes. D’ailleurs la plupart des applications métier historiques (legacy), un peu rigides, ne sont pas, par nature, ouvertes aux exigences d’agilité d’un paradigme digital. Ceux qui ont travaillé avec un ERP savent de quoi nous parlons.

Le Case Management, agent de simplification

Le Case Management, comme nous l’avons vu dans un précédent article se positionne comme un nouveau type de solution pour les domaines métier où l’activité s’avère difficilement prévisible et nécessite d’adapter le processus nominal à pratiquement chaque situation qui se présente.

Tous les déçus ou sceptiques des solutions classiques / traditionnelles de GED ou de BPM trouvent dans le Case Management une alternative crédible pour outiller leur gestion d’affaire ou de dossier, ni totalement documentaire, ni purement déterministe, dédiée au partage d’information et à la collaboration, en permettant le suivi et le pilotage. Un outil nouveau, pas si révolutionnaire que ça, qui ressemble à un réseau social et qui permet de travailler à un résultat / une œuvre collective avec un minimum de cadre procédural et organisationnel.

Plutôt que d’apporter une réponse sophistiquée à un besoin qui se présente comme complexe, on essaie de simplifier le besoin. En fait, pour un domaine d’activité qui s’avère complexe du point de vue des processus, peut-être l’approche processus n’est-elle pas la bonne manière de l’appréhender. Si la gestion d’un dossier ou d’une affaire apparaît difficile à traiter par l’approche processus, alors essayons l’approche objet, centrée sur le « case » (l’affaire, le dossier…).

Là où le Case Management devient un agent de simplification, c’est dans ses capacités à faire fonctionner un réseau d’acteurs. En effet, lors du déroulement d’un processus impliquant plusieurs acteurs utilisant chacun un outil dédié à sa fonction (le client sur son espace web, le commercial dans son CRM, l’intervenant dans son outil de gestion de chantier, etc.) le Case Management va savoir qui fait quoi et pourquoi, positionnant ainsi chaque contribution dans le contexte global de l’entreprise digitalisée.

Pour ce faire, le Case Management dispose de plusieurs atouts. A titre d’illustration nous proposons de voir comment un outil de Case management peut gérer des acteurs et des rôles pour pouvoir donner un sens aux contributions des uns et des autres.

Dans cet exemple, le Case Management identifie les applications comme des rôles. Il va pouvoir gérer des « corbeilles d’application » qui représentent chacune un outil utilisé par des acteurs. Ainsi, l’espace client ou le portail prestataires deviennent, pour le Case Management, des corbeilles où il pourra déposer une tâche à faire ou recevoir un résultat. Un acteur pourra, lui aussi, être représenté par une corbeille, si le Case Management a besoin de savoir précisément quel acteur fait l’action. Dans ce cas, le Case Management va gérer une relation entre acteur et rôle(s).

On voit ici que le Case Management est en situation d’orchestrer les contributions des uns et des autres, le tout étant supervisé par un agent orchestrateur, par exemple une personne chargée de suivre l’activité de bout en bout. A noter que les acteurs du processus n’ont pas, dans ce schéma, besoin d’avoir la vision complète du processus. Mais rien n’empêche de leur fournir cette visibilité.

Case management

Une forme de « Lean management »

La réponse au risque de complexification du SI de l’entreprise digitale n’est donc pas la mise en place et l’outillage de processus sophistiqués (cela ne ferait que rajouter de la complexité, au prétexte de la maîtriser). L’alternative Case Management propose au contraire de se concentrer sur l’information (le « case ») et l’humain (les participants au traitement du « case ») pour offrir un espace de liberté au déroulement des processus et permettre, dans un monde en perpétuel mouvement, de réagir et d’adapter les modes opératoires (et donc le fonctionnement de l’entreprise).

Il s’agit d’une approche « allégée » (lean) pour gérer des situations complexes, en ce contentant d’une structure de processus juste nécessaire au pilotage de l’activité (une forme de frugalité). Le Case Management ne doit pas être perçu comme une hyper-sophistication informatique, qui ne fait qu’ajouter à l’enchevêtrement dans la gestion des flux d’information. Il doit rendre l’existant plus utile et plus pratique. Le leitmotiv c’est que l’introduction d’une brique de Case Management ne doit pas donner l’impression d’augmenter la complexité du Système d’Information.

Auteurs : Joseph PAUMIER et Christophe ROUXEL