Evénement WEBINAIRE SDSI : Le Schéma Directeur des Systèmes d’Information

CONIX SDSI GHT

Notre consortium (CONIX Consulting, BLR Conseil, ARSIA MONS Conseil) s’est positionné sur le thème de la transformation des systèmes d’information hospitaliers dans le cadre notamment des SDSI de GHT, attendus par la loi de santé. Nous sommes titulaires sur ce plan du marché UniHA, et répondons aux appels d’offre directs.

 

Avec notre expérience de huit SDSI de GHT, nous avons pu constater la difficulté que pouvait présenter la réalisation d’un SDSI de convergence :

– la première difficulté est le degré d’accord et d’adhésion des différents établissements parties

– la deuxième difficulté est la fréquente disparité des solutions en place dans les n établissements, donc n systèmes d’informations à faire converger

– la troisième difficulté est le coût financier, l’amortissement des solutions en place et la quantité d’efforts nécessaires.

 

Cependant, il est possible sur de nombreux plans, d’identifier des gains tangibles à terme. Pour autant, un SDSI en 2017 ou en 2018, doit certes répondre aux attentes de la loi de santé en termes de convergence, mais ne peut se limiter à cela. Il doit aussi répondre aux attentes en termes d’innovations :

des professionnels de santé, sur le plan de la qualité et sécurité des soins et de la continuité de prise en charge (partage de l’information médicale, supports aux filières et consultations avancées, télémédecine, …)

des professionnels de santé, sur le plan de l’accroissement du périmètre fonctionnel couvert par le SIH (bloc, anesthésie, réanimation, pharmacie clinique, …)

des partenaires de l’hôpital public, en particulier la médecine de ville pour le partage d’information médicale sur le patient pris en charge en commun (c’est un besoin amont en terme d’activité : prescripteurs, c’est un besoin aval compte tenu de l’évolution des prises en charge : HAD, ambulatoire, …)

des patients eux-mêmes (SMS de rappel de rendez-vous, rendez-vous en ligne, paiement en ligne, pré-admission en ligne, échange dématérialisé de documents, … 84% des français sont aujourd’hui utilisateurs d’Internet, sauf le plus souvent, avec l’hôpital)

 

Nous sommes disponibles pour vous accompagner dans l’élaboration (SDSI) de vos plans de transformation ambitieux et réalistes, comme dans leur mise en œuvre

Pour vous présenter notre offre au service des GHT, nous vous invitons à ce Webinaire le mardi 5 décembre de 11h à 12h, avec notre partenaire MEGA International, dont les solutions nous permettent de modéliser et cartographier tous vos SIH.

Pour commencer à échanger dès maintenant sur la thématique GHT, vous pouvez contacter Hervé Husson, porteur de l’offre GHT chez CONIX.

 

S’INSCRIRE à l’événement

 

Vendredi 23 juin Événement RGPD : l’écosystème du Data Protection Officer (DPO)

CONIX Data Protection Officer

RGPD : l’écosystème du Data Protection Officer (DPO)

Le Data Protection Officer est devenu un rôle clé au sein des organisations, désormais placé sous les projecteurs de la mise en conformité au RGPD (Règlement Général sur la Protection des Données). Les enjeux à l’échelle de l’entreprise et la perspective des sanctions pénales le mettent sous pression, à l’instar des Responsables de traitement.

Approche par les risques, connaissance des données et de leurs usages, outillage de son activité, coopérations internes, sont autant d’ancrages pour aborder le poste de façon plus sereine. 

A l’occasion de ce petit-déjeuner, MEGA International et CONIX vous proposent de partager leur vision pour apporter un éclairage sur l’écosystème des parties prenantes relatif aux activités du Data Protection Officer : collaboration avec ses partenaires internes, chantiers du programme de mise en conformité, moyens de contrôle des données, dispositif pour industrialiser son activité, livrables RGPD (registre des traitements, notification d’incidents, EIVP/PIA – Etude d’Impact sur la Vie Privée ou Privacy Impact Assessments, tableaux de bord, rapports pour la CNIL, etc.). 

Une table ronde pour répondre à vos questions clôturera la matinée, avec notamment, Paul-Olivier GIBERT (Fondateur de Digital & Ethics et Président bénévole de l’AFCDP – Association Française des Correspondants à la protection des Données à caractère Personnel), Charles CASAL (Avocat – Cabinet Cheysson Marchadier & Associés) et Jonas SILIADIN (Directeur de la BU Risque & Réglementaire CONIX).

Programme du Vendredi 23 juin :

  • 8h30 : Accueil avec petit-déjeuner
  • 9h00 : Introduction par Jean-François BIGEY, Directeur des Partenariats chez MEGA, et Joël BIZINGRE, Directeur Général Délégué CONIX Consulting
  • 9h10 : Démarche et vision globale de l’écosystème du DPO par CONIX et illustrations concrètes via démonstrations avec le « Bureau du DPO » de MEGA :
    • Diagnostic RGPD 360°
    • RGPD et Gouvernance des Données
    • RGPD et Cybersécurité
  • 10h00 : Table ronde – soumettez vos questions à notre panel d’experts du RGPD
  • 10h30 : Pause-café et échanges avec les participants
  • 10h45-12h00 : Entretiens privés avec MEGA International et CONIX pour répondre à vos questions de manière personnalisée.

Informations et Inscriptions : Événement RGPD

CONIX à vos côtés pour atteindre l’objectif « GDPR ready » !

L’objectif « GDPR ready » !

Le 25 mai 2018, entrera en vigueur le nouveau cadre légal et réglementaire relatif à la protection des données à caractère personnel (DCP), avec de lourdes sanctions à la clé (jusqu’à 20 M€ ou 4% du CA mondial) en cas d’infraction caractérisée ou de négligence de la part des organisations ou de leur sous-traitants.

Il est encore temps pour l’ensemble des entreprises de se mettre en conformité, ou de s’assurer que les mesures organisationnelles et techniques mises en place seront efficaces et dans l’esprit de la Loi.

L’offre « GDPR ready » de CONIX

En partenariat avec un cabinet d’avocat spécialisé, et fort de ses propres expertises (domaines Risque & Règlementaire, Transformation & Innovation et Cybersécurité notamment), CONIX accompagne ses clients dans cette mise en conformité.

Notre nouvelle offre « Data Privacy » s’appuie sur un cadre de référence aligné sur le GDPR ainsi que la démarche associée de la CNIL. Notre accompagnement se veut pragmatique, modulaire et outillé, de façon à apporter une réponse ciblée sur vos processus clés, au travers d’une approche par les risques.

 

GDPR ready CONIX

– Cadre de référence CONIX –

Acronymes employés :

DCP       Données à caractère personnel

GDPR    General Data Protection Regulation

RGPD    Règlement Général sur la Protection des Données

 

Point de contact commercial CONIX :

email : dataprivacy@conix.fr

Tour d’horizon des technologies du Big Data

CONIX présentera « Les dessous d’une méthode Big Data » le mardi 7 mars à 15h au Salon Big Data Paris.

En complément, voici un rapide tour d’horizon des technologies autour du Big Data. Celles-ci reposent sur différentes architectures, un panel d’éditeurs offrant des solutions clef en main ou par brique, de la startup aux leaders du marché informatique.

1. Modèle d’architecture BDAF

MapReduce est le modèle de référence BDAF (Big Data Architecture Framework). Il a été inventé par Google et permet d’effectuer des calculs parallèles et distribués sur des ensembles de données de taille supérieure au téraoctet. Il a connu un vif succès auprès d’Amazon et Facebook et auprès des technologies basées sur le stockage de données dans le Cloud.

Le Framework le plus connu basé sur ce modèle est Hadoop. C’est une implémentation open source en Java de MapReduce, distribuée par la fondation Apache.

Son système de fichier s’appuie sur HDFS (Hadoop Distributed File System), qui s’inspire de celui de Google (GFS), son créateur.

D’autres frameworks basé sur MapReduce proposent des alternatives :

  • BlobSeer : accès concurrent et versionning amélioré
  • Phoenix : utilisé sur des ordinateurs multi-cœurs, technologie threads et non serveurs
  • Mars : processeurs graphiques, plus performant que Phoenix
  • Framework Ecologique : orienté économie d’énergie

D’autres acteurs comme Teradata, Oracle, EMC, SAP proposent aussi des architectures pour les projets Big Data, basées sur des serveurs standards aux configurations optimisées.

Microsoft, avec sa solution Azure de plateforme applicative Cloud propose aussi des services orientés Big Data. Son système de fichier, propre à Microsoft, est basé sur Data Lake Store, système de fichiers hiérarchique comme HDFS.

2. Stockage de Données « Data Lake »

Le terme de « Data Lake » revient souvent quand on cherche le lieu de stockage des données. Un Data Lake (ou lac de données) est une instanciation physique d’un entrepôt de données logique. Les données sont dupliquées à partir de leur localisation d’origine vers un système de fichiers de données centralisé : les données sont physiquement regroupées.

Au vu du volume de données utilisé par un projet Big Data, les bases de données ne sont plus relationnelles. Les acteurs du marché s’appuient sur des SGBD NoSQL type MongoDB ou Cassandra pour les plus connues en licence libre. Des technologies propriétaires se partagent aussi le marché, notamment Oracle NoSQL, BigTable (Google), DynamoDB (Amazon).

3. Requête et analyse de données

Les langages de développement utilisés sont essentiellement Java, Python, et R (langage dédié statistiques et data science). Les services les plus connus d’accès aux données sont ceux de Google BigQuery, Big Data sur Amazon Web Services et Microsoft Windows Azure.

Les algorithmes qui traitent les données sont protégés par le secret professionel, c’est la propriété industrielle de ces acteurs du Web, leur valeur ajoutée. Les données sont accessibles par des API (interfaces de programmation) qui définissent les conditions d’accès et en restreignent les usages.

Les outils BI classiques sont conçus pour analyser et gérer des données organisées dans des schémas fixes et prédéfinis. Les techniques d’analyse Big Data permettent de s’affranchir de cette limitation.

La fondation Apache propose un cadre applicatif de traitements BigData, Spark, pour effectuer des analyses complexes à grande échelle. Son but est d’accélérer les traitements des systèmes Hadoop.

4. Hadoop rattrapé par Spark

En 2016, La maison d’édition O’Reilly[1] remontait que seulement 2680 sociétés utilisent Hadoop, le plus ancien sur le marché, alors que déjà plus de 2 000 entreprises utilisent Apache Spark. Cependant, bien qu’il y ait plus de 500 sociétés ayant une maturité Hadoop au niveau de la production, il n’y a encore que 67 sociétés avec ce niveau de maturité pour Apache Spark.

Cette étude ne compare que des produits basés sur des solutions open source. Les solutions propriétaires dont Microsoft Azure ne sont pas analysées.

[1] http://www.oreilly.com/data/free/files/the-big-data-market.pdf

 

technologies du Big Data… Au-delà de toutes ces technologies, rendez-vous mardi 7 mars au salon Big Data pour découvrir notre démarche !

 

 

 

 

 

Retrouvez ici un 2nd article sur le Big Data et son paradoxe cybersécuritaire

Auteurs : Afaf FAFI et Marouane ZAAMOUN

Quoi de neuf dans les métiers du conseil cloud ?

Depuis 2 ans, CONIX est membre de l’association EuroCloud France.

En tant que Cloud Practice Manager, j’ai l’honneur d’en être le représentant pour le Groupe CONIX. Je travaille plus particulièrement au sein de la Commission Conseils. Depuis sa création, la Commission Conseils d’EuroCloud France s’est interrogée sur les impacts et les enjeux du Cloud Computing sur l’activité de Conseil. Avec une classique analyse de type SWOT (Forces – Faiblesses – Opportunités – Menaces), la première question en 2014 avait été centrée sur la perception du Cloud par les cabinets de Conseil : menace ou opportunité ? L’étude, résumée dans le premier Livre Blanc de la Commission Conseils, avait fait apparaître le Cloud comme une opportunité dans tous les cas de figure.

En 2015, après avoir mis en lumière que les éléments de la satisfaction des clients sont les facteurs clés de succès du Conseil Cloud, la Commission s’était interrogée sur la problématique de « Comment mieux conseiller ses clients ? ». Plus de 30 % des cabinets avaient alors remis en cause le modèle classique en présentant de nouvelles approches de Conseil : conseil des intégrateurs et revendeurs spécialisés (notamment sur des offres technologiques spécifiques), conseil en courtage de services Cloud, conseil online, etc…

En 2016, une nouvelle étude a été réalisée par la Commission Conseils d’EuroCloud afin de mieux comprendre les évolutions du métier du conseil, avec l’arrivée en force du Cloud Computing privé ou public dans les entreprises. Cette année, la Commission Conseils a ainsi étudié les trois grandes typologies de Conseil contribuant chacune au déploiement des usages apportés par le Cloud Computing :

  1. du conseil des grands cabinets historiques : le Conseil Cloud généraliste ;
  2. aux sociétés spécialisées sur des technologies : le Conseil Cloud spécialiste ;
  3. en passant par les « pure players » novateurs du Cloud : le Conseil Cloud 2.0.

Afin de pouvoir comparer ces 3 types de Conseil, une analyse complète autour de 3 portraits robots a été établie, présentant pour chacun : les spécificités, les clients, les enjeux, les conseils types, les commanditaires, la tarification, la valeur ajoutée, les méthodologies, les compétences, les partenariats et l’organisation.

Tout ce travail a été effectué sur la base d’interviews de nombreux acteurs du marché (avec l’aide des étudiants du mastère spécialisé « Expert Cloud Computing et SaaS » de l’école d’ingénieurs ISEP – Institut Supérieur d’Electronique de Paris), depuis de grands cabinets de conseil en place à l’international jusqu’à des structures plus modestes mais très innovantes.

Le Groupe CONIX, de par ses 5 pôles d’expertise (Solutions Digitales, Business Intelligence, Cybersécurité, Transformation & Innovation et Risque & Réglementaire), se situe clairement dans la catégorie des cabinets de conseil généraliste, néanmoins agile car à taille humaine (environ 210 collaborateurs). A ce titre, nous conseillons nos clients afin qu’ils utilisent le Cloud dans le cadre de leur Transformation Numérique, comme levier d’agilité et d’économie, dans une logique « as a Service » chaque fois que cela est possible (infrastructure, plate-forme, solution, etc.)

Le Livre Blanc 2016 de la Commission Conseils d’EuroCloud France est disponible en libre téléchargement >> ICI << (fichier PDF, 240 ko).

Auteur : Hervé HUSSON