Archives du mot-clé conix

Quoi de neuf dans les métiers du conseil cloud ?

Depuis 2 ans, CONIX est membre de l’association EuroCloud France.

En tant que Cloud Practice Manager, j’ai l’honneur d’en être le représentant pour le Groupe CONIX. Je travaille plus particulièrement au sein de la Commission Conseils. Depuis sa création, la Commission Conseils d’EuroCloud France s’est interrogée sur les impacts et les enjeux du Cloud Computing sur l’activité de Conseil. Avec une classique analyse de type SWOT (Forces – Faiblesses – Opportunités – Menaces), la première question en 2014 avait été centrée sur la perception du Cloud par les cabinets de Conseil : menace ou opportunité ? L’étude, résumée dans le premier Livre Blanc de la Commission Conseils, avait fait apparaître le Cloud comme une opportunité dans tous les cas de figure.

En 2015, après avoir mis en lumière que les éléments de la satisfaction des clients sont les facteurs clés de succès du Conseil Cloud, la Commission s’était interrogée sur la problématique de « Comment mieux conseiller ses clients ? ». Plus de 30 % des cabinets avaient alors remis en cause le modèle classique en présentant de nouvelles approches de Conseil : conseil des intégrateurs et revendeurs spécialisés (notamment sur des offres technologiques spécifiques), conseil en courtage de services Cloud, conseil online, etc…

En 2016, une nouvelle étude a été réalisée par la Commission Conseils d’EuroCloud afin de mieux comprendre les évolutions du métier du conseil, avec l’arrivée en force du Cloud Computing privé ou public dans les entreprises. Cette année, la Commission Conseils a ainsi étudié les trois grandes typologies de Conseil contribuant chacune au déploiement des usages apportés par le Cloud Computing :

  1. du conseil des grands cabinets historiques : le Conseil Cloud généraliste ;
  2. aux sociétés spécialisées sur des technologies : le Conseil Cloud spécialiste ;
  3. en passant par les « pure players » novateurs du Cloud : le Conseil Cloud 2.0.

Afin de pouvoir comparer ces 3 types de Conseil, une analyse complète autour de 3 portraits robots a été établie, présentant pour chacun : les spécificités, les clients, les enjeux, les conseils types, les commanditaires, la tarification, la valeur ajoutée, les méthodologies, les compétences, les partenariats et l’organisation.

Tout ce travail a été effectué sur la base d’interviews de nombreux acteurs du marché (avec l’aide des étudiants du mastère spécialisé « Expert Cloud Computing et SaaS » de l’école d’ingénieurs ISEP – Institut Supérieur d’Electronique de Paris), depuis de grands cabinets de conseil en place à l’international jusqu’à des structures plus modestes mais très innovantes.

Le Groupe CONIX, de par ses 5 pôles d’expertise (Solutions Digitales, Business Intelligence, Cybersécurité, Transformation & Innovation et Risque & Réglementaire), se situe clairement dans la catégorie des cabinets de conseil généraliste, néanmoins agile car à taille humaine (environ 210 collaborateurs). A ce titre, nous conseillons nos clients afin qu’ils utilisent le Cloud dans le cadre de leur Transformation Numérique, comme levier d’agilité et d’économie, dans une logique « as a Service » chaque fois que cela est possible (infrastructure, plate-forme, solution, etc.)

Le Livre Blanc 2016 de la Commission Conseils d’EuroCloud France est disponible en libre téléchargement >> ICI << (fichier PDF, 240 ko).

Auteur : Hervé HUSSON

Projet Epidemium : CONIX récompensée dans la lutte contre le cancer

Projet ELSE

Le Projet Epidemium

Samedi 28 mai, se déroulait la finale du projet Epidemium, Challenge4Cancer, organisé par le laboratoire de recherche La Paillasse en partenariat avec les laboratoires Roche, et animé par le collectif Epidemium. Une soirée pleine d’émotions et de surprises pour l’équipe de CONIX qui participait au challenge.

Mais revenons 6 mois en arrière…

Dans le but d’innover et de faciliter les recherches scientifiques sur le cancer, les laboratoires Roche et La Paillasse lancent fin 2015 le projet Epidemium, programme de recherche scientifique participatif et ouvert dédié à la compréhension du cancer grâce aux Big Data. Il qui prend la forme d’un data challenge, Challenge4Cancer. 21 000 jeux de données ouvertes sont mis à disposition par les organisateurs.

25 équipes se lancent dans l’aventure, dont CONIX avec son projet ELSE (Evolutive Life Selection Experience). Il s’agit de créer une expérience interactive et sensibilisante, sous forme d’un « Serious Game » : dans la peau d’un personnage né en 2000, le joueur sera sensibilisé aux facteurs de risques liés aux cancers susceptibles de l’affecter, lui ou ses proches, en fonction des habitudes de vie.

ELSE combine un socle scientifique de traitement de données par des modèles prédictifs avec une application simple, type jeu de plateau. Réalisé en mode Agile avec 6 sprints de 3 semaines, la documentation du projet et la répartition des tâches ont été réalisées sous Trello (outil gratuit et visuel d’organisation de projet).

Ce projet a permis de rassembler au sein d’une même équipe les différentes compétences disponibles chez CONIX (architectes Big Data, développeurs, data scientists, data analystes, animateurs…) et de les mettre en œuvre sur tous les axes des BIG DATA (maîtrise d’ouvrage, maîtrise d’œuvre et développement, infrastructures, méthodologie projet).

La communication au sein de l’équipe projet (une vingtaine de personnes) a été assurée par le Réseau Social d’Entreprise de CONIX (Chatter de Salesforce).

Le cœur prédictif a été développé en Python à l’aide du notebook web Jupyter, toujours dans ce souci de travail d’équipe, en testant plusieurs modèles de régression issus de la librairie ScikitLearn. L’application a été développée avec les technologies web du moment : HTML5, jQuery et Bootstrap. Enfin, des tests sur un socle Hadoop, mis en place au sein de CONIX afin de répondre aux attentes de nos clients, ont permis de démontrer la robustesse de notre projet sur un périmètre plus large que la France (entrainant donc une volumétrie de données beaucoup plus conséquente).

Face à un jury exigeant composé d’un comité éthique et d’un comité scientifique auxquels participaient d’éminents spécialistes (dont notamment Cédric VILLANI, médaille Fields en Mathématiques), le projet ELSE s’est vu délivrer la mention spéciale « Originalité du Modèle » ainsi que le 3ème prix. Le chèque de 2000 € remis à CONIX pour ce prix par les Laboratoires Roche sera versé intégralement à la recherche contre le cancer.

Au delà de la grande satisfaction des prix et mentions décernés par le jury, ce challenge a aussi été l’occasion de confirmer la capacité de CONIX à assurer l’exécution d’un projet Big Data et Data Science sur toutes ses étapes et lui permet de renforcer ses retours d’expérience à partager avec ses clients.

Il reste néanmoins encore beaucoup de travail à réaliser pour consolider le modèle, assurer la portabilité de l’application vers des supports mobiles et surtout valider le scénario avec des collectifs d’association de malades, voire avec l’Education Nationale, pour porter le bon message auprès d’une population jeune, à sensibiliser aux facteurs de risques du cancer.

Revue de presse
Makery Info : Epidémium ouvre les mégadonnées du cancer
Roche.fr : Epidemium Challenge4Cancer : « And the winner is… Science ! »

Auteurs : Delphine BARRAU, Elkhader FATNI, Hervé HUSSON

Mise à jour (le 29/06/2016) : le projet ELSE est en ligne, à l’adresse http://www.conix.fr/epidemium/else.html

Contribution PxData
Politique de la donnée – procédé et formalisation

PxData

Définition d’une politique de la donnée

Aucune organisation ne peut ignorer le phénomène Data. La pression par les données devient de plus en plus forte (obligations réglementaires, nouveaux risques liés à l’inflation de la circulation et de l’exposition des données…).  les opportunités offertes par les données explosent (création de business models par l’intégration de services orientés données, enrichissement des données par le sourcing externe…). Les organisations multiplient les initiatives.

Dans ce contexte, comment piloter de manière concertée tout ce qui a trait aux données au sein d’une organisation ? Un élément de réponse est la définition d’une politique de la donnée.

En 2015, dans le cadre de la méthode publique Praxeme, une première version d’un procédé d’élaboration d’une politique de la donnée a été proposée. Ce procédé est le résultat de travaux de la société CONIX avec le support des auteurs de la méthode publique.

Le cœur de la politique est, par essence, le capital « données ». Sur la base de ce capital nous allons décrire les éléments clés support à la politique : définition, sensibilité à l’exposition, réglementaire, règles d’usage…

Praxeme couvre tous les aspects de l’entreprise, de la stratégie au déploiement. Sept aspects sont identifiés dans ce que l’on appelle le « Système Entreprise ». Les données sont présentes dans chacun de ces aspects et la politique de la donnée proposée est donc structurée pour répondre à chacun d’entre eux :

  • Aspect Intentionnel : les valeurs de l’entreprise et ses finalités (stratégie, culture, contraintes…)
    ➜ Déclinaison dans la politique de la donnée : exprimer les intentions liées aux données tout en respectant les valeurs de l’entreprise
  • Aspect Sémantique : la connaissance, les fondamentaux du métier (l’environnement, l’offre de l’entreprise, les objets métier…)
    ➜ Politique de la donnée : assurer la compréhension partagée des données (définition, dictionnaire, modèle sémantique…)
  • Aspect Pragmatique : les activités de l’entreprise et son organisation (rôles, processus, styles de management et de contrôle…)
    ➜ Politique de la donnée : ordonner les activités en vue de l’exploitation optimale des données, mettre en lumière dans les processus existants les impacts de la politique et faire les adaptations nécessaires
  • Aspect Géographique : la localisation des activités de l’entreprise (géographie de l’entreprise, virtualisation, télétravail, équipement nomade…)
    ➜ Politique de la donnée : préciser les dispositions techniques et organisationnelles à prendre quant à la distribution géographique des données
  • Aspect Logique : un aspect intermédiaire entre métier et technologie, introduit dans la chaîne de transformation pour faciliter la conception des systèmes techniques
    ➜ Politique de la donnée : Décrire l’architecture logique de données
  • Aspect Logistique : l’ensemble des ressources techniques au service de l’activité
    ➜ Politique de la donnée : Identifier les composants techniques support à l’architecture de données
  • Aspect Physique : le Système Entreprise complètement déployé (avec toutes ses ressources localisées)
    ➜ Politique de la donnée : Préparer le déploiement de la politique, dimensionner la cible, accompagner le changement

Enfin le dernier point nécessaire à une politique de la donnée est la gouvernance associée. C’est-à-dire l’organisation nécessaire à la maîtrise des données (profils, compétences…), l’inscription dans la « comitologie » existante, l’interaction avec les projets de transformation et trajectoire pour une cohérence transverse à la politique de la donnée et la promotion de la culture de la donnée au sens large pour la bonne mobilisation des collaborateurs.

Le formulaire et le mode d’emploi sont téléchargeables dans le respect de la licence Creative Commons qui régit le fond documentaire Praxeme (documents PxPRD-04f – Politique de la Donnée – et PxPRD-04m – mode d’emploi).

Ce premier travail, finalisé en 2015, a vocation à se poursuivre en 2016 et 2017 pour, en particulier, renforcer l’angle innovation et data science, accompagner la culture de l’expérimentation, développer le caractère auditable de l’application de la politique, explorer la dimension éthique et, enfin, réaliser un état de l’art sur les outils supports d’une politique de la donnée et de sa mise à jour.

Auteurs : Delphine BARRAU & Joël BIZINGRE

politique de la donnée - Observatoire CONIX de la donnée

CONIX participe au DEP 2015

DEP 2015

DEP 2015

Les 26 et 27 novembre derniers, l’association ExQi (Excellence Qualité de l’information) a organisé le DEP 2015 (Data Excellence Paris) – 4ème édition – , un événement unique en France dédié à la Gouvernance, à la Gestion et à la Qualité des Données.

Cet événement a rassemblé une grande variété de participants du monde de l’Entreprise, du Conseil, de l’Edition et de la Recherche, dont CONIX.

Retour sur l’un des thèmes phares de cette édition DEP 2015 : la table ronde des Data Scientists, animée par Delphine Barrau et Laurent Faullimmel et qui fera l’objet d’une synthèse des échanges sur le site d’ExQi.
Les Data Scientists présents : D. Bachir (ENSIEE), S. Ben Hassine (Covéa), E. Fatni (CONIX), J.B. Rouquier (Dataiku), J.P. Malle (M8).

Eclairage sur ce métier avec Elkhader Fatni :

Pouvez-vous vous présenter ?

Bonjour, je m’appelle Elkhader Fatni. Je suis Data Scientist chez CONIX, une société de plus de 200 personnes qui accompagne les entreprises dans leur transformation et la maîtrise des risques.

J’interviens sur des projets orientés cas d’usages métier (fraude, désabonnement, hyperpersonnalisation…), souvent à travers des Datalabs, ou bien en « immersion ». Je contribue également au développement de l’offre Big Data de CONIX, notamment par la création d’un Datalab interne, sa promotion en participant à divers challenges de data science, de type Datathon.

Quelle définition donneriez-vous du métier de Data Scientist en une phrase ?

Je pense qu’un Data Scientist est une personne capable d’extraire, de combiner, d’analyser et de synthétiser des données massives dont la source, la nature et la fréquence de production sont variées. Finalement, il s’agit d’être capable d’exploiter « positivement » toutes les « connaissances » humaines.

Data Scientist, oui mais… et depuis quand ?

Le métier le plus « sexy » de ce début du 21ème siècle n’est certainement pas apparu du jour au lendemain. Je défends l’idée que le métier de Data Scientist résulte d’une part des progrès des technologies qui nous entourent et, d’autre part, de l’évolution d’un métier que l’on connait tous : le statisticien. En effet, les statisticiens ont longtemps été dévolus à l’analyse d’un certain type de données, que l’on retrouve principalement dans les systèmes de stockage traditionnels (bases de données).

Puis, les techniques de statistiques se sont perfectionnées donnant lieu à des profils capables de fournir une aide à la décision : la BI – Business Intelligence. Parallèlement, de nouvelles sources de données sont apparues avec le développement des sondages, par exemple, ou bien les formulaires en ligne. L’information à analyser n’est plus seulement numérique mais devient textuelle. De ce besoin est né le métier de Data Miner, personne capable d’extraire de la connaissance et de fouiller parmi les données. Ce profil s’est d’ailleurs renforcé avec la popularité des réseaux sociaux qui ont généré un véritable déluge de données non structurées.

Finalement, les géants du web perfectionnent leurs outils d’analyse, d’indexation… en prenant en compte la variété, le volume et la vélocité. Ces solutions se démocratisent et suscitent l’intérêt des entreprises qui se retrouvent avec des problématiques à forte valeur ajoutée, avec des masses de données internes mais aussi externes à leur SI, sans manuel d’utilisation. Le Data Scientist est là pour les guider.

DEP 2015- Elkhader Fatni

Que fait un Data Scientist en 2015 ?

J’interviens dans le cadre de l’offre Big Data de CONIX avec une approche orientée métiers. Je me positionne donc sur toute la chaîne d’un projet Big Data en commençant par aller à la rencontre des clients sous un angle très pédagogique quant à l’usage de la data science : je leur propose une solution selon un besoin métier, identifié ou non (fraude bancaire ou à l’assurance, hyperpersonnalisation de la relation clientèle….) avec des indices sur le ROI, je mets en avant la possibilité de constituer un datalab interne.

Dès cette étape, je débute un travail de recherche, d’extraction et de fouille de données par rapport au contexte. Dans les phases suivantes, j’effectue un long travail de prétraitement sur les données extraites puis je mets en œuvre des algorithmes de machine learning dans le but d’identifier les données corrélées. Enfin, après l’évaluation des modèles et la validation du métier, j’aborde la phase de visualisation des données qui me permettra de présenter les résultats devant le métier.

Selon le contexte, une phase d’industrialisation peut suivre, auquel cas j’interviens en tant qu’expert technique et m’assure du déploiement correct de la solution prototypée.

Avec quels outils ?

Chaque Data Scientist aura certainement ses préférences. Aussi, je distingue pour ma part deux mallettes à outils : l’une destinée à l’étape de prototypage et l’autre à l’industrialisation.

  • Prototypage : cette étape se veut courte (un à trois mois) et consiste à prouver la faisabilité et surtout le ROI potentiel d’une démarche prédictive. De ce fait, les outils manipulent souvent des jeux de données réduits et doivent être rapidement mis en place (via perl, python, scikit learn…).
  • Industrialisation : la démarche est validée, elle doit être généralisée à l’ensemble des données disponibles, sécurisée, déployable dans un environnement de production. En général, les outils Java sont à privilégier (Hadoop, Spark, etc.).

Un cadre méthodologique mûr ou encore jeune ?

Le métier de Data Scientist est récent et on peine encore à le définir. Difficile donc de parler de cadre méthodologique standard. J’ai cependant fait le choix des méthodes agiles car elles me semblent tout à fait adaptées aux projets de data science. Plus précisément, je travaille selon la méthodologie CRISP-DM (Cross Industry Standard Process for Data Miner) qui, comme son nom l’indique, est issue du data mining. Cette méthode propose des cycles basés sur la compréhension du métier, des données, leurs préparations puis leur modélisation…

Selon vous, quel est le parcours de formation le mieux adapté ?

Les formations de Data Scientist sont encore récentes, pourtant on trouve déjà des Data Scientists talentueux dans la nature ! En me fondant sur ma propre expérience, je m’aperçois que ma formation d’ingénieur m’a apporté un socle de connaissance indispensable en termes de rigueur scientifique, de connaissance de l’entreprise et de raisonnement éthique et social (en témoigne la charte d’éthique des ingénieurs). De plus, ma formation à dominante informatique m’a conforté dans l’usage des outils Big Data et me donne la capacité d’apprécier la nature des données, de comprendre leur production et de contribuer à leur interaction. Finalement, ma spécialisation de dernière année en « machine learning » et « data mining », ponctuée par un stage Big Data de fin d’étude, très enrichissant, m’a convaincu quant à mon avenir en tant que Data Scientist.

Il semble qu’aujourd’hui les DS soient principalement dans les grandes entreprises, au cœur de datalab ou de DSI. Cela vous semble-t-il représentatif ?

Il est vrai que l’on retrouve souvent ces acteurs dans les grandes entreprises, au cœur même de datalab. L’un des éléments de réponse réside dans le volume des données que ces grandes entreprises ont à offrir aujourd’hui. Pourtant, j’affirme que les Data Scientists ne sont pas réservés aux grandes entreprises. Et la raison en est simple : avec l’évolution des technologies et leur démocratisation, tous les domaines fonctionnels (banque, assurance, industrie, recherche, grande distribution…) sont concernés par l’effervescence des données et auront besoin de Data Scientists, qu’ils soient internes (création de poste) ou externes (cabinets de conseil).

Et demain… ?

Les discours mettant en avant l’or noir que constituent les données, le déluge des datas et autres métaphores poétiques laissent entrevoir l’importance du sujet dans les années à venir. Le véritable défi du Data Scientist sera sans doute de s’adapter à leur variété en combinant par exemple l’analyse des vidéos, images et sons. Plus encore, l’évolution de la technologie (processeur quantique, IoT, réalité augmentée…) suggère une infinité de nouveaux cas d’usage que les entreprises et les utilisateurs apprécieront certainement. Des frontières apparaissent cependant et des questions éthiques se posent (par exemple, Facebook a retiré son moteur de recherche sur les commentaires publics l’été dernier, redonnant ainsi le contrôle à ses utilisateurs quant à l’usage de leurs données).

En conclusion, la table ronde que nous animons aujourd’hui vise à définir un métier encore récent. Pourtant, de nouveaux métiers se profilent déjà à l’horizon : avez-vous entendu parler des Citizen Data Scientists ?


Autre thème abordé durant l’événement DEP 2015, la restitution du Groupe de Travail Big Data, avec la participation de S. Ben Hassine (Covéa), S. Corréa (Talend), D. Clément (Microsoft), K. El Idrissi (GrDF), X. Henderson (Air France – KLM), H. Husson (Conix) et D. Mariko (Information & Records Manager), sur les thèmes :

  • « Big Data – Self Healing Data Management »
  • « Comment mener un projet Big Data en tenant compte de la Data Quality ? », explications d’Hervé Husson, Cloud Practice Manager chez CONIX, via un retour d’expériences sur de vrais projets Big Data, analysés suivants 9 axes tendanciels : enjeux, politiques, organisations, métiers, processus, stratégies, architectures, réalisations et analyse de la valeur.

Eléments de réponse avec Hervé Husson :

Les projets Big Data, ça existe…

Le dernier sondage IDC-HP rapporte en effet que 56% des entreprises n’ont pas entamé d’initiative Big Data, tandis que 20% d’entre elles sont déjà dans une démarche d’évaluation de leur projet et 24% sont « en cours d’adoption » du Big Data. Si le succès semble encore mitigé, il convient de noter la progression de ce secteur dans le monde industriel.

L’objet de ce retour d’expérience présenté lors du DEP 2015 par CONIX est de montrer qu’il existe naturellement des projets Big Data au sein des entreprises, et particulièrement dans les secteurs d’activité du commerce, des transports, des services financiers et de l’énergie. Mais il s’agit également de montrer, aux travers de nos expériences, comment on peut mener un projet Big Data en tenant compte de la « data quality ».

DEP 2015 - Hervé Husson

Pour ce faire, notre étude s’est focalisée sur 9 axes dont voici les principales tendances qui se dégagent :

  • Axes Enjeux et Politiques : le Big Data constitue à l’unanimité un enjeu pour l’entreprise et traduit des ambitions fortes parmi lesquelles le pilotage de l’organisation, la connaissance des clients et prospects (grâce à la vision 360° du client), la sécurité et la prévention des fraudes mais aussi la data quality, qui est un véritable enjeu business. En effet, la donnée est au cœur de ces projets. Elle bénéficie donc de toute l’attention des acteurs métier et entraine, selon les différents cas d’usage mise en œuvre, différents schémas de prétraitements à l’origine de la data quality. On notera au passage les aspects politiques impliqués par ces prétraitements, notamment la conformité juridique et réglementaire.
  • Axes Organisations, Métiers et Processus : les organisations dédiées au Big Data sont généralement mixtes ; structure côté Métiers (exemples : commercial ou marketing) et structure côté DSI, orientée expertise technologique. A noter que les Data Scientists font souvent l’objet d’apports externes en sous-traitance. Le fameux CDO – Chief Data Officer – n’est pas encore une réalité dans toutes les organisations. Quant aux processus, la principale innovation réside dans la démarche de passage de l’expérimentation itérative à l’industrialisation.
  • Axes Stratégies, Architectures et Réalisations : la construction du SI est souvent guidée par une réflexion autour des cas d’usage. Elle se caractérise par la refonte des architectures BI classiques et met en avant des architectures Big Data de nature diverse. Lorsque les réalisations sont engagées (Proof of Concept, Proof of Value, prototype), des environnements Cloud sont privilégiés grâce à leur coût réduit et leur facilité de mise en œuvre notamment. La structure qui en découle est le « data lake », au-dessus duquel peut se greffer un datalab. La data quality n’est cependant pas un prérequis et les offres de type « DaaS » (Data as a Service) ne sont pas encore d’actualité…
  • Axe Analyse de la Valeur : s’il fallait retenir l’un des axes tendanciels de cette étude, c’est bien celui de la valeur qui émerge des initiatives Big Data. Nos retours d’expérience s’accordent sur l‘idée d’avoir pu trouver, grâce au projet Big Data, des réponses à des problématiques métiers jusqu’à présent non résolues. Plus encore, les projets liés à la donnée reposent sur une agilité accrue par le renforcement de la culture de l’expérimentation. Ce qui en ressort, c’est la capacité nouvelle qu’ont les entreprises à réaliser des analyses d’impact, leur maîtrise des données exposées, et la création de nouveaux services ou de nouvelles offres. Enfin, l’amélioration de la data quality est désormais quantifiable au cours du projet Big Data.

Le retour d’expérience que nous vous présentons est d’autant plus intéressant qu’il s’articule avec les conclusions de l’Observatoire de la Donnée CONIX, lancé récemment. La qualité des données est primordiale au sein d’une entreprise et les projets Big Data permettent finalement de mesurer la richesse de son patrimoine.


Pour plus d’informations, voici le support de la présentation. Et n’hésitez pas à contacter Hervé Husson.


Auteurs : Elkhader FATNI et Hervé HUSSON

Observatoire CONIX de la Donnée

Conix confirme son engagement pour l’environnement

Projet CO2 Solidaire au Cambodge
Pour la sixième année consécutive et à l’approche de la conférence COP21 pour le climat, qui se tiendra à Paris cet automne, CONIX CONSULTING publie son rapport environnemental [PDF] et annonce la reconduction de son partenariat avec le GERES, via le programme CO2Solidaire, confirmant ainsi son engagement en faveur du développement durable.

Six ans après la mise en place de sa démarche pionnière, CONIX CONSULTING continue à se distinguer parmi les sociétés de conseil de sa catégorie, avec une approche pragmatique reposant sur l’implication individuelle de ses consultants.

En effet, le principal facteur d’émissions de gaz à effet de serre dans ses activités est lié aux trajets des collaborateurs entre leur domicile et leur lieu de travail. Alors, grâce à un outil dédié, chacun d’entre nous comptabilise ses émissions au fil de l’année. Viennent ensuite s’ajouter au bilan d’ensemble la consommation électrique et de papier de l’entreprise.

En accord avec la stratégie de notre partenaire CO2Solidaire, le premier objectif recherché avec cet effort de diagnostic est de réduire notre impact environnemental, car il est impossible d’agir sur ce qui n’est pas mesuré. S’il est vrai que, en 2014, l’ambition n’a pas été atteinte (le total des émissions atteignant 377kg d’équivalent CO2 par collaborateur contre 323 en 2013), ce petit revers est largement conjoncturel et nous motive encore plus pour nous améliorer !

Dans le deuxième volet du programme de CO2Solidaire, basé sur un principe fondamental de solidarité climatique auquel elle adhère avec enthousiasme, CONIX CONSULTING contribue (financièrement) à un extraordinaire projet de lutte contre la déforestation au Cambodge, à travers une action de compensation volontaire de ses émissions résiduelles de gaz à effet de serre.

Auteur : Patrice BERNARD