Archives de catégorie : Facilities Management

Changement climatique : comment minimiser ses impacts

Face aux aléas climatiques que nul ne peut ignorer, les bâtiments existants n’ont d’autres alternatives que de s’adapter pour continuer d’assurer leurs fonctions premières. Quelques sont les solutions pour y parvenir ?

La prise de conscience climatique 

Le 21 mars 1994, est entré en vigueur la Convention-cadre des Nations Unies contre le Changement Climatique (CCNUCC), ou Convention de Rio. Elle reconnaissait, pour la première fois au niveau mondial, l’existence et les impacts des changements climatiques. L’objectif ultime de cette convention était de stabiliser les concentrations de gaz à effet de serre “à un niveau qui empêcherait toute perturbation anthropique dangereuse du système climatique”.

S’en est suivi en 1997 le protocole de Kyoto, qui a traduit en chiffres les déclarations d’intention de la CCNUCC : 37 pays industrialisés et l’Union européenne se sont alors engagés à réduire leurs émissions de CO2 de 5% par rapport au niveau d’émissions de 1990, sur la période 2008-2012.

Puis le protocole de Doha a renforcé en 2012 cet engagement avec un objectif de réduction de 18% de 2013-à 2020.

Mais il a fallu attendre le 12 décembre 2015 et l’accord de Paris (COP 21) pour qu’un engagement sur le long terme soit enfin pris, à savoir celui de « contenir l’élévation de la température moyenne de la planète nettement en dessous de 2 °C par rapport aux niveaux préindustriels et de poursuivre l’action menée pour limiter l’élévation des températures à 1,5 °C ».

Pour quel résultat

Mais cette limite a déjà été atteinte : +1,45°C ont été enregistrés le 19 mars 2024 pour l’année 2023.

Quant à l’objectif pris à partir des études de 2007 (voir tableau), de baisser d’ici 2050 de 50% les émissions du globe dont 75% des émissions des pays industrialisés (Facteur 4), pour ne pas dépasser +2,4°C et +2,8°C d’augmentation de température d’ici la fin du siècle, il a peu de chance d’être tenu, les émissions mondiales de CO2 d’origine fossile n’ayant cessé d’augmenter bien plus vite que les puits de carbone.

Scénarios d’augmentation de la température du globe en fonction des efforts de réduction de CO2 à réaliser

Augmentation prévisible de la température globale moyenne par rapport à l’ère préindustrielleAnnée estimée du pic d’émission% de réduction de CO2 à consentir d’ici 2050 pour atteindre ce résultatNombre de scenarios ayant conduit à ces hypothèses
+2,0 à +2,4°C2000-2015-50 à -85%6
+2,4 à +2,8 °C2000-2020-30 à -60%18
+2,8 à +3,2 °C2010-2030+5 à -30%21
+3,2 à +4,0°C2020-2060+10 à +60%118
+4,0 à +4,9°C2050-2080+25 à +85%9
+4,9 à +6,1°C2060-2090+90 à +140%5
  Total117
Source : Quatrième rapport du GIEC – Groupe de travail III – Mai 2007

Pour la France, comme pour toutes les terres émergées qui se réchauffent plus vite que les océans, les scénarios actuels les plus optimistes prévoient une élévation moyenne de température de +3,8°C à +4,5°C.

Tempêtes, inondations, vagues de chaleur et sécheresses vont donc augmenter en force et en fréquence.

Tous les secteurs seront concernés et en particulier celui du bâtiment dont le but premier reste de garantir des conditions de vie et de travail sécures.

Pour qu’il le reste, il est donc nécessaire de l’adapter à la nouvelle donne climatique en prenant des mesures préventives.

Savoir, prévoir, informer

La première des actions à mener est de réaliser des diagnostics pour évaluer l’exposition au risque des bâtiments en fonction de leur localisation et de leur mode constructif.

Il s’agit de se renseigner sur l’état des sols, sur la vulnérabilité aux inondations, à la circulation des flux d’air et aux submersions marines.

On pourra utilement se référer à des outils tels que Géorisques, RARE (Resilience for Real Estate) de l’ Observatoire de l’Immobilier Durable (OID) ou encore à Vigicrues.

On pourra également visualiser une éventuelle déformation de la structure ou des fondations en posant des jauges mesurant les ouvertures de fissures et les contraintes.

Forts de ces informations, les gestionnaires de bâtiment seront en mesure de concevoir la meilleure stratégie de contournement pour limiter les dégâts face aux risques identifiés et, au passage, réduire le montant des primes d’assurance.

L’une d’elles consiste à identifier des lieux alternatifs où l’activité pourrait se poursuivre, dans le cas où le bâtiment serait endommagé ou rendu inaccessible. Pour les activités de bureaux, on pourra, comme il est procédé aujourd’hui pour d’autres raisons, déporter l’activité de l’entreprise chez l’employé (télétravail) ou dans un tiers lieu (coworking). Cela supposera de disposer d’un réseau informatique robuste, gérable à distance et protégé des cyberattaques.

Dans le cas où le risque deviendrait permanent (montée inexorable des eaux par exemple), il n’existera d’autres solutions que de transférer l’activité en un lieu moins exposé, en prévoyant également les conditions de transfert et d’accès des salariés.

Dans le même esprit, il conviendra de prévoir les moyens de protéger les occupants et les matériels, en se dotant d’équipements de sécurité et de secours, de zones refuges équipées en eau voire en nourriture et de zones de repli vers des lieux accessibles à des soutiens extérieurs.

Des exercices et simulations devront être faits régulièrement pour vérifier, entre autres, la réactivité des occupants et la pertinence de l’organisation comme de la signalétique.

La troisième action à mener, une fois le diagnostic de situation réalisé et les solutions de repli élaborées sera de communiquer le résultat des réflexions et les solutions envisagées aux occupants des bâtiments.

La communication est essentielle pour se préparer au mieux et adopter les bonnes attitudes face aux menaces.

Il faudra veiller à éviter les communications contreproductives car à contre-temps ou non adaptées au lieu et privilégier les exemples concrets aux discours généraux trop alarmistes. L’accent devra être mis sur les solutions plus que sur les problèmes, sans toutefois les nier.

Le végétal, meilleur rempart naturel

La végétation autour, sur et dans les bâtiments offre de nombreuses réponses adaptations aux aléas climatiques, sans parler de leur pouvoir déstressant.

En façade comme en toiture, leur double pouvoir rafraîchissant et isolant permet de réduire les besoins en climatisation et chauffage.

Par forte chaleur, les végétaux créent de l’ombre, directe et portée, et redéployent l’humidité du sol par évapotranspiration. Ainsi, ils permettent de baisser les températures et les besoins en refroidissement. Ils protègent également les équipements des ardeurs du vent pour lesquels ils sont autant de barrières naturelles.

Enfin, en cas de fortes pluies, ils facilitent l’absorption de l’eau et réduisent ainsi l’intensité des inondations.

Si cela est possible, on peut aller plus loin dans l’aide à l’infiltration de l’eau dans les sols en désimperméabilisant les aires de stationnement ou les abords goudronnés des bâtiments, ce qui revient à renaturer les sols, à l’échelle d’un bâtiment, selon le concept de « ville éponge ».

Il faudra toutefois bien veiller au choix des plantes pour qu’elles résistent aux évènements climatiques et arbitrer entre les essences méditerranéennes économes en eau mais peu rafraîchissantes et celles qui consomment plus d’eau mais qui, en échange, offrent une plus grande évapotranspiration. Pour économiser les apports d’eau, on préfèrera une façade végétalisée à un mur végétalisé.

Le législateur s’est déjà emparé du sujet : la loi Energie-Climat du 8 novembre 2019 oblige l’installation d’un système de végétalisation (ou de panneaux solaires) sur 30% de la surface de toiture des nouveaux entrepôts et bâtiments commerciaux et des ombrières de stationnement, tandis que l’arrêté du 19 décembre 2023 définit les caractéristiques minimales que doivent respecter les systèmes de végétalisation installés en toiture.

Réorganiser le positionnement des équipements

Face au danger de montée des eaux, la première des actions est d’élever, si possible, les équipements et matériels essentiels au fonctionnement du bâtiment.

Les rez-de-chaussée et encore plus les sous-sols serviront surtout de stockage ou de stationnement, les activités stratégiques pour l’entreprise étant montées en étage. Les réseaux d’énergie, de sécurité et de communication devront être compartimentés pour que la panne de l’un d’eaux n’empêche pas le fonctionnement d’un autre.

En réponse aux tempêtes, la bonne attitude est de répertorier tous les éléments fixes ou mobiles qui pourraient être endommagés ou emportés.

Pour les premiers (antennes, drapeaux, signalétique, bornes de recharge , volets, ombrières…), il faudra s’assurer que leur installateur a bien intégré la rigueur des climats futurs dans ses calculs de résistance au vent.

Pour les seconds (mobiliers extérieurs), il faudra faire preuve de bon sens, en cherchant d’abord à les fixer solidement ou, à défaut, les mettre à l’abri. Dans tous les cas, il conviendra de concevoir une procédure de sauvegarde sous la responsabilité de personnes préalablement désignées et formées pour le faire.

Utiliser des matériaux adaptés

Pour réduire la perte d’exploitation après une inondation, du fait d’une remise en état du second œuvre, on peut judicieusement choisir des matériaux résistant à l’eau pour les niveaux inondables. Pour les planchers, on privilégiera le béton plutôt que le bois ou la moquette, tandis que pour les cloisons et les menuiseries, on choisira des menuiseries en PVC et des cloisons sur ossature métalliques.

Enfin, pour réduire les besoins en refroidissement, on peut augmenter l’albédo des bâtiments, c’est-à-dire la part de rayonnement solaire qu’ils renvoient vers l’atmosphère, en choisissant pour leur enveloppe des couleurs claires ou des matériaux réfléchissants.

Choisir des solutions passives

Plutôt que de chercher à rafraîchir les locaux par des systèmes de climatisation très énergivores et qui ne font que déplacer le problème sans le régler (en climatisant, on produit toujours plus de chaud que de froid), on aura tout intérêt à profiter du rafraichissement diurne, de manière totalement passive.

On peut aussi faire baisser efficacement la température perçue par le corps humain (jusqu’à – 3°C) et créer une sensation de bien-être, en brassant l’air avec des plafonniers et autres ventilateurs.

On peut également installer des points d’eau créant des ilots de fraîcheur, sous forme de jets d’eau, fontaines ou brumisateurs (utilisant de l’eau de récupération). Leur effet dépassant rarement la dizaine de mètres, ces espaces fraîcheurs, seront de préférence à positionner dans des lieux d‘attente.

Agir maintenant

La bonne nouvelle est que toutes ces solutions existent et qu’elles ont déjà été mises en œuvre avec succès. Et que, contrairement à la chasse mondiale au CO2, chaque action menée localement aura un effet positif immédiat et directement visible.

Aux gestionnaires de bâtiment de s’en saisir, sans plus attendre.

Maintenance multitechnique : et si nous rêvions un peu ?

Crise de l’immobilier tertiaire, dérèglement climatique, impératif d’adaptation, hausse des prix des éléments de construction : la maintenance multitechnique ne pourrait-elle pas profiter de cet environnement contraint pour changer de dimension ?

La maintenance multitechnique est née à l’aube des années 90 pour répondre à la complexité et à l’interpénétration des installations techniques équipant les grands ensembles de bureau de la fin du XXème siècle.

Elle a ensuite évolué, au gré des crises et opportunités. Dans les années 2000, elle a emprunté le concept de Facility Management au monde de l’informatique pour présenter une offre aux tenants de « l’entreprise sans usine ». Dix ans plus tard, elle a sauté dans le train de la « Croissance verte », en ajoutant à sa palette déjà étendue, la gestion voire l’optimisation énergétiques.

Mais globalement, le métier n’a guère changé : des interventions systématiques nécessaires (ou pas), mais qui assurent un revenu régulier ; des dépannages et travaux supplémentaires, si possibles nombreux, pour conforter les marges.

Alors que l’immobilier de bureau vit une crise majeure, ne pourrait-on imaginer une maintenance multitechnique plus économe, plus sobre, plus durable, en un mot, plus responsable ?

Briser le plafond de verre de la maintenance prédictive

Alors que la maintenance préventive systématique repose sur des calendriers d’intervention fixes, la maintenance préventive prédictive ou proactive se base sur l’analyse de données collectées en temps réel pour anticiper les pannes. Autrefois ralenti par le coût d’installation et d’utilisation des capteurs, son développement est aujourd’hui rendu possible grâce à l’offre abondante d’objets connectées peu chers, répondant à tous les besoins, autonomes en énergie et communicants.

Toutes les données collectées et passées à la moulinette de l’Intelligence Artificielle (IA), capable d’identifier, en analysant température, vibration et consommation, l’apparition d’un défaut, permettent de réduire de façon drastique le nombre pannes, leurs coûts induits et les coûts d’intervention, dont ceux du transport et du stationnement.

Autre effet bénéfique : empêcher la casse et les remplacements revient à prolonger la durée de vie des équipements. Ce sont autant de ressources primaires économisées et de déchets produits en moins.

Jusqu’à présent, la profession a fait de la résistance et a tué dans l’œuf toutes les initiatives allant vers plus de prédictif. Mais les crises sanitaires telles que celle du COVID ont conduit à totalement arrêter des pans entiers de l’économie et à réduire au strict minimum la maintenance des bâtiments. De nombreux clients ont découvert à cette occasion que l’on pouvait réaliser une maintenance minimale (plans de sauvegarde), sans qu’il y ait nécessairement plus de pannes, démontrant ainsi la fragilité d’un modèle de maintenance actuellement basé sur le tout systématique. Plutôt que d’attendre la prochaine crise qui pourrait être fatale à la profession, peut-être serait-il temps de changer de paradigme ?

Jouer à plein la carte de la digitalisation

La maintenance est surtout un métier de main d’œuvre. Toute perte de temps imprévue sur une intervention se retrouve dans le prix de vente, dans le taux horaire ou sous forme d’aléas.

A l’inverse, prévoir et savoir sont les meilleures façons de réduire les coûts d’exploitation.

S’agissant de prévoir, il existe bien des systèmes de gestion de la maintenance assistée par ordinateur (GMAO). Ce sont des plateformes centrales pour planifier, exécuter et suivre les interventions. Ces outils, généralement en SaaS, offrent une visibilité en temps réel sur l’état de santé des équipements, l’historique des opérations, les travaux de maintenance réalisés et le niveau des stocks. Ces GMAO font presque systématiquement partie de la panoplie d’outils que le mainteneur multitechnique s’engage contractuellement à déployer. Mais combien d’entre elles sont peu ou mal utilisées, quand elles n’ont, pour certaines, jamais été sorties de leurs boîtes ?

S’agissant de savoir, l’utilisation croissante des objets connectés (IoT) permettrait une surveillance continue et précise des installations. Les données collectées par ces dispositifs, faciliteraient des analyses approfondies et des diagnostics précis. Le technicien d’intervention saurait, avant de se déplacer sur site, quoi faire, avec quels outils et quelles pièces de rechange.

En allant plus loin, on pourrait généraliser l’usage de la réalité augmentée (RA) et de la réalité virtuelle (RV) qui viennent enrichir les compétences des techniciens. En portant des casques de RA, les agents pourraient visualiser des plans techniques directement superposés sur les équipements ou être guidés à distance par des experts, ce qui réduirait les délais d’intervention, la rapidité d’exécution et le risque d’erreurs.

S’engager à préserver les ressources

Le cadre réglementaire français évolue pour accompagner les ambitions écologiques et énergétiques du pays. La loi sur la transition énergétique pour la croissance verte (LTECV) ou encore le décret tertiaire imposent des objectifs ambitieux en matière de réduction de la consommation d’énergie dans les bâtiments.

Or, de trop nombreux contrats de maintenance multitechnique se résument à imposer la réalisation d’une liste de tâche, à une fréquence donnée. Dans tout le texte contractuel entourant ces chiffres apparaît bien ici et là un engagement du mainteneur à faire ses meilleurs efforts pour optimiser les consommations énergétiques des équipements qu’il maintient. Mais encore faut-il qu’il ait les outils de mesure, la compétence et le temps (cette prestation a-t-elle vraiment été valorisée ?) pour le faire.

Pour l’y aider, le législateur impose, avec le décret BACS, la mise en place de systèmes de suivi et de pilotage des installations couramment appelés « Gestion Technique du Bâtiment » (GTB).

Même si cette obligation n’est pas soumise à sanctions, le mainteneur multitechnique aurait tout intérêt à saisir cette opportunité d’obligation faite à ses clients pour proposer des contrats sur la base d’un engagement d’optimisation des consommations énergétiques et des puissances appelées, de prolongation de la durée de vie et de réemploi des équipements ainsi que de réduction des émissions de gaz à effet de serre.

Ce contrat s’appuierait sur le principe du Contrat de Performance Energétique de service, c’est-à-dire un CPE d’exploitation, sans fourniture d’énergie, par lequel le mainteneur s’engage à garantir un certain niveau d’efficacité énergétique, sous peine de pénalités financières.

Développer le réemploi

De nombreux parallèles peuvent se faire entre la maintenance automobile et la maintenance mutitechnique. Les premières normes de maintenance sont d’ailleurs issues du monde automobile.

Or aujourd’hui, un réparateur automobile a obligation de proposer des pièces de rechange de réemploi en même temps que du neuf.

En attendant que cette démarche de bon sens soit adoptée par le législateur, et en complément de la loi AGEC déjà existante, les mainteneurs multitechniques, s’ils veulent prendre un peu d’avance par rapport à la réglementation et surtout être à l’heure de l’urgence climatique, auraient tout intérêt à faire de même.

Dès l’instant où un étrier de frein équipant une très grosse cylindrée peut être vendu d’occasion sans problème, on imagine que seuls très peu de composants équipant les systèmes d’un bâtiment tertiaire ne puissent être de seconde main.

Réutiliser, c’est à nouveau réduire le gaspillage, le temps, les déchets et les ressources primaires.

Rêve ou réalité ?

Parmi les nombreuses actions d’amélioration décrites ci-dessus, certaines sont déjà déployées sur quelques rares bâtiments par quelques mainteneurs pionniers. Qu’ils en soient félicités.

Mais dans la réalité, la majorité des prestataires en ignore jusque l’existence. Car le métier de maintenance multitechnique n’a pas besoin d’innovation pour durer, à l’inverse de n’importe quel produit marchand. Tant qu’il y aura des bâtiments, il y aura des installations techniques et des pannes. Et tant que rien ne sera fait véritablement pour les éviter, la maintenance perdurera.

Le seul élément exogène qui a obligé les entreprises de maintenance à se verdir, et cela ne concerne que les sociétés cotées, est la pression verte de leurs actionnaires eux-mêmes soumis aux exigences de reporting responsable.

Ce n’est donc pas auprès des mainteneurs qu’il faut attendre un sursaut, mais bien de leurs clients. A eux d’exiger de leurs prestataires des offres responsables, durables et frugales. A eux de ne plus systématiser le moins disant économique qui, sur la durée, finit souvent par revenir le plus cher.

Et maintenant que la première bataille lancée en 1997 à Kyoto contre la réduction des émissions de gaz à effet de serre a été perdue, il ne reste plus que l’adaptation pour sauver une activité immobilière qui, elle aussi, doit se réinventer.

Maintenance immobilière : un prédictif, sinon rien

Comment le digital va métamorphoser votre performance à moindre coût

Le transport, à l’origine de la maintenance préventive

Ce sont les industries à risques, en particulier celles du transport, qui sont à l’origine du concept de la maintenance tel que nous le connaissons aujourd’hui, c’est-à-dire consistant à éviter les pannes.

Grâce à elles, la profession est passée de l’entretien à la maintenance, ajoutant au dépannage originel les opérations de maintenance préventive.

Les machines ont ainsi gagné en fiabilité, ce qui leur a permis de se développer de la manière que l’on sait, en réduisant de façon drastique leurs coûts d’exploitation et de production.

Tous les autres pans de l’économie en ont profité, jusqu’aux bâtiments tertiaires qui, dans le sillage des premières normes de maintenance en février 1985, ont emboîté le pas de l’industrie.

Une maintenance prédictive freinée par son coût

Aujourd’hui, les acteurs du transport, pour lesquelles la sécurité des biens et des personnes est une priorité, sont en train de réaliser un nouveau saut méthodologique. Ils ont compris que, pour continuer de gagner en fiabilité et en coût, ils ne pouvaient plus se contenter de demander à leurs mainteneurs d’être plus productifs ou de réduire leurs marges.

Ils ont redécouvert les vertus d’une maintenance pourtant mentionnée par les premières normes, la maintenance prédictive ou conditionnelle. Il ne s’agit plus de prévenir la panne en intervenant sur une machine systématiquement, selon un échéancier, mais d’intervenir uniquement quand cela est nécessaire.

Pour pouvoir la réaliser, il est obligatoire que la machine, ou plutôt ses équipements, soient équipés de capteurs qui indiquent que leur état d’usure réclame une intervention.

En plus du gain en sécurité évident, les économies potentielles sont indiscutables : les interventions préventives sont réduites à leur juste nécessaire. Quant aux interventions correctives de dépannage, leur nombre fond comme neige au soleil. Ainsi que les conséquences en termes de couts, de délais, de désorganisation…

Jusqu’à aujourd’hui, l’équation économique était défavorable à la maintenance prédictive, du fait du coût des capteurs, des transmissions (câblages filaires, abonnements GSM) et du traitement de données.

Les objets connectés et le big data changent la donne

Avec l’arrivée conjointe des capteurs communiquant fonctionnant sur des bandes de fréquence gratuites (de type SIGFOX ou LORA), du Big Data (gestion de données en très grand nombre et en temps réel) et du Data Learning (capacité d’auto-amélioration des processus de diagnostic par l’augmentation des cas rencontrés), la maintenance prédictive est devenue rentable par rapport au tout systématique.

Naturellement, ce sont les industries de transport qui se sont appropriées les premières ces nouvelles technologies.

La fin des retards à la SNCF ?

Depuis 2009, la SNCF fait circuler 176 rames Bombardier équipés de 2000 capteurs pour 40 000 variables. Le nombre de données, remontées toutes les 30 minutes, est de 70 000 par an. Leur télédiagnostic a déjà permis de réduire de 90% le nombre d’interventions de maintenance inutiles, c’est-à-dire conduisant à un constat de fonctionnement normal. Par contre, ce processus reste coûteux, l’analyse sollicitant des spécialistes ferroviaires qui sont rares et donc chers.

Voulant gagner en rapidité et sécurité, la SNCF a lancé en avril 2016 un pilote en vraie grandeur consistant à traiter automatiquement les informations par des techniques de Machine Learning. Aux données provenant du matériel roulant sont désormais associés des comptes rendus d’intervention, des données météo ou encore les horaires de circulation des trains. L’expertise métier est toujours apportée par les techniciens de la SNCF tandis que l’optimisation des algorithmes est assurée par les data scientists de QUANTMETRY, le partenaire de la SNCF sur ce projet.

Sans attendre la fin de cette expérimentation de 6 mois, une première bonne nouvelle : les données remontées et leur analyse permettent non seulement de prévenir les pannes des matériels roulants, ce qui était la mission assignée, mais aussi celles des voies, ce qui diminuera considérablement le nombre de dysfonctionnements et donc de retards.

La solution d’AIR France KLM pour ne pas rester cloués au sol

Plus gros, plus rapide, plus impressionnant. C’est sur son AIRBUS A380 qu’AIR France KLM a décidé de passer en maintenance prédictive connectée depuis juillet 2015.

Les données de 24 000 capteurs, représentant 1,6 Gigaoctet de données par vol, sont récupérées par WiFi à chaque atterrissage à Roissy et envoyées à Toulouse où elles sont agrégées avec celles des deux années d’exploitation de l’ensemble de la flotte d’A380. Analysées par un système de Data Learning, elles permettent d’émettre, en moins d’une heure, des ordres d’interventions aux techniciens de maintenance tout proches.

Les pannes sont détectées 10 ou 20 jours avant qu’elles ne surviennent, évitant ainsi des coûts d’immobilisation et de perte d’image. Ce système a permis à Air France KLM de prédire la défaillance d’une pompe de circulation de carburant, un organe essentiel, avant qu’elle ne se produise.

Il permet également de ne pas devoir dépanner les avions sur des plateformes lointaines, moins bien dotées en équipes, matériel et pièces détachées et d’éviter ainsi que les passagers ne restent cloués au sol.

L’ALLIANCE à l’assaut du Big Data

Renault est un habitué des révolutions pour avoir été, du temps de la Régie, à l’origine des premières normes de maintenance en France.

Les constructeurs automobiles ont depuis longtemps doté leurs véhicules de capteurs remontant tous types de données d’usage et d’état (consommation, kilométrage, usures, pressions…). Ces données, récupérées à l’occasion de chaque visite chez le garagiste, permettent d’optimiser les gammes de maintenance préventives.

Plus récemment, les véhicules se sont ouverts au monde extérieur. Ils émettent des données, surtout à destination de leur propriétaire, les informant sur le niveau du réservoir, l’état des pneus ou la présence de portes ou fenêtres ouvertes.

Maintenant que les véhicules se doivent d’être autonomes, les constructeurs automobiles n’ont pas d’autre choix que de barder leurs véhicules de capteurs de tous types et d’être en mesure d’émettre et recevoir de l’information à moindre coût. Une aubaine pour les responsables de maintenance qui attendaient ce moment avec impatience : une voiture connectée, ce sont des milliers de données d’usage et d’usure qui seront disponibles en temps réel.

Passés à la moulinette de systèmes experts, un écart de trajectoire, une distance de freinage, une élévation de température ou une baisse de pression seront autant d’informations qui, remontées, analysées et retransmises rapidement au conducteur permettront de prévenir pannes et accidents, envoyant du même coût au Musée des antiquités une maintenance préventive systématique qui fait pourtant toujours autorité aujourd’hui.

Ce chemin est celui que vient de prendre l’ALLIANCE, l’association de RENAULT et de NISSAN qui, après avoir acquis la semaine dernière SYLPHEO, une société développent des logiciels pour le Cloud, vient de nouer un partenariat stratégique avec MICROSOFT sur la voiture connectée.

La maintenance prédictive arrive en deuxième position des objectifs de cet accord, derrière la navigation, cela s’entend, mais devant « le contrôle à distance des fonctions du véhicule, la mobilité externe et les mises à jour en temps réel ».

Une opportunité à ne pas manquer

Au siècle passé, l’industrie immobilière a mis plus de dix ans pour adopter le passage du dépannage à la maintenance systématique qui avait été initié par les industries du transport.

Dix ans, dans le siècle que nous vivons, c’est une éternité.

C’est déjà dix fois le temps qu’il faudra à une start-up motivée, associée à un expert en maintenance, pour mettre sur le marché une offre réduisant les coûts de maintenance tertiaire de 20 à 40%.

La course a déjà commencé.

Ceux qui n’y participeront pas seront sûrs de la perdre.

 

Facilities Managers: comment votre chiffrage vous fera désormais gagner des affaires

Pour chiffrer une offre de FM, les entreprises ont l’habitude de solliciter chacune de leurs entités réalisant une partie de la prestation pour qu’elles déterminent leur prix de vente interne, somme de leur prix de revient (ce que leur coûte la prestation, réalisée en propre ou sous-traitée), de leurs frais, des aléas et de leur marge.

Puis ces prix sont additionnés en y ajoutant cette fois-ci les frais généraux et la marge de l’affaire.

La plupart du temps, le prix de vente ainsi obtenu est tellement élevé que les chances de remporter la consultation sont très faibles. Tout simplement parce que 1) ce prix est élaboré à partir des souhaits et capacités de l’entreprise et non à partir des ceux des clients 2) l’époque où le prix d’une prestation de FM était fixée par les entreprises est révolue depuis longtemps.

C’est pourquoi, dans un temps de réponse toujours très court, chaque entité est sollicitée pour baisser son prix de vente interne. Une fois l’offre remise, c’est l’acheteur du client qui fait son travail et demande de revoir le prix. Chacun reprend sa copie. Comme la décomposition du prix de vente souhaitée par le client est très différente de la décomposition du prix de revient de l’entreprise, assez rapidement, les entités comme l’entreprise ne savent plus sur quoi portent vraiment les baisses qu’elles ont consenties par rapport à leur prix de revient idéal.

Si l’affaire est obtenue, on ouvre le champagne. Mais l’euphorie est de courte durée car l’affaire est à nouveau chiffrée (pas toujours !) et l’on constate amèrement que, pour préserver les marges avec un prix de vente fortement réduit par rapport aux espérances, la prestation que l’on pourra offrir devra malheureusement être dégradée. Au grand dam du client-utilisateur du service.

Il existe pourtant une autre manière de procéder qui, tout en permettant de chiffrer une affaire au prix du marché, préserve aussi bien sa qualité de réalisation que ses marges.

Le principe consiste à ne plus considérer le chiffrage de l’affaire comme une somme d’éléments mais comme un tout cohérent, constitué de composants liés par des relations. L’ensemble est traduit mathématiquement à l’aide d’équations, de règles logiques et de modèles statistiques.

Toute la complexité du chiffrage se résume alors à l’établissement des relations entre les composants, ce qui ne pose pas de problème pour les experts et hommes méthodes du FM.

Cette méthode présente de nombreux avantages :

1) La gymnastique fastidieuse et souvent approximative de transposition des coûts de l’entreprise dans les grilles de chiffrage du client n’existe plus, ces dernières étant, par convention, le format du fichier de sortie de l’algorithme de chiffrage.

2) On peut réaliser autant de chiffrages que l’on veut, en faisant varier les paramètres d’entrée à sa guise. Cette possibilité permet de réaliser tous types de simulations et en particulier de connaître a priori, sans limite de temps ni de ressources, la sensibilité du résultat de l’affaire, de son ROI ou de son cash-flow par rapport à n’importe lequel des paramètres d’entrée.

chiffrage

3) Négocier un prix devient une formalité dès l’instant où l’on sait exactement quelles seront les conséquences de cette négociation. L’acheteur du client qui, rappelons-le, ne cherche pas à acheter de la non qualité mais à être convaincu d’obtenir le meilleur prix pour la qualité souhaitée, préférera toujours une entreprise qui sait justifier son prix à une entreprise qui ne pourrait que se brader.

4) Les ressources de chiffrage et donc son coût sont fortement réduits. En effet, quand l’une des données d’entrée est modifiée, à la demande du client ou pour réaliser une simulation, tout le chiffrage est automatiquement modifié jusqu’à obtenir le nouveau résultat. Et tout ceci à la vitesse de l’électron, sans que les équipes de chiffrage ne doivent être à nouveau mobilisées.

5) Le travail d’élaboration et de modélisation des relations entre les composantes du prix est réutilisable, en tout ou partie, pour tous les chiffrages à venir, tout du moins, tant que les process de l’entreprise restent les mêmes.

6) Le prix de vente se trouve naturellement allégé des coûts d’aléas, de provision et autres risques, autant d’éléments autrefois inconnus dont on cherchait à se couvrir et qui sont désormais maîtrisés.

7) L’outil ne sert pas qu’en phase de chiffrage de l’affaire car il porte en lui tous les éléments qui la constituent. Mis en réseau, il offre à chaque entité de production de l’entreprise la possibilité d’affiner la gestion de ses prestations, en comparant le prévu au réalisé. En particulier, pour les contrats de partenariat ou de délégation de service, l’outil de chiffrage et le support de gestion réclamé par les clients ont tout intérêt à ne faire qu’un.

8) Les séances de validation d’affaire et autres « GO-NO GO » avec la Direction Générale n’en sont que simplifiées, toutes les hypothèses envisagées et leur choix valorisé.

9) Enfin, réfléchir aux relations entre les éléments constitutifs du prix de vente d’une affaire, avant et pendant la consultation, puis pendant la réalisation, est la meilleure façon de trouver des moyens d’optimiser les prestations et organisations et de gagner en productivité. C’est toute l’entreprise qui se place ainsi dans un mouvement d’amélioration continue lui permettant de gagner de plus en plus de marchés tout en satisfaisant ses clients.

Pourquoi attendre pour être de celles-ci ?