RE 2020 : à quoi ressembleront nos bureaux ?

Depuis juillet 2022, la construction des bâtiments de bureau doit respecter les exigences de la réglementation environnementale RE 2020.

Dans la continuité des normes qui s’étaient succédé depuis le choc pétrolier de 1973, cette réglementation ajoute de nouvelles conditions qui changeront fondamentalement la manière de construire nos futurs bureaux.

Voyons comment et pourquoi.

La première des nouveautés est d’imposer des limites aux quantités de carbone émises pendant toute la phase de vie du nouvel immeuble, de l’extraction de ses matériaux à leur mise en décharge. Un calcul en Analyse de Cycle de Vie, dont le principe était déjà inscrit dans l’expérimentation E+C-, invitera fortement à utiliser des produits biosourcés (laine, chanvre, paille…) ou géosourcés (pierre, terre cuite…) comme des matériaux issus du recyclage.

Mais la RE 2020 va plus loin car elle a retenu une ACV dynamique qui, sur 50 ans, calcule les émissions de carbone des éléments de construction en leur appliquant un coefficient qui les diminuent plus elles se produisent tardivement. Cette méthode, assez unique, favorise de fait l’usage du bois. Le béton, idéalement décarboné, sera réservé aux infrastructures voire à des planchers bois-béton.

Pour réduire l’empreinte carbone des matériaux de construction, la solution la moins coûteuse restera d’en réduire la quantité et donc les volumes qu’ils serviront à créer. On peut donc imaginer que les futurs bâtiments seront plus compacts qu’aujourd’hui.

La seconde est la limitation, en été, du nombre d’heures d’inconfort, correspondant à une température intérieure maxi qui variera entre 26°C et 28°C. La climatisation étant encore moins envisageable que dans les réglementations précédentes, de gros efforts devront être faits pour mettre les locaux à l’ombre, en utilisant des masques naturels (arbres, ombres portées) ou imposées, comme les pare-soleils. On verra également revenir des ventilateurs de plafond ou brasseurs d’air.

La troisième est le bonus de consommation accordé aux énergies renouvelables et autoconsommées. Les façades, toits et pelouses (car la parcelle fait désormais partie du périmètre de la norme) pourraient se couvrir de panneaux solaires et autres systèmes de chauffages thermodynamiques, dans la limite, bien-sûr, de leur poids carbone !

Enfin, le périmètre des consommations est élargi aux parkings, aux circulations et aux ascenseurs. La primauté sera donnée à l’éclairage naturel, dans les couloirs mais aussi les bureaux, ce qui réduira la largeur traditionnelle des immeubles. Quant aux ascenseurs, on essaiera d’en limiter l’usage en proposant des plateaux en duplex voire triplex avec escaliers centraux.

En conclusion, nos nouveaux futurs bureaux seront principalement faits de bois, de matériaux naturels et recyclés. Ils seront naturellement éclairés et ventilés et on y fera du sport toute la journée sans s’en rendre compte !

De quoi donner envie à nos télétravailleurs d’y retourner ?

Décret tertiaire : est-il urgent d’attendre ?

Avant le 30 septembre de cette année, le décret éco-économie d’énergie, que l’on appelait décret tertiaire, oblige les occupants ou détenteurs de locaux tertiaires de plus de 1000 m2 à renseigner la consommation de référence de leurs locaux dans un outil de l’administration, qui en appréciera l’évolution au fil du temps. S’agissant d’une première dont les règles ne sont pas encore finalisées, faut-il vraiment chercher à respecter cette échéance légale ?

Rappel de la loi

Le décret éco-économie d’énergie est une déclinaison de la loi ELAN de 2018. Il décrit l’obligation qu’ont les propriétaires et/ou locataires de locaux tertiaires de plus de 1000 m2, hors cas particuliers, d’en réduire la consommation énergétique. Soit, ils choisissent de le faire jusqu’à atteindre une valeur seuil, définie par arrêté, soit ils optent pour une diminution en pourcentages, se conformant à la règle mnémotechnique des « -40% en 2030, -50% en 2040 et -60% en 2050 ».

Dans les deux cas, s’agissant d’atteindre un objectif à partir d’une situation de départ, la première étape à franchir est de choisir quand démarrer. Pour pouvoir intégrer dans les réductions de consommations les travaux de rénovation énergétiques qui auraient déjà été engagés avant la prise d’effet de la loi, les propriétaires et/ou locataires, appelés assujettis, peuvent choisir leur point de départ entre 2010 et 2020, dès l’instant où ils peuvent justifier de 12 mois continus de consommation.

Des sanctions quasi inexistantes et pas avant… 10 ans

Le choix de cette année, dite de référence, ainsi que les conditions d’occupation et de fonctionnement des locaux à cette date, doivent être renseignés volontairement au plus tard le 30 septembre 2022.

La vérification du respect des réductions de consommation se fera tous les dix ans soit, au plus tôt, en décembre 2031 pour la première période. Quant aux sanctions pénales et/ou financières pour saisie hors délai des données demandées sur l’application OPERAT qui lui est destinée, il n’y en n’a pas… Dans ce cas, quel serait l’intérêt de chercher à respecter la date du 30 septembre 2022 ?

Rien ne sert de courir…

Plusieurs arguments vont dans ce sens. En premier lieu, ce délai pourrait être reporté d’un an, comme cela a déjà été le cas l’année dernière, l’outil OPERAT n’étant pas prêt et les valeurs de seuil par catégorie de bâtiment trop peu nombreuses. Ensuite, récupérer toutes les données patrimoniales, définir et faire accepter la répartition des tâches entre propriétaires et locataires, récupérer ses factures d’énergie, et/ou les données de consommations de 2010 à 2020, est un véritable travail de titan, surtout si l’on a changé de fournisseur d’énergie dans l’intervalle. En plus, il faut se doter de ressources, externes ou internes, pour réaliser le fastidieux travail de recensement de données éparses et incomplètes. Enfin, nul ne peut prédire de ce qu’il résultera de l’après élection présidentielle. Il est donc urgent d’attendre.

Faut-il prendre le risque ?

Mais est-ce un bon calcul ? Qui peut croire que l’objectif de réduction des consommations énergétiques des bâtiments puisse être supprimé, qui plus est quand la France présidera, jusqu’en juin 2022, le conseil de l’Union européenne dont la loi ELAN est issue ? Même si son application prend du retard et que les sanctions de non saisie ne sont que morales (principe du « name and shame ») quel est l’intérêt pour un propriétaire de montrer son peu d’entrain pour améliorer son bilan carbone et d’ainsi prendre le risque d’une forte dévalorisation de son image et de la valeur de son parc ?

Même si le législateur se montrera clément jusqu’en septembre 2023, reporter le lancement du recueil de données de consommations, c’est prendre le risque qu’elles ne soient plus disponibles. En effet, les fournisseurs d’énergie n’ont obligation de garder les factures de leurs clients que pendant 3 à 5 ans alors que les assujettis ont obligation de justifier leurs consommations. Se poser la question en 2023, c’est prendre le risque de se voir imposer comme année de référence l’année 2020. Or 2020 a été une année de faible consommation, du fait du COVID. L’OID a estimé cette baisse de consommation de 10%. C’est-à-dire que la consommation de référence du bien sera sous-évaluée d’autant. Pour un calcul en pourcentage, qui représentera environ 60% des cas d’après l’OID, les propriétaires et locataires devront faire plus d’efforts que s’ils avaient pu choisir une année de forte consommation ramenée aux conditions climatiques.

10%, cela peut paraître peu, mais c’est bon an mal an le pourcentage de gains énergétiques qu’un propriétaire peut obtenir avec très peu de dépenses, en agissant uniquement sur le comportement des usagers.

Alors qu’il aurait pu se « contenter » de réaliser des travaux pour aboutir à une baisse de 40% de ses consommations en 2030, il devra finalement engager encore plus de moyens pour atteindre les 50% de réduction. En 2040 cela passera à 60% et en 2050 à 70% !

Même si on évite de se faire imposer 2020, ne pas se donner le temps de choisir soigneusement son année de référence, par exemple en retenant intuitivement l’année de plus forte consommation, sera tout autant préjudiciable.

En effet, le choix de l’année de référence ne peut se limiter aux seules consommations d’un bâtiment mais doit se faire en connaissance de ses conditions d’usage et de la dynamique patrimoniale du parc dont il fait partie. Ce travail de recueil et d’analyse prenant du temps, il s’agira de ne pas se laisser déborder.

3d Notebook spuckt Geldscheine aus.

De combien parle-t-on ?

Les études chiffrées sont malheureusement peu nombreuses et difficiles à interpréter tant les situations sont différentes et qu’il est délicat d’identifier, dans une rénovation globale, la part uniquement dédiée à l’économie d’énergie. Mais on peut avoir en tête les ordres de grandeur suivants : le surcoût de rénovation énergétique pour atteindre une diminution de 10 à 30% va de 0 à 100 euros par m2. Pour ce faire, on agit sur les comportements, l’exploitation et quelques remplacements d’équipements peu coûteux. Pour atteindre une économie de 30 à 40%, on dépense de 100 à 200 euros par m2 en remplaçant, en plus des actions précédentes, les équipements de production de chaleur ou de froid voire en commençant à isoler. Pour atteindre 50% de réduction, le coût passe à 200 €/m2. Au-delà, tout peut se concevoir, dès l’instant où l’enveloppe, la ventilation et les systèmes de production énergétiques sont impliqués. Les prix au m2 vont alors de 300 à 750 € le m2. D’autres retours d’expérience affichent même des coûts de rénovation dépassant facilement les 1 000 euros par m2.

Tout ceci se traduit en dizaines de milliers, voire en millions d’euros, somme dont une grande partie aurait pu être facilement économisée.

Il faut partir à point

Propriétaires, locataires, il est donc plus que temps de vous mettre en ordre de marche. Et surtout, de transformer ce qui peut vous paraître une contrainte en atout. Vous avez sûrement déjà engagé des actions vous permettant de mieux connaître votre patrimoine et sa consommation, comme un bilan carbone, une normalisation de type ISO 14000 ou 50000, l’écritures de baux verts… Même si vous n’avez pas une vision exhaustive et complète de votre parc vous avez au moins de quoi commencer à alimenter OPERAT pour répondre à vos obligations. Pour la première année, le législateur a déjà prévu d’être indulgent. Profitez-en !

Une fois ces questions de recueil d’informations derrière vous, vous pourrez alors vous consacrer à ce qui compte vraiment : améliorer les performances énergétiques de vos bâtiments. La planète, vos locataires et votre portefeuille (meilleure valorisation du parc et diminution de son taux de vacance) ne s’en porteront que mieux.

Vous avez donc tout à y gagner. Mais s’il vous plait, n’attendez pas le dernier moment. Sinon, gare aux mauvaises surprises !

Pascal JEAN

MUTEK conseils

Sources :

www.operat.ademe.fr

www.legifrance.gouv.fr

www.o-immobilierdurable.fr

www.ifpeb.fr

www.ademe.fr

Coup de froid sur les réseaux de Chaleur

Début 2016, le Plan Bâtiment Durable avait émis 34 propositions dans le but d’améliorer la compétitivité perçue et économique des réseaux de Chaleur et de Froid pour en accélérer le développement. Celles-ci se classaient principalement en trois grandes catégories : 1) communiquer, séduire et convaincre les usagers potentiels, 2) apporter un soin tout particulier à la viabilité future des projets pour éviter les déconvenues et les désaffections, 3) renforcer les aides pour verdir les réseaux et augmenter leur densité comme leur nombre.

Il est indéniable de que très nombreux progrès ont été enregistrés dans les deux premiers domaines. Pour le premier sujet, on peut citer les améliorations apportées à l’enquête annuelle des réseaux de chaleur, le nombre grandissant de comités de liaison, unissant régulièrement tous les acteurs, ainsi que la mobilisation de l’ADEME, d’AMORCE, du SNCU, de la FEDENE et de la FNCCR, entre autres, pour informer, former, et même démarcher usagers, communes et territoires.
Pour le second volet, ce sont encore l’ADEME, par son travail de contrôle et de supervision des projets, le CEREMA, par la qualité de ses formations et documentations et bien sûr les entreprises de construction et d’exploitation, par la professionnalisation de leurs approches (les réseaux de chaleur sont désormais en majorité alimentés en énergie verte ou de récupération, ce qui n’était pas le cas il y a 5 ans), qui ont permis de renforcer la pertinence et la viabilité des projets réalisés.
Malheureusement, s’agissant des aides, le troisième thème, fort est de constater que la promesse faite en 2015 de doubler le budget du Fonds chaleur géré par l’ADEME pour le porter à 420 millions par ans a fait long feu. Ce budget est plutôt resté stable autour de 220 millions en 2016 et 2017. Il est prévu de le porter à 300 millions en 2018. L’intention est louable, mais l’effort sera insuffisant pour voir vraiment le nombre d’habitants raccordés augmenter significativement.
Qui plus est, les événements récents ont sensiblement refroidi les annonces encourageantes faites par le Ministère de la transition écologique quelques jours auparavant. En effet, geler les prix du gaz stoppe net la démarche consistant à survaloriser artificiellement cette énergie pour rendre compétitives les solutions à base d’énergie renouvelable. Pour compenser ce gel, Il faudrait obtenir encore plus de subventions que celles qui sont annoncées aujourd’hui…
Il existe portant une solution : il suffirait de rééquilibrer les aides consacrées au verdissement des énergies en faveur des réseaux de chaleur et de froid. Ce ne serait que justice, eut égard aux objectifs de développement ambitieux que lui assignent les Programmations Pluriannuelles de l’Energie successives depuis leur création.

Maintenance immobilière : un prédictif, sinon rien

Comment le digital va métamorphoser votre performance à moindre coût

Le transport, à l’origine de la maintenance préventive

Ce sont les industries à risques, en particulier celles du transport, qui sont à l’origine du concept de la maintenance tel que nous le connaissons aujourd’hui, c’est-à-dire consistant à éviter les pannes.

Grâce à elles, la profession est passée de l’entretien à la maintenance, ajoutant au dépannage originel les opérations de maintenance préventive.

Les machines ont ainsi gagné en fiabilité, ce qui leur a permis de se développer de la manière que l’on sait, en réduisant de façon drastique leurs coûts d’exploitation et de production.

Tous les autres pans de l’économie en ont profité, jusqu’aux bâtiments tertiaires qui, dans le sillage des premières normes de maintenance en février 1985, ont emboîté le pas de l’industrie.

Une maintenance prédictive freinée par son coût

Aujourd’hui, les acteurs du transport, pour lesquelles la sécurité des biens et des personnes est une priorité, sont en train de réaliser un nouveau saut méthodologique. Ils ont compris que, pour continuer de gagner en fiabilité et en coût, ils ne pouvaient plus se contenter de demander à leurs mainteneurs d’être plus productifs ou de réduire leurs marges.

Ils ont redécouvert les vertus d’une maintenance pourtant mentionnée par les premières normes, la maintenance prédictive ou conditionnelle. Il ne s’agit plus de prévenir la panne en intervenant sur une machine systématiquement, selon un échéancier, mais d’intervenir uniquement quand cela est nécessaire.

Pour pouvoir la réaliser, il est obligatoire que la machine, ou plutôt ses équipements, soient équipés de capteurs qui indiquent que leur état d’usure réclame une intervention.

En plus du gain en sécurité évident, les économies potentielles sont indiscutables : les interventions préventives sont réduites à leur juste nécessaire. Quant aux interventions correctives de dépannage, leur nombre fond comme neige au soleil. Ainsi que les conséquences en termes de couts, de délais, de désorganisation…

Jusqu’à aujourd’hui, l’équation économique était défavorable à la maintenance prédictive, du fait du coût des capteurs, des transmissions (câblages filaires, abonnements GSM) et du traitement de données.

Les objets connectés et le big data changent la donne

Avec l’arrivée conjointe des capteurs communiquant fonctionnant sur des bandes de fréquence gratuites (de type SIGFOX ou LORA), du Big Data (gestion de données en très grand nombre et en temps réel) et du Data Learning (capacité d’auto-amélioration des processus de diagnostic par l’augmentation des cas rencontrés), la maintenance prédictive est devenue rentable par rapport au tout systématique.

Naturellement, ce sont les industries de transport qui se sont appropriées les premières ces nouvelles technologies.

La fin des retards à la SNCF ?

Depuis 2009, la SNCF fait circuler 176 rames Bombardier équipés de 2000 capteurs pour 40 000 variables. Le nombre de données, remontées toutes les 30 minutes, est de 70 000 par an. Leur télédiagnostic a déjà permis de réduire de 90% le nombre d’interventions de maintenance inutiles, c’est-à-dire conduisant à un constat de fonctionnement normal. Par contre, ce processus reste coûteux, l’analyse sollicitant des spécialistes ferroviaires qui sont rares et donc chers.

Voulant gagner en rapidité et sécurité, la SNCF a lancé en avril 2016 un pilote en vraie grandeur consistant à traiter automatiquement les informations par des techniques de Machine Learning. Aux données provenant du matériel roulant sont désormais associés des comptes rendus d’intervention, des données météo ou encore les horaires de circulation des trains. L’expertise métier est toujours apportée par les techniciens de la SNCF tandis que l’optimisation des algorithmes est assurée par les data scientists de QUANTMETRY, le partenaire de la SNCF sur ce projet.

Sans attendre la fin de cette expérimentation de 6 mois, une première bonne nouvelle : les données remontées et leur analyse permettent non seulement de prévenir les pannes des matériels roulants, ce qui était la mission assignée, mais aussi celles des voies, ce qui diminuera considérablement le nombre de dysfonctionnements et donc de retards.

La solution d’AIR France KLM pour ne pas rester cloués au sol

Plus gros, plus rapide, plus impressionnant. C’est sur son AIRBUS A380 qu’AIR France KLM a décidé de passer en maintenance prédictive connectée depuis juillet 2015.

Les données de 24 000 capteurs, représentant 1,6 Gigaoctet de données par vol, sont récupérées par WiFi à chaque atterrissage à Roissy et envoyées à Toulouse où elles sont agrégées avec celles des deux années d’exploitation de l’ensemble de la flotte d’A380. Analysées par un système de Data Learning, elles permettent d’émettre, en moins d’une heure, des ordres d’interventions aux techniciens de maintenance tout proches.

Les pannes sont détectées 10 ou 20 jours avant qu’elles ne surviennent, évitant ainsi des coûts d’immobilisation et de perte d’image. Ce système a permis à Air France KLM de prédire la défaillance d’une pompe de circulation de carburant, un organe essentiel, avant qu’elle ne se produise.

Il permet également de ne pas devoir dépanner les avions sur des plateformes lointaines, moins bien dotées en équipes, matériel et pièces détachées et d’éviter ainsi que les passagers ne restent cloués au sol.

L’ALLIANCE à l’assaut du Big Data

Renault est un habitué des révolutions pour avoir été, du temps de la Régie, à l’origine des premières normes de maintenance en France.

Les constructeurs automobiles ont depuis longtemps doté leurs véhicules de capteurs remontant tous types de données d’usage et d’état (consommation, kilométrage, usures, pressions…). Ces données, récupérées à l’occasion de chaque visite chez le garagiste, permettent d’optimiser les gammes de maintenance préventives.

Plus récemment, les véhicules se sont ouverts au monde extérieur. Ils émettent des données, surtout à destination de leur propriétaire, les informant sur le niveau du réservoir, l’état des pneus ou la présence de portes ou fenêtres ouvertes.

Maintenant que les véhicules se doivent d’être autonomes, les constructeurs automobiles n’ont pas d’autre choix que de barder leurs véhicules de capteurs de tous types et d’être en mesure d’émettre et recevoir de l’information à moindre coût. Une aubaine pour les responsables de maintenance qui attendaient ce moment avec impatience : une voiture connectée, ce sont des milliers de données d’usage et d’usure qui seront disponibles en temps réel.

Passés à la moulinette de systèmes experts, un écart de trajectoire, une distance de freinage, une élévation de température ou une baisse de pression seront autant d’informations qui, remontées, analysées et retransmises rapidement au conducteur permettront de prévenir pannes et accidents, envoyant du même coût au Musée des antiquités une maintenance préventive systématique qui fait pourtant toujours autorité aujourd’hui.

Ce chemin est celui que vient de prendre l’ALLIANCE, l’association de RENAULT et de NISSAN qui, après avoir acquis la semaine dernière SYLPHEO, une société développent des logiciels pour le Cloud, vient de nouer un partenariat stratégique avec MICROSOFT sur la voiture connectée.

La maintenance prédictive arrive en deuxième position des objectifs de cet accord, derrière la navigation, cela s’entend, mais devant « le contrôle à distance des fonctions du véhicule, la mobilité externe et les mises à jour en temps réel ».

Une opportunité à ne pas manquer

Au siècle passé, l’industrie immobilière a mis plus de dix ans pour adopter le passage du dépannage à la maintenance systématique qui avait été initié par les industries du transport.

Dix ans, dans le siècle que nous vivons, c’est une éternité.

C’est déjà dix fois le temps qu’il faudra à une start-up motivée, associée à un expert en maintenance, pour mettre sur le marché une offre réduisant les coûts de maintenance tertiaire de 20 à 40%.

La course a déjà commencé.

Ceux qui n’y participeront pas seront sûrs de la perdre.

 

Facilities Managers: comment votre chiffrage vous fera désormais gagner des affaires

Pour chiffrer une offre de FM, les entreprises ont l’habitude de solliciter chacune de leurs entités réalisant une partie de la prestation pour qu’elles déterminent leur prix de vente interne, somme de leur prix de revient (ce que leur coûte la prestation, réalisée en propre ou sous-traitée), de leurs frais, des aléas et de leur marge.

Puis ces prix sont additionnés en y ajoutant cette fois-ci les frais généraux et la marge de l’affaire.

La plupart du temps, le prix de vente ainsi obtenu est tellement élevé que les chances de remporter la consultation sont très faibles. Tout simplement parce que 1) ce prix est élaboré à partir des souhaits et capacités de l’entreprise et non à partir des ceux des clients 2) l’époque où le prix d’une prestation de FM était fixée par les entreprises est révolue depuis longtemps.

C’est pourquoi, dans un temps de réponse toujours très court, chaque entité est sollicitée pour baisser son prix de vente interne. Une fois l’offre remise, c’est l’acheteur du client qui fait son travail et demande de revoir le prix. Chacun reprend sa copie. Comme la décomposition du prix de vente souhaitée par le client est très différente de la décomposition du prix de revient de l’entreprise, assez rapidement, les entités comme l’entreprise ne savent plus sur quoi portent vraiment les baisses qu’elles ont consenties par rapport à leur prix de revient idéal.

Si l’affaire est obtenue, on ouvre le champagne. Mais l’euphorie est de courte durée car l’affaire est à nouveau chiffrée (pas toujours !) et l’on constate amèrement que, pour préserver les marges avec un prix de vente fortement réduit par rapport aux espérances, la prestation que l’on pourra offrir devra malheureusement être dégradée. Au grand dam du client-utilisateur du service.

Il existe pourtant une autre manière de procéder qui, tout en permettant de chiffrer une affaire au prix du marché, préserve aussi bien sa qualité de réalisation que ses marges.

Le principe consiste à ne plus considérer le chiffrage de l’affaire comme une somme d’éléments mais comme un tout cohérent, constitué de composants liés par des relations. L’ensemble est traduit mathématiquement à l’aide d’équations, de règles logiques et de modèles statistiques.

Toute la complexité du chiffrage se résume alors à l’établissement des relations entre les composants, ce qui ne pose pas de problème pour les experts et hommes méthodes du FM.

Cette méthode présente de nombreux avantages :

1) La gymnastique fastidieuse et souvent approximative de transposition des coûts de l’entreprise dans les grilles de chiffrage du client n’existe plus, ces dernières étant, par convention, le format du fichier de sortie de l’algorithme de chiffrage.

2) On peut réaliser autant de chiffrages que l’on veut, en faisant varier les paramètres d’entrée à sa guise. Cette possibilité permet de réaliser tous types de simulations et en particulier de connaître a priori, sans limite de temps ni de ressources, la sensibilité du résultat de l’affaire, de son ROI ou de son cash-flow par rapport à n’importe lequel des paramètres d’entrée.

chiffrage

3) Négocier un prix devient une formalité dès l’instant où l’on sait exactement quelles seront les conséquences de cette négociation. L’acheteur du client qui, rappelons-le, ne cherche pas à acheter de la non qualité mais à être convaincu d’obtenir le meilleur prix pour la qualité souhaitée, préférera toujours une entreprise qui sait justifier son prix à une entreprise qui ne pourrait que se brader.

4) Les ressources de chiffrage et donc son coût sont fortement réduits. En effet, quand l’une des données d’entrée est modifiée, à la demande du client ou pour réaliser une simulation, tout le chiffrage est automatiquement modifié jusqu’à obtenir le nouveau résultat. Et tout ceci à la vitesse de l’électron, sans que les équipes de chiffrage ne doivent être à nouveau mobilisées.

5) Le travail d’élaboration et de modélisation des relations entre les composantes du prix est réutilisable, en tout ou partie, pour tous les chiffrages à venir, tout du moins, tant que les process de l’entreprise restent les mêmes.

6) Le prix de vente se trouve naturellement allégé des coûts d’aléas, de provision et autres risques, autant d’éléments autrefois inconnus dont on cherchait à se couvrir et qui sont désormais maîtrisés.

7) L’outil ne sert pas qu’en phase de chiffrage de l’affaire car il porte en lui tous les éléments qui la constituent. Mis en réseau, il offre à chaque entité de production de l’entreprise la possibilité d’affiner la gestion de ses prestations, en comparant le prévu au réalisé. En particulier, pour les contrats de partenariat ou de délégation de service, l’outil de chiffrage et le support de gestion réclamé par les clients ont tout intérêt à ne faire qu’un.

8) Les séances de validation d’affaire et autres « GO-NO GO » avec la Direction Générale n’en sont que simplifiées, toutes les hypothèses envisagées et leur choix valorisé.

9) Enfin, réfléchir aux relations entre les éléments constitutifs du prix de vente d’une affaire, avant et pendant la consultation, puis pendant la réalisation, est la meilleure façon de trouver des moyens d’optimiser les prestations et organisations et de gagner en productivité. C’est toute l’entreprise qui se place ainsi dans un mouvement d’amélioration continue lui permettant de gagner de plus en plus de marchés tout en satisfaisant ses clients.

Pourquoi attendre pour être de celles-ci ?

Nouvelle dynamique de rénovation des logements

Contribution à la réflexion du Plan Bâtiment Durable

1. Quels sont les éléments déclencheurs et les freins à la réalisation par les propriétaires et les locataires de travaux de rénovation ?

1.1. Eléments déclencheurs

Les éléments déclencheurs pour entreprendre des travaux de rénovation sont l’obligation et l’envie.

L’obligation peut résulter d’une nouvelle contrainte réglementaire (Réglementation Thermique, obligation de travaux…), d’une dégradation physique du bien, de son obsolescence (réglementaire ou technologique) ou encore d’une inadaptation du bien à son usage (nouveaux usages, recomposition familiale, vieillissement, handicap, dépendance…)

L’envie de faire des travaux de rénovation répond à deux stimuli qui différent par l’intention mais qui conduisent au même résultat: le désir de valoriser son bien et celui de l’améliorer. On trouve dans cette catégorie les opérations d’amélioration du confort, de l’esthétisme, de l’image et de la performance énergétique du bien.

Le propriétaire occupant comme le propriétaire bailleur sont intéressés par l’ensemble des sujets, le propriétaire bailleur étant particulièrement intéressé par la capacité de son bien à être loué et à être vendu. Les actions de rénovation qu’il entreprendra dépendront exclusivement de ce critère. A ce titre l’amélioration de la performance énergétique ne sera un élément déclencheur de la rénovation qu’en zone détendue.

Le locataire, quant à lui, ne pourra obtenir des travaux de rénovation de son propriétaire que dans le cas de non-respect à une obligation règlementaire et de dégradation physique du bien qu’il loue.

1.2 Freins

Les freins à la rénovation des logements sont liés à la capacité de financement des travaux et à l’absence d’envie de les réaliser.

Le financement est le problème majeur. Même si, aujourd’hui, l’argent est abondant et peu cher, il n’en n’est pas moins qu’un prêt à taux faible n’a d’intérêt que pour ceux qui ont déjà quelques moyens. Pour les autres, un prêt, à taux faible ou même nul, demandera toujours à être remboursé ce qui posera un problème quand l’argent manque déjà. Quant aux crédits d’impôts, ils ne concernent que les foyers ayant suffisamment de revenus pour être imposables.

Le deuxième frein, essentiel, est l’absence d’envie. S’agissant en particulier de faire des économies d’énergies, l’avantage espéré (baisse de la facture de l’énergie) paraît bien faible en regard des inconvénients réels ou supposés: absence de preuve de l’atteinte du résultat, défaut temporaire de pleine jouissance du bien (pendant les travaux), risques de dégradations collatérales (détériorations, salissures), baisse de confort (diminution de l’éclairage et de la ventilation naturels, fermeture de balcons et de loggias…) et de valeur (diminution de la surface dans le cas de l’isolation par l’intérieur).

Enfin, pour mener des travaux, si on a l’argent et l’envie, encore faut-il avoir le temps et la compétence pour le faire.

Autant dire qu’aujourd’hui, en l’absence d’obligation réglementaire, les freins sont malheureusement plus nombreux que les éléments déclencheurs, ce qui explique sans doute pourquoi la rénovation des logements et en particulier la rénovation énergétique n’a toujours pas vraiment décollé.

2. Quels sont les différents angles d’approche pour encourager le passage à l’acte de la rénovation de l’habitat ? Lorsque l’on parle de confort, quelles sont les différentes définitions à prendre en compte ? Quelle temporalité ? (Vieillissement de la population)

2.1 Angles d’approche

Les angles d’approche pour encourager le passage à l’acte de la rénovation de l’habitat dépendent des éléments déclencheurs de la rénovation.

Dans le cas d’une rénovation résultant d’une obligation (c’est-à-dire d’une mise en conformité), les travaux seront d’autant plus faciles à réaliser que seront réunis simultanément le financement et la garantie de résultat.

En l’absence d’obligation, c’est l’envie qui prévaut. Jusqu’à présent, les deux déclencheurs imaginés pour la susciter ont été la peur (la planète se réchauffe) et le gain économique (réduction de la facture énergétique).

Aujourd’hui, la situation a bien changé : le dérèglement climatique est une réalité avérée mais trop éloignée des préoccupations quotidiennes. Quant à l’énergie, son prix est à un niveau particulièrement bas.

D’autre part, la rénovation énergétique a été plus pensée comme un objectif de politique énergétique que comme une réalité économique. Or, sans marché, les professionnels du bâtiment, à quelques exceptions près, n’ont pas cherché à investir dans le domaine de la rénovation énergétique. Dans le même temps, faute d’offre attractive, les consommateurs n’ont pas eu de quoi alimenter un marché.

C’est donc tout le processus de vente de la rénovation énergétique qu’il faut reprendre, ou plutôt, initier.

Cela commence par considérer la rénovation comme un service marchand, et non comme un objectif politique.

En premier lieu, il conviendra de définir son positionnement, qui n’est pas le même s’il s’agit de rénovation, d’entretien ou d’amélioration. Utiliser le terme de « rénovation » pour ces différents cas de figure risque d’apporter de la confusion à des sujets déjà complexes par nature.

Puis, il faudra réaliser une véritable étude de marché de ce service. Cela permettra de connaître les envies ou attentes des consommateurs et le prix qu’ils seraient prêts à dépenser pour satisfaire leur besoin.

A partir de là, les entreprises et les pouvoirs publics pourraient bâtir une stratégie de vente. Les premiers en construisant le modèle d’affaire du service et en concevant les moyens de lui garantir qualité et meilleur prix. Les seconds en calculant la part d’aide qui devrait être apportée à ce service pour le rendre attractif en fonction des cibles visées.

2.2 Confort

Le confort est clairement un argument à mettre en avant. Par contre, il faudra savoir aller au-delà du seul mot et de définir les indicateurs permettant de mesurer l’amélioration de ce confort (température, humidité, qualité de l’air, bruit…)

2.3 Vieillissement

Le vieillissement de la population et plus largement le handicap et la dépendance sont clairement des obligations non choisies. L’argument peut s’entendre mais la charge négative qu’il porte n’aidera pas à elle seule à dynamiser le marché de la rénovation. Par contre, aider conjointement l’adaptation de ces habitats (monte-personnes, seuils abaissés, alarmes, barres de soutien…) à l’amélioration de leurs performances énergétiques serait un excellent déclencheur.

3. Comment coupler rénovation énergétique et confort ?

Les deux sujets sont liés : l’amélioration de la performance énergétique d’un logement participe au confort de ses occupants.

Coupler l’offre d’amélioration de confort et d’amélioration énergétique permettra de dynamiser l’ensemble. Il faut, pour cela, que tant l’offre que les aides soient également couplées.

4. Quels sont les leviers économiques pour créer une dynamique de rénovation plus forte ? Quels sont les enjeux pour la collectivité, les habitants et les filières professionnelles ?

L’Habitat est-il un bien de consommation ?

4.1 Leviers économiques

Dans une situation économique difficile, les travaux de rénovation et encore plus d’amélioration ne peuvent être portés sans aide par la plupart des ménages. D’autant que l’argument du remboursement des travaux de rénovation/amélioration énergétique par les économies d’énergie générées dans la durée est difficile à retenir, qui plus est depuis la très forte baisse du prix des énergies.

Partant du principe que les aides publiques ne devraient être attribuées qu’aux ménages en ayant le plus besoin, il faudrait les concentrer sur ceux 1) en situation de précarité ou de très faible ressource 2) habitant des logements énergivores.

Les programmes tels que le programme Habiter mieux de l’ANAH vont dans ce sens et les résultats qu’il obtient sont remarquables. L’augmentation récente des fonds qui lui sont alloués lui permettra de passer de 50 000 à 70 000 rénovations lourdes par an, et c’est tant mieux. Mais, ramenés aux 4,3 millions de ménages précaires, on voit l’ampleur de l’effort supplémentaire qu’il faudrait consentir.

Pour que le marché de la rénovation décolle, il faudrait, a minima, qu’existe une offre de qualité, c’est-à-dire garantissant les niveaux de performance énergétique pour un prix compétitif.

La seule façon de la faire émerger, en l’absence de marché naturel, est de générer, temporairement, un marché subventionné.

Les pouvoirs publics devraient concentrer leurs aides et subventions, hors précarité, au co-financement d’un nombre conséquent de travaux de rénovation portant sur des opérations reproductibles. Les bailleurs sociaux semblent tout indiqués pour identifier et proposer à la rénovation/amélioration des ensembles de logements de même nature, qu’ils soient individuels ou collectifs. A travers des consultations portant sur des lots cohérents de logements à rénover, les entreprises, ayant  la vision concrète  d’un marché, seront alors intéressées à concourir pour proposer des solutions de qualité et économiquement rentables.

Cet effet d’amorce permettra de construire l’offre qui fait défaut aujourd’hui. Couplée à l’étude des attentes des consommateurs, elle pourra enfin permettre le décollage du marché de la rénovation/amélioration énergétique.

4.2. Enjeux

Pour la collectivité et les habitants concernés, les enjeux sont d’abord sociaux, puis environnementaux. En plus des aspects de santé et de confort, disposer d’un logement décent, la première des aspirations de chacun, renforce la confiance que l’on peut avoir dans la collectivité.

La dernière étude OPEN (données de 2013) sur les travaux de rénovation du parc privé, annonce un chiffre d’affaire de l’entretien-amélioration du logement de 40 milliards. 2,6 millions de logements ont conduit des travaux d’amélioration énergétique pour un montant de 12,8 milliards d’euros. 265 000 logements ont été rénovés « 3 étoiles » c’est à dire en visant un gain de performance comparable à celui des 500 000 logements à rénover par an, à compter de 2017, dont 380 000 dans le secteur privé.

En considérant comme acquis les 70 000 rénovations énergétiques du secteur social du programme Habiter mieux, ce sont 150 000 rénovations lourdes supplémentaires par an qu’il conviendra de mener pour atteindre l’objectif des « 500 000 ». A 30 000 euros la rénovation par logement, ces travaux permettraient de générer 4,5 milliards d’euros de chiffre d’affaire et de créer 40 000 emplois.

Les grands groupes étant peu enclins à s’adresser aux particuliers, ce nouveau marché sera principalement servi par des petites et moyennes entreprises et des artisans.

Ces derniers ont toutes les capacités pour répondre aux exigences de l’amélioration énergétique des bâtiments. Par contre, de par leur taille, ils sont plutôt spécialisés dans un voire deux domaines d’intervention, alors que l’amélioration énergétique et qui plus est l’amélioration du confort des logements réclament un traitement global. Au-delà des solutions de groupement, il sera essentiel que leurs travaux puissent être pilotés et coordonnées par des professionnels ayant la vision globale des enjeux et la connaissance des techniques mises en œuvre. Il s’agit de véritables assistants aux maîtres d’ouvrage, ces derniers étant en l’espèce les consommateurs et les ménages. Ce nouveau métier, entre maître d’œuvre, architecte et conseiller des Points Rénovation Info Service sera à créer, avec une compétence reconnue par un diplôme ou une formation certifiante, toujours dans le souci de donner confiance aux ménages.

4.3. Habitat, bien de consommation ?

Ce n’est pas l’habitat mais la rénovation de l’habitat qui est un bien de consommation et doit donc être traité comme tel.

Considérer la rénovation de l’habitat comme un produit de consommation, et non plus comme un objectif de politique énergétique, changerait complètement la posture aussi bien des offreurs que des demandeurs.

Cela inviterait les premiers à chercher à rendre leurs produits « vendables », c’est-à-dire porteur d’une valeur ajoutée perceptible par les clients potentiels.

Cela permettrait aux seconds d’être consultés sur leurs véritables attentes, sur leurs besoins et sur leurs priorités.

En résumer, les professionnels du bâtiment comme les pouvoirs publics pourraient avoir avantage à considérer la rénovation de l’habit comme un produit, un produit de consommation comme un autre, que l’on cherche à vendre dans un environnement concurrentiel.

5. Quels sont les nouveaux outils et les nouvelles dispositions à mettre en œuvre pour inciter les particuliers à rénover leur logement ?

S’agissant de ménages modestes ou en état de précarité, les travaux ne pourront se concevoir sans une aide massive des pouvoirs publics, en réalisation (conseil, suivi, garantie) comme en financement. Les subventions aux travaux telles qu’elles existent à l’ANAH répondent à ces besoins. Mais elles n’ont de moyens que pour aider 50 000 logements par an aujourd’hui et 70 000 demain. Il ne s’agit, ici, pas de récréer un outil qui marche mais bien d’en augmenter franchement les ressources financières.

A partir du moment où les professionnels du bâtiment seront en mesure de proposer une offre attractive, les particuliers sans problème de ressources, pourront réaliser des travaux.

Mais l’envie seule risque de ne pas être suffisante. Il faudra alors recourir à une obligation réglementaire. Celle-ci donnera un signal, tant aux acteurs du bâtiment qu’aux propriétaires. Cette obligation devra être progressive, modulée et inscrite dans une période de temps suffisamment longue pour permettre aux offres de qualité de se constituer. Elle devra être cohérente, ce qui suppose d’harmoniser les obligations des réglementations thermiques pour des bâtiments existants avec celles relatives aux bâtiments neufs. Enfin, elle devra être directement lisible par les occupants des logements à qui elle est destinée. En particulier, elle devra employer un vocabulaire compréhensible: les engagements de performance devront s’exprimer dans la même unité que celle qui sert à facturer l’énergie consommée.

Pour plus de détail sur le principe de cette obligation et ses avantages attendus, voir la contribution faite au Plan Bâtiment Grenelle en 2013 sur l’obligation de rénovation dans le logement : http://mutek-conseils.com/wp-content/uploads/2015/09/Pascal-JEAN-fiche-de-contribution-%C3%A9crite-explorer-lobligation-de-renovation-dans-le-secteur-residentiel.pdf

 

6. Quelles sont les spécificités de l’habitat individuel et celles de l’habitat collectif quant à la prise de décision de travaux ? Quels sont les contraintes et les leviers d’action ?

Contrairement à l’habitat individuel, ou au logement social, pour lequel les décisions sont prises par le seul propriétaire, l’habitat collectif demande l’accord de l’ensemble des copropriétaires dès l’instant où les travaux concernent les parties communes, ce qui est en général le cas s’agissant de rénovation.

La principale contrainte dans le logement collectif privé est le temps, les décisions devant se prendre en assemblée générale de copropriété, une fois par an. Un an pour décider si l’on fait un audit. Puis un an pour choisir l’auditeur. Puis un an pour analyser le résultat de l’audit et identifier les travaux. Et encore un an pour choisir l’entreprise qui réalisera les travaux. 5 ans, dans le pire des cas, s’écoulent entre le début de la démarche et le début des travaux. Le législateur a déjà facilité le mode de vote des travaux de rénovation énergétique. Il faut aller plus loin et imposer que les décisions se prennent au maximum en deux ans, via deux assemblées générales successives. La première permettra de choisir l’auditeur et le cahier des charges. La seconde, après présentation de ses conclusions par le comité des travaux, permettra de choisir l’entreprise de travaux, le cahier des charges et lancer les travaux.

 

Pascal JEAN – 22 avril 2016

Publication du rapport : «Des voies de progrès pour le développement des réseaux de chaleur et de froid»

Les réseaux de chaleur et de froid s’inscrivent pleinement dans la dynamique de diminution de l’utilisation des énergies fossiles pour chauffer et refroidir les bâtiments, en les substituant par des énergies renouvelables.

Source: CEREMA Source: CEREMA

Outre leurs indéniables avantages environnementaux, les réseaux de chaleur et de froid apportent confort, sécurité, continuité du service et génèrent de l’emploi local. Dans leurs objectifs, ils contribuent, à hauteur d’un quart, à l’effort national de production de chaleur et de froid renouvelables à l’horizon 2020 et doivent multiplier par cinq, d’ici 2030, les énergies renouvelables et de récupération qu’ils délivrent.

En 2010, au sein du chantier « Logements sociaux publics », le Plan Bâtiment Durable s’était saisi de la question des réseaux de chaleur et avait émis un certain nombre de propositions. Ce rapport fait aujourd’hui écho à ces premiers travaux et permet de mener à terme les travaux engagés, dans le but de favoriser le développement des réseaux de chaleur et de froid, aussi bien sur des aspects économiques, techniques, qu’organisationnels.

Une première version du rapport, basée sur des échanges menés avec des représentants des usagers, des collectivités et des exploitants, a été soumise à un appel à contributions large en fin d’année dernière.

Enrichi des propositions de 18 nouveaux contributeurs, le rapport «Des voies de progrès pour le développement des réseaux de chaleur et de froid» contient 34 propositions qui peuvent être classées autour de trois catégories :
– les actions à mener ;
– les modes de financement à installer ;
– les évolutions réglementaires à mettre en œuvre.

Le rapport est disponible sur le site du Plan Bâtiment Durable : www.planbatimentdurable.fr
Contact
Marie GRACIA
01 40 81 92 09
marie.gracia@developpement-durable.gouv.fr
www.planbatimentdurable.fr
Twitter @PlanBatiment

 

COP 21: le véritable enjeu, c’est la mesure

La COP 21 s’ouvre demain.

Depuis quelques mois, de nombreux acteurs et dirigeants politiques, plutôt français et allemands, espèrent qu’un accord contraignant puisse être signé, comme les membres de la COP 17 à DURBAN s’y étaient engagés.

Récemment des industriels et chefs d’entreprise, reprenant une proposition communément admise dans son principe, sans que l’on n’ait idée de sa mise en œuvre au niveau mondial, demandent en cœur que soit fixé un prix au CO2. Des ONG chagrines doutent des raisons qui les motivent et des moyens proposés pour y parvenir : mais est-il temps de finasser ?

Encore plus récemment, certains aimeraient que soit créé un organisme, comparable à l’Organisation Mondiale du Commerce, qui définirait les règles de bonne conduite environnementale et, le cas échéant, sanctionnerait les contrevenants via un tribunal international ad-hoc à définir[1].

Evidemment, toutes ces souhaits, s’ils étaient ou pouvaient être exaucés, iraient dans le sens d’une réduction des émissions mondiales de gaz à effet de serre.

Mais, en pratique, ces propositions ne serviraient à rien car leurs mises en application éventuelles ne pourrait être vérifiées, en tous cas, pas avec les moyens dont nous disposons à ce jour.

Il existe bien sûr de nombreuses institutions comme le Global Carbon Project (ONG) ou l’Agence Internationale de l’Energie (OCDE) qui, chaque année, nous donnent, à la décimale près, la quantité de gaz à effet de serre, ramenée en équivalent carbone, produite dans le monde, pays par pays. On pourrait donc penser que savoir mesurer finement les émissions du CO2 n’est pas un sujet.

Dans son dernier rapport, publié en mars 2015, l’AIE n’annonçait elle pas que le niveau mondial des émissions de CO2 se stabilisait autour de 32,3 milliards de tonnes[2], en particulier grâce à la Chine qui aurait réussi à diminuer sa consommation de charbon de 2%, les chiffres lui ayant été fourni par le Bureau National des Statistiques… chinois ?

Patatras.

Le 5 novembre 2015, ce même institut de statistique annonçait s’être trompé de 17% dans ses estimations de consommation de charbon. La très légère baisse annoncée cachait en fait une forte hausse, sans que l’on n’en connaisse la véritable valeur, l’AIE n’ayant publié aucun nouveau chiffre

A la lumière de cet exemple, comment pourrait-on baser une quelconque politique de diminution des gaz à effet de serre, pays par pays, tant qu’aucun système de calcul, homogène, vérifiable et indépendant, n’ai pu être défini au niveau mondial ?

C’est bien là le véritable enjeu de la COP 21, celui sur lequel un accord doit être trouvé, toutes les autres propositions en découlant.

[1] La Fondation Nicolat Hulot milite pour la création simultanée de l’Organisation Mondiale de l’Environnement et la Cour mondiale de l’environnement – Les Echos – 27 novembre 2015

[2] La Tribune – 16 mars 2015

100519china2010
http://www.urbeingrecorded.com/news/2010/02/03/the-realities-of-coal-in-the-second-industrial-revolution

L’internet des objets révolutionne la maintenance

Alors que l’internet des objets vient de changer d’échelle avec la mise au point de systèmes basés sur les réseaux bas débit, la question se pose de savoir comment la maintenance pourrait profiter de cette spectaculaire avancée.

Le concept

L’internet des objets (IdO) est un système de systèmes qui donne la possibilité à des objets physiques d’échanger avec le monde virtuel.

Considérant le nombre possible d’objets connectables[1], ce nouvel usage d’internet est présenté comme une révolution, appelée Web 3.0, faisant suite à la révolution Web 2.0, celle du développement massif des réseaux sociaux.

Historique

La notion d’objets connectés n’est pas récente. Dans les années 70, la grande distribution avait adopté le code barre pour identifier ses produits. Puis les logisticiens ont utilisé la technologie RFID (Radio Frequence Identification) pour gérer les stocks et suivre les marchandises. Plus récemment, les QR code et autres étiquettes graphiques 2D permettent de rendre communiquant une image ou une affiche.

Depuis une dizaine d’années, les objets connectés évoluent selon trois directions :

  1. De passifs, contenant une information qu’un autre système doit recueillir, ils deviennent actifs, c’est-à-dire capables de déclencher une action.
  2. Leur zone d’influence sort des frontières locales (supermarché, entrepôt, entreprise, voiture, bâtiment) pour couvrir jusqu’à la totalité de la planète web.
  3. Leur communication évolue de monodirectionnelle (émission d’information), vers bidirectionnelle (émission et réception avec un autre système) et jusqu’à multidirectionnelle (communication entre plusieurs systèmes et d’autres objets connectés).

On passe ainsi de la notion d’objets connectés à celle, plus large d’internet des objets.

Les préoccupations environnementales ou de bien-être ont permis le développement de ces systèmes que l’on rencontre aujourd’hui pour piloter à distance le chauffage ou l’éclairage de son habitat ou bien gérer sa forme physique. D’où le rachat récent de NEST par GOOGLE[2] ou l’explosion du marché des montres connectées.

Principe

L’internet des objets est rendu possible par la mise en place d’une suite de systèmes reliés entre eux.

Identification : l’objet doit être reconnu. Le système doit lui attribuer un code d’identification unique (code ou position GPS).

Génération : l’objet doit avoir une donnée à émettre. Cette donnée est générée le plus souvent par un capteur digital.

Modem : l’information doit être codée dans un langage compris par un réseau de données, puis pouvoir être échangée grâce à un module de transmission.

Concentration : l’information doit être intégrée dans un concentrateur dans le cas où elle ne peut être directement envoyée au serveur internet.

Transmission : l’information doit être transmise soit directement à un serveur (via GPS par exemple), soit passer d’abord par un concentrateur (via RFID, WiFi ou Bluetooth) qui lui-même la ré-envoie en longue portée (via GSM) vers le réseau.

Cet ensemble de systèmes ne peut fonctionner que dans un environnement particulier :

– qui doit disposer d’une source électrique pour alimenter chacun de ses composants,
– qui doit être couvert par un réseau longue portée, GSM ou GPS, voire les deux pour transmettre les informations vers un serveur ou d’autres objets.

Le principal frein au développement de l’Internet des Objets est son coût, qui somme ceux des équipements, de leur installation, de leur alimentation, ainsi que ceux de l’accès et de l’utilisation d’un ou de plusieurs réseaux de données.

Dernières avancées

Depuis quelques mois, des avancées notables ont permis de s’affranchir d’une partie de cette contrainte économique.

En effet, quelques sociétés, SIGFOX, ACTILITY et Qowisio, ont mis au point et développé un protocole de transmission de données sans fil à bas coût, reposant sur un réseau à longue portée et bas débit utilisant des fréquences gratuites (celles qui sont utilisées pour télécommander l’ouverture des portes de garages par exemple).

Les signaux émis sur ces réseaux, à basse fréquence (868 Mhz en Europe) sont 1000 fois moins énergivores que des signaux GSM. L’association d’un réseau libre de droit et de signaux à faible consommation permettent ainsi à l’internet des objets de s’affranchir des contraintes énergétiques propres aux réseaux actuels (WiFi, Bluetooth, GSM) et de proposer des prix très compétitifs[3] (plus besoin de concentrateurs ni d’abonnements à des réseaux mobiles).

La suppression de la contrainte géographique, qui imposait à l’objet connecté d’être relié à une alimentation électrique et sous couverture d’un réseau GSM, permet d’envisager un développement considérable de cette solution à des domaines comme le suivi des récoltes et du bétail, la gestion d’équipements routiers, la surveillance de réseaux énergétiques ou la prévoyance de catastrophes naturelles.

C’est pourquoi, tant les opérateurs téléphoniques[4][5] que les fabricants de composants électroniques[6] se sont pressés pour rentrer au capital des sociétés pionnières, dès l’instant où la faisabilité de leur modèle avait été prouvée[7].

Quels impacts pour la maintenance ?

De son côté, la société de services énergétique COFELY Services (ENGIE) a été la première à adopter ce sytème pour ses activités d’exploitation et de maintenance tertiaire, en nouant le 28 mai dernier un partenariat stratégique avec SIGFOX. Les raisons de ce choix concernent tous les types de maintenance :

« Intégrée aux solutions développées par Cofely Services, la technologie sans fil et longue portée, base du réseau bas débit SIGFOX, offre de nouvelles perspectives d’exploitation des données et démocratise les stratégies de performance énergétique du bâtiment :

  • simplicité d’installation : pas d’infrastructure à déployer par l’utilisateur
  • commodité d’utilisation : un accès aux datas sur tous les supports informatiques (ordinateurs, tablettes, smartphones…)
  • coûts plus compétitifs : des coûts d’abonnements inférieurs aux technologies GSM
  • interopérabilité : une technologie qui permet de connecter des objets de marques différentes [8]»

La réduction des coûts et la simplification d’utilisation mises en avant par COFELY sont effectivement des avantages indéniables pour la maintenance des installations déjà instrumentées.

Mais on peut encore aller plus loin : la multiplication des capteurs et leur capacité à transmettre des informations comme à en recevoir, va révolutionner la maintenance en lui permettant, à faible coût, de devenir conditionnelle.

La maintenance conditionnelle, ou prédictive, est en effet celle qui permet le meilleur résultat avec le minimum de moyen. Elle consiste à ne réaliser une opération de maintenance que suite à une demande générée par un indicateur ou un capteur.

Du fait du coût des systèmes de diagnostic et d’alerte, la maintenance conditionnelle est peu utilisée. On lui préfère la maintenance préventive, qui consiste à inspecter et maintenir les équipements selon un échéancier prédéfini, sans savoir réellement si cette maintenance arrive au bon moment ou même si elle est nécessaire. La survenance d’une panne est le signe que la maintenance préventive a échoué. On réalise alors une opération de maintenance corrective pour remettre le bien en état de fonctionnement.

Pouvoir réaliser de la maintenance conditionnelle est un vieux rêve des spécialistes de la maintenance. Cela permettrait de s’affranchir de la totalité de la maintenance préventive et de la quasi-totalité de la maintenance corrective. Mais pour rendre possible une telle maintenance, il fallait jusqu’alors équiper les installations de capteurs qui devaient remonter leurs informations via un système de Gestion Technique Centralisée. Cette solution complexe, coûteuse et gérée par des constructeurs, était réservée à des équipements et installations sensibles, leur diagnostic, en temps réel, ayant plus pour but de prévenir ponctuellement une panne afin d’éviter les arrêts d’exploitation que de mettre en place une véritable stratégie globale de maintenance conditionnelle.

Avec la démocratisation des capteurs et actionneurs connectés, cette dernière devient possible à grande échelle.

C’est cet aspect qui a enthousiasmé le Président de la SNCF, Guillaume PEPY : « Aujourd’hui des salariés de la SNCF effectuent régulièrement, à bord de leurs camionnettes, la tournée des réchauffeurs d’aiguillage pour vérifier qu’ils fonctionnent bien. Plus tard, ils connaîtront l’état de ces installations sans même se déplacer »[9].

En conclusion, la révolution Web 3.0 va permettre à la maintenance de réaliser également sa révolution, celle qui conduit à une maintenance 100% conditionnelle donc 100% efficace et 100% optimale.

Restent aux fabricants de systèmes à harmoniser leurs protocoles de communication, ce qui est en cours, aux conseils et ingénieries de maintenance à développer les bons algorithmes prédictifs, ce qui ne saurait tarder, et surtout que les professionnels de la maintenance, donneurs d’ordre comme prestataires, arrivent à changer des habitudes fortement ancrées.

La promesse d’une maintenance plus efficace et moins coûteuse devrait les y aider.

[1] 80 milliards en 2020 pour 15 milliards aujourd’hui selon l’étude Idate

[2] Le 13 janvier 2014, Google a officialisé le rachat de la start-up NEST, spécialisée dans les thermostats intelligents

[3] Pour SIFGFOX, l’abonnement au réseau est de 1 € par objet connecté et par an – « Sigfox lève 100 millions d’euros et accélère à l’international » – Les Echos – 12 février 2015

[4]Telefonica (Espagne), NTT Docomo (Japon) et SK Telecom (Corrée du Sud) pour SIGFOX – « Sigfox lève 100 millions d’euros auprès de GDF, Air Liquide, Telefonica » – La tribune – 11 février 2015

[5] Orange, KPN (Pays-Bas), Swisscom (Suisse) pour ACTILITY – « Objets connectés : Orange et Foxconn financent une start-up française » – Les Echos – 16 juin 2015

[6] SAMSUNG (Corée du Sud) pour SIGFOX et FOXCONN (Taïwan) pour ACTILITY

[7] Le système de SIGFOX permet de suivre les bicyclettes volées dans la baie de San Francisco.

[8] Communiqué de presse commun de COFELY et de SIGFOX du 28 mai 2015

[9]« La SNCF lorgne l’Internet des Objets » – Les Echos – 11 février 2015