Archives de catégorie : Services

Décret tertiaire : est-il urgent d’attendre ?

Avant le 30 septembre de cette année, le décret éco-économie d’énergie, que l’on appelait décret tertiaire, oblige les occupants ou détenteurs de locaux tertiaires de plus de 1000 m2 à renseigner la consommation de référence de leurs locaux dans un outil de l’administration, qui en appréciera l’évolution au fil du temps. S’agissant d’une première dont les règles ne sont pas encore finalisées, faut-il vraiment chercher à respecter cette échéance légale ?

Rappel de la loi

Le décret éco-économie d’énergie est une déclinaison de la loi ELAN de 2018. Il décrit l’obligation qu’ont les propriétaires et/ou locataires de locaux tertiaires de plus de 1000 m2, hors cas particuliers, d’en réduire la consommation énergétique. Soit, ils choisissent de le faire jusqu’à atteindre une valeur seuil, définie par arrêté, soit ils optent pour une diminution en pourcentages, se conformant à la règle mnémotechnique des « -40% en 2030, -50% en 2040 et -60% en 2050 ».

Dans les deux cas, s’agissant d’atteindre un objectif à partir d’une situation de départ, la première étape à franchir est de choisir quand démarrer. Pour pouvoir intégrer dans les réductions de consommations les travaux de rénovation énergétiques qui auraient déjà été engagés avant la prise d’effet de la loi, les propriétaires et/ou locataires, appelés assujettis, peuvent choisir leur point de départ entre 2010 et 2020, dès l’instant où ils peuvent justifier de 12 mois continus de consommation.

Des sanctions quasi inexistantes et pas avant… 10 ans

Le choix de cette année, dite de référence, ainsi que les conditions d’occupation et de fonctionnement des locaux à cette date, doivent être renseignés volontairement au plus tard le 30 septembre 2022.

La vérification du respect des réductions de consommation se fera tous les dix ans soit, au plus tôt, en décembre 2031 pour la première période. Quant aux sanctions pénales et/ou financières pour saisie hors délai des données demandées sur l’application OPERAT qui lui est destinée, il n’y en n’a pas… Dans ce cas, quel serait l’intérêt de chercher à respecter la date du 30 septembre 2022 ?

Rien ne sert de courir…

Plusieurs arguments vont dans ce sens. En premier lieu, ce délai pourrait être reporté d’un an, comme cela a déjà été le cas l’année dernière, l’outil OPERAT n’étant pas prêt et les valeurs de seuil par catégorie de bâtiment trop peu nombreuses. Ensuite, récupérer toutes les données patrimoniales, définir et faire accepter la répartition des tâches entre propriétaires et locataires, récupérer ses factures d’énergie, et/ou les données de consommations de 2010 à 2020, est un véritable travail de titan, surtout si l’on a changé de fournisseur d’énergie dans l’intervalle. En plus, il faut se doter de ressources, externes ou internes, pour réaliser le fastidieux travail de recensement de données éparses et incomplètes. Enfin, nul ne peut prédire de ce qu’il résultera de l’après élection présidentielle. Il est donc urgent d’attendre.

Faut-il prendre le risque ?

Mais est-ce un bon calcul ? Qui peut croire que l’objectif de réduction des consommations énergétiques des bâtiments puisse être supprimé, qui plus est quand la France présidera, jusqu’en juin 2022, le conseil de l’Union européenne dont la loi ELAN est issue ? Même si son application prend du retard et que les sanctions de non saisie ne sont que morales (principe du « name and shame ») quel est l’intérêt pour un propriétaire de montrer son peu d’entrain pour améliorer son bilan carbone et d’ainsi prendre le risque d’une forte dévalorisation de son image et de la valeur de son parc ?

Même si le législateur se montrera clément jusqu’en septembre 2023, reporter le lancement du recueil de données de consommations, c’est prendre le risque qu’elles ne soient plus disponibles. En effet, les fournisseurs d’énergie n’ont obligation de garder les factures de leurs clients que pendant 3 à 5 ans alors que les assujettis ont obligation de justifier leurs consommations. Se poser la question en 2023, c’est prendre le risque de se voir imposer comme année de référence l’année 2020. Or 2020 a été une année de faible consommation, du fait du COVID. L’OID a estimé cette baisse de consommation de 10%. C’est-à-dire que la consommation de référence du bien sera sous-évaluée d’autant. Pour un calcul en pourcentage, qui représentera environ 60% des cas d’après l’OID, les propriétaires et locataires devront faire plus d’efforts que s’ils avaient pu choisir une année de forte consommation ramenée aux conditions climatiques.

10%, cela peut paraître peu, mais c’est bon an mal an le pourcentage de gains énergétiques qu’un propriétaire peut obtenir avec très peu de dépenses, en agissant uniquement sur le comportement des usagers.

Alors qu’il aurait pu se « contenter » de réaliser des travaux pour aboutir à une baisse de 40% de ses consommations en 2030, il devra finalement engager encore plus de moyens pour atteindre les 50% de réduction. En 2040 cela passera à 60% et en 2050 à 70% !

Même si on évite de se faire imposer 2020, ne pas se donner le temps de choisir soigneusement son année de référence, par exemple en retenant intuitivement l’année de plus forte consommation, sera tout autant préjudiciable.

En effet, le choix de l’année de référence ne peut se limiter aux seules consommations d’un bâtiment mais doit se faire en connaissance de ses conditions d’usage et de la dynamique patrimoniale du parc dont il fait partie. Ce travail de recueil et d’analyse prenant du temps, il s’agira de ne pas se laisser déborder.

3d Notebook spuckt Geldscheine aus.

De combien parle-t-on ?

Les études chiffrées sont malheureusement peu nombreuses et difficiles à interpréter tant les situations sont différentes et qu’il est délicat d’identifier, dans une rénovation globale, la part uniquement dédiée à l’économie d’énergie. Mais on peut avoir en tête les ordres de grandeur suivants : le surcoût de rénovation énergétique pour atteindre une diminution de 10 à 30% va de 0 à 100 euros par m2. Pour ce faire, on agit sur les comportements, l’exploitation et quelques remplacements d’équipements peu coûteux. Pour atteindre une économie de 30 à 40%, on dépense de 100 à 200 euros par m2 en remplaçant, en plus des actions précédentes, les équipements de production de chaleur ou de froid voire en commençant à isoler. Pour atteindre 50% de réduction, le coût passe à 200 €/m2. Au-delà, tout peut se concevoir, dès l’instant où l’enveloppe, la ventilation et les systèmes de production énergétiques sont impliqués. Les prix au m2 vont alors de 300 à 750 € le m2. D’autres retours d’expérience affichent même des coûts de rénovation dépassant facilement les 1 000 euros par m2.

Tout ceci se traduit en dizaines de milliers, voire en millions d’euros, somme dont une grande partie aurait pu être facilement économisée.

Il faut partir à point

Propriétaires, locataires, il est donc plus que temps de vous mettre en ordre de marche. Et surtout, de transformer ce qui peut vous paraître une contrainte en atout. Vous avez sûrement déjà engagé des actions vous permettant de mieux connaître votre patrimoine et sa consommation, comme un bilan carbone, une normalisation de type ISO 14000 ou 50000, l’écritures de baux verts… Même si vous n’avez pas une vision exhaustive et complète de votre parc vous avez au moins de quoi commencer à alimenter OPERAT pour répondre à vos obligations. Pour la première année, le législateur a déjà prévu d’être indulgent. Profitez-en !

Une fois ces questions de recueil d’informations derrière vous, vous pourrez alors vous consacrer à ce qui compte vraiment : améliorer les performances énergétiques de vos bâtiments. La planète, vos locataires et votre portefeuille (meilleure valorisation du parc et diminution de son taux de vacance) ne s’en porteront que mieux.

Vous avez donc tout à y gagner. Mais s’il vous plait, n’attendez pas le dernier moment. Sinon, gare aux mauvaises surprises !

Pascal JEAN

MUTEK conseils

Sources :

www.operat.ademe.fr

www.legifrance.gouv.fr

www.o-immobilierdurable.fr

www.ifpeb.fr

www.ademe.fr

Coup de froid sur les réseaux de Chaleur

Début 2016, le Plan Bâtiment Durable avait émis 34 propositions dans le but d’améliorer la compétitivité perçue et économique des réseaux de Chaleur et de Froid pour en accélérer le développement. Celles-ci se classaient principalement en trois grandes catégories : 1) communiquer, séduire et convaincre les usagers potentiels, 2) apporter un soin tout particulier à la viabilité future des projets pour éviter les déconvenues et les désaffections, 3) renforcer les aides pour verdir les réseaux et augmenter leur densité comme leur nombre.

Il est indéniable de que très nombreux progrès ont été enregistrés dans les deux premiers domaines. Pour le premier sujet, on peut citer les améliorations apportées à l’enquête annuelle des réseaux de chaleur, le nombre grandissant de comités de liaison, unissant régulièrement tous les acteurs, ainsi que la mobilisation de l’ADEME, d’AMORCE, du SNCU, de la FEDENE et de la FNCCR, entre autres, pour informer, former, et même démarcher usagers, communes et territoires.
Pour le second volet, ce sont encore l’ADEME, par son travail de contrôle et de supervision des projets, le CEREMA, par la qualité de ses formations et documentations et bien sûr les entreprises de construction et d’exploitation, par la professionnalisation de leurs approches (les réseaux de chaleur sont désormais en majorité alimentés en énergie verte ou de récupération, ce qui n’était pas le cas il y a 5 ans), qui ont permis de renforcer la pertinence et la viabilité des projets réalisés.
Malheureusement, s’agissant des aides, le troisième thème, fort est de constater que la promesse faite en 2015 de doubler le budget du Fonds chaleur géré par l’ADEME pour le porter à 420 millions par ans a fait long feu. Ce budget est plutôt resté stable autour de 220 millions en 2016 et 2017. Il est prévu de le porter à 300 millions en 2018. L’intention est louable, mais l’effort sera insuffisant pour voir vraiment le nombre d’habitants raccordés augmenter significativement.
Qui plus est, les événements récents ont sensiblement refroidi les annonces encourageantes faites par le Ministère de la transition écologique quelques jours auparavant. En effet, geler les prix du gaz stoppe net la démarche consistant à survaloriser artificiellement cette énergie pour rendre compétitives les solutions à base d’énergie renouvelable. Pour compenser ce gel, Il faudrait obtenir encore plus de subventions que celles qui sont annoncées aujourd’hui…
Il existe portant une solution : il suffirait de rééquilibrer les aides consacrées au verdissement des énergies en faveur des réseaux de chaleur et de froid. Ce ne serait que justice, eut égard aux objectifs de développement ambitieux que lui assignent les Programmations Pluriannuelles de l’Energie successives depuis leur création.

Facilities Managers: comment votre chiffrage vous fera désormais gagner des affaires

Pour chiffrer une offre de FM, les entreprises ont l’habitude de solliciter chacune de leurs entités réalisant une partie de la prestation pour qu’elles déterminent leur prix de vente interne, somme de leur prix de revient (ce que leur coûte la prestation, réalisée en propre ou sous-traitée), de leurs frais, des aléas et de leur marge.

Puis ces prix sont additionnés en y ajoutant cette fois-ci les frais généraux et la marge de l’affaire.

La plupart du temps, le prix de vente ainsi obtenu est tellement élevé que les chances de remporter la consultation sont très faibles. Tout simplement parce que 1) ce prix est élaboré à partir des souhaits et capacités de l’entreprise et non à partir des ceux des clients 2) l’époque où le prix d’une prestation de FM était fixée par les entreprises est révolue depuis longtemps.

C’est pourquoi, dans un temps de réponse toujours très court, chaque entité est sollicitée pour baisser son prix de vente interne. Une fois l’offre remise, c’est l’acheteur du client qui fait son travail et demande de revoir le prix. Chacun reprend sa copie. Comme la décomposition du prix de vente souhaitée par le client est très différente de la décomposition du prix de revient de l’entreprise, assez rapidement, les entités comme l’entreprise ne savent plus sur quoi portent vraiment les baisses qu’elles ont consenties par rapport à leur prix de revient idéal.

Si l’affaire est obtenue, on ouvre le champagne. Mais l’euphorie est de courte durée car l’affaire est à nouveau chiffrée (pas toujours !) et l’on constate amèrement que, pour préserver les marges avec un prix de vente fortement réduit par rapport aux espérances, la prestation que l’on pourra offrir devra malheureusement être dégradée. Au grand dam du client-utilisateur du service.

Il existe pourtant une autre manière de procéder qui, tout en permettant de chiffrer une affaire au prix du marché, préserve aussi bien sa qualité de réalisation que ses marges.

Le principe consiste à ne plus considérer le chiffrage de l’affaire comme une somme d’éléments mais comme un tout cohérent, constitué de composants liés par des relations. L’ensemble est traduit mathématiquement à l’aide d’équations, de règles logiques et de modèles statistiques.

Toute la complexité du chiffrage se résume alors à l’établissement des relations entre les composants, ce qui ne pose pas de problème pour les experts et hommes méthodes du FM.

Cette méthode présente de nombreux avantages :

1) La gymnastique fastidieuse et souvent approximative de transposition des coûts de l’entreprise dans les grilles de chiffrage du client n’existe plus, ces dernières étant, par convention, le format du fichier de sortie de l’algorithme de chiffrage.

2) On peut réaliser autant de chiffrages que l’on veut, en faisant varier les paramètres d’entrée à sa guise. Cette possibilité permet de réaliser tous types de simulations et en particulier de connaître a priori, sans limite de temps ni de ressources, la sensibilité du résultat de l’affaire, de son ROI ou de son cash-flow par rapport à n’importe lequel des paramètres d’entrée.

chiffrage

3) Négocier un prix devient une formalité dès l’instant où l’on sait exactement quelles seront les conséquences de cette négociation. L’acheteur du client qui, rappelons-le, ne cherche pas à acheter de la non qualité mais à être convaincu d’obtenir le meilleur prix pour la qualité souhaitée, préférera toujours une entreprise qui sait justifier son prix à une entreprise qui ne pourrait que se brader.

4) Les ressources de chiffrage et donc son coût sont fortement réduits. En effet, quand l’une des données d’entrée est modifiée, à la demande du client ou pour réaliser une simulation, tout le chiffrage est automatiquement modifié jusqu’à obtenir le nouveau résultat. Et tout ceci à la vitesse de l’électron, sans que les équipes de chiffrage ne doivent être à nouveau mobilisées.

5) Le travail d’élaboration et de modélisation des relations entre les composantes du prix est réutilisable, en tout ou partie, pour tous les chiffrages à venir, tout du moins, tant que les process de l’entreprise restent les mêmes.

6) Le prix de vente se trouve naturellement allégé des coûts d’aléas, de provision et autres risques, autant d’éléments autrefois inconnus dont on cherchait à se couvrir et qui sont désormais maîtrisés.

7) L’outil ne sert pas qu’en phase de chiffrage de l’affaire car il porte en lui tous les éléments qui la constituent. Mis en réseau, il offre à chaque entité de production de l’entreprise la possibilité d’affiner la gestion de ses prestations, en comparant le prévu au réalisé. En particulier, pour les contrats de partenariat ou de délégation de service, l’outil de chiffrage et le support de gestion réclamé par les clients ont tout intérêt à ne faire qu’un.

8) Les séances de validation d’affaire et autres « GO-NO GO » avec la Direction Générale n’en sont que simplifiées, toutes les hypothèses envisagées et leur choix valorisé.

9) Enfin, réfléchir aux relations entre les éléments constitutifs du prix de vente d’une affaire, avant et pendant la consultation, puis pendant la réalisation, est la meilleure façon de trouver des moyens d’optimiser les prestations et organisations et de gagner en productivité. C’est toute l’entreprise qui se place ainsi dans un mouvement d’amélioration continue lui permettant de gagner de plus en plus de marchés tout en satisfaisant ses clients.

Pourquoi attendre pour être de celles-ci ?

L’internet des objets révolutionne la maintenance

Alors que l’internet des objets vient de changer d’échelle avec la mise au point de systèmes basés sur les réseaux bas débit, la question se pose de savoir comment la maintenance pourrait profiter de cette spectaculaire avancée.

Le concept

L’internet des objets (IdO) est un système de systèmes qui donne la possibilité à des objets physiques d’échanger avec le monde virtuel.

Considérant le nombre possible d’objets connectables[1], ce nouvel usage d’internet est présenté comme une révolution, appelée Web 3.0, faisant suite à la révolution Web 2.0, celle du développement massif des réseaux sociaux.

Historique

La notion d’objets connectés n’est pas récente. Dans les années 70, la grande distribution avait adopté le code barre pour identifier ses produits. Puis les logisticiens ont utilisé la technologie RFID (Radio Frequence Identification) pour gérer les stocks et suivre les marchandises. Plus récemment, les QR code et autres étiquettes graphiques 2D permettent de rendre communiquant une image ou une affiche.

Depuis une dizaine d’années, les objets connectés évoluent selon trois directions :

  1. De passifs, contenant une information qu’un autre système doit recueillir, ils deviennent actifs, c’est-à-dire capables de déclencher une action.
  2. Leur zone d’influence sort des frontières locales (supermarché, entrepôt, entreprise, voiture, bâtiment) pour couvrir jusqu’à la totalité de la planète web.
  3. Leur communication évolue de monodirectionnelle (émission d’information), vers bidirectionnelle (émission et réception avec un autre système) et jusqu’à multidirectionnelle (communication entre plusieurs systèmes et d’autres objets connectés).

On passe ainsi de la notion d’objets connectés à celle, plus large d’internet des objets.

Les préoccupations environnementales ou de bien-être ont permis le développement de ces systèmes que l’on rencontre aujourd’hui pour piloter à distance le chauffage ou l’éclairage de son habitat ou bien gérer sa forme physique. D’où le rachat récent de NEST par GOOGLE[2] ou l’explosion du marché des montres connectées.

Principe

L’internet des objets est rendu possible par la mise en place d’une suite de systèmes reliés entre eux.

Identification : l’objet doit être reconnu. Le système doit lui attribuer un code d’identification unique (code ou position GPS).

Génération : l’objet doit avoir une donnée à émettre. Cette donnée est générée le plus souvent par un capteur digital.

Modem : l’information doit être codée dans un langage compris par un réseau de données, puis pouvoir être échangée grâce à un module de transmission.

Concentration : l’information doit être intégrée dans un concentrateur dans le cas où elle ne peut être directement envoyée au serveur internet.

Transmission : l’information doit être transmise soit directement à un serveur (via GPS par exemple), soit passer d’abord par un concentrateur (via RFID, WiFi ou Bluetooth) qui lui-même la ré-envoie en longue portée (via GSM) vers le réseau.

Cet ensemble de systèmes ne peut fonctionner que dans un environnement particulier :

– qui doit disposer d’une source électrique pour alimenter chacun de ses composants,
– qui doit être couvert par un réseau longue portée, GSM ou GPS, voire les deux pour transmettre les informations vers un serveur ou d’autres objets.

Le principal frein au développement de l’Internet des Objets est son coût, qui somme ceux des équipements, de leur installation, de leur alimentation, ainsi que ceux de l’accès et de l’utilisation d’un ou de plusieurs réseaux de données.

Dernières avancées

Depuis quelques mois, des avancées notables ont permis de s’affranchir d’une partie de cette contrainte économique.

En effet, quelques sociétés, SIGFOX, ACTILITY et Qowisio, ont mis au point et développé un protocole de transmission de données sans fil à bas coût, reposant sur un réseau à longue portée et bas débit utilisant des fréquences gratuites (celles qui sont utilisées pour télécommander l’ouverture des portes de garages par exemple).

Les signaux émis sur ces réseaux, à basse fréquence (868 Mhz en Europe) sont 1000 fois moins énergivores que des signaux GSM. L’association d’un réseau libre de droit et de signaux à faible consommation permettent ainsi à l’internet des objets de s’affranchir des contraintes énergétiques propres aux réseaux actuels (WiFi, Bluetooth, GSM) et de proposer des prix très compétitifs[3] (plus besoin de concentrateurs ni d’abonnements à des réseaux mobiles).

La suppression de la contrainte géographique, qui imposait à l’objet connecté d’être relié à une alimentation électrique et sous couverture d’un réseau GSM, permet d’envisager un développement considérable de cette solution à des domaines comme le suivi des récoltes et du bétail, la gestion d’équipements routiers, la surveillance de réseaux énergétiques ou la prévoyance de catastrophes naturelles.

C’est pourquoi, tant les opérateurs téléphoniques[4][5] que les fabricants de composants électroniques[6] se sont pressés pour rentrer au capital des sociétés pionnières, dès l’instant où la faisabilité de leur modèle avait été prouvée[7].

Quels impacts pour la maintenance ?

De son côté, la société de services énergétique COFELY Services (ENGIE) a été la première à adopter ce sytème pour ses activités d’exploitation et de maintenance tertiaire, en nouant le 28 mai dernier un partenariat stratégique avec SIGFOX. Les raisons de ce choix concernent tous les types de maintenance :

« Intégrée aux solutions développées par Cofely Services, la technologie sans fil et longue portée, base du réseau bas débit SIGFOX, offre de nouvelles perspectives d’exploitation des données et démocratise les stratégies de performance énergétique du bâtiment :

  • simplicité d’installation : pas d’infrastructure à déployer par l’utilisateur
  • commodité d’utilisation : un accès aux datas sur tous les supports informatiques (ordinateurs, tablettes, smartphones…)
  • coûts plus compétitifs : des coûts d’abonnements inférieurs aux technologies GSM
  • interopérabilité : une technologie qui permet de connecter des objets de marques différentes [8]»

La réduction des coûts et la simplification d’utilisation mises en avant par COFELY sont effectivement des avantages indéniables pour la maintenance des installations déjà instrumentées.

Mais on peut encore aller plus loin : la multiplication des capteurs et leur capacité à transmettre des informations comme à en recevoir, va révolutionner la maintenance en lui permettant, à faible coût, de devenir conditionnelle.

La maintenance conditionnelle, ou prédictive, est en effet celle qui permet le meilleur résultat avec le minimum de moyen. Elle consiste à ne réaliser une opération de maintenance que suite à une demande générée par un indicateur ou un capteur.

Du fait du coût des systèmes de diagnostic et d’alerte, la maintenance conditionnelle est peu utilisée. On lui préfère la maintenance préventive, qui consiste à inspecter et maintenir les équipements selon un échéancier prédéfini, sans savoir réellement si cette maintenance arrive au bon moment ou même si elle est nécessaire. La survenance d’une panne est le signe que la maintenance préventive a échoué. On réalise alors une opération de maintenance corrective pour remettre le bien en état de fonctionnement.

Pouvoir réaliser de la maintenance conditionnelle est un vieux rêve des spécialistes de la maintenance. Cela permettrait de s’affranchir de la totalité de la maintenance préventive et de la quasi-totalité de la maintenance corrective. Mais pour rendre possible une telle maintenance, il fallait jusqu’alors équiper les installations de capteurs qui devaient remonter leurs informations via un système de Gestion Technique Centralisée. Cette solution complexe, coûteuse et gérée par des constructeurs, était réservée à des équipements et installations sensibles, leur diagnostic, en temps réel, ayant plus pour but de prévenir ponctuellement une panne afin d’éviter les arrêts d’exploitation que de mettre en place une véritable stratégie globale de maintenance conditionnelle.

Avec la démocratisation des capteurs et actionneurs connectés, cette dernière devient possible à grande échelle.

C’est cet aspect qui a enthousiasmé le Président de la SNCF, Guillaume PEPY : « Aujourd’hui des salariés de la SNCF effectuent régulièrement, à bord de leurs camionnettes, la tournée des réchauffeurs d’aiguillage pour vérifier qu’ils fonctionnent bien. Plus tard, ils connaîtront l’état de ces installations sans même se déplacer »[9].

En conclusion, la révolution Web 3.0 va permettre à la maintenance de réaliser également sa révolution, celle qui conduit à une maintenance 100% conditionnelle donc 100% efficace et 100% optimale.

Restent aux fabricants de systèmes à harmoniser leurs protocoles de communication, ce qui est en cours, aux conseils et ingénieries de maintenance à développer les bons algorithmes prédictifs, ce qui ne saurait tarder, et surtout que les professionnels de la maintenance, donneurs d’ordre comme prestataires, arrivent à changer des habitudes fortement ancrées.

La promesse d’une maintenance plus efficace et moins coûteuse devrait les y aider.

[1] 80 milliards en 2020 pour 15 milliards aujourd’hui selon l’étude Idate

[2] Le 13 janvier 2014, Google a officialisé le rachat de la start-up NEST, spécialisée dans les thermostats intelligents

[3] Pour SIFGFOX, l’abonnement au réseau est de 1 € par objet connecté et par an – « Sigfox lève 100 millions d’euros et accélère à l’international » – Les Echos – 12 février 2015

[4]Telefonica (Espagne), NTT Docomo (Japon) et SK Telecom (Corrée du Sud) pour SIGFOX – « Sigfox lève 100 millions d’euros auprès de GDF, Air Liquide, Telefonica » – La tribune – 11 février 2015

[5] Orange, KPN (Pays-Bas), Swisscom (Suisse) pour ACTILITY – « Objets connectés : Orange et Foxconn financent une start-up française » – Les Echos – 16 juin 2015

[6] SAMSUNG (Corée du Sud) pour SIGFOX et FOXCONN (Taïwan) pour ACTILITY

[7] Le système de SIGFOX permet de suivre les bicyclettes volées dans la baie de San Francisco.

[8] Communiqué de presse commun de COFELY et de SIGFOX du 28 mai 2015

[9]« La SNCF lorgne l’Internet des Objets » – Les Echos – 11 février 2015