Commençons par rappeler une évidence : la pollution atmosphé­rique tue. L’OMS indique que 7 millions de morts sont dus à la pollution atmosphé­rique chaque année dans le monde, princi­pa­lement via des patho­logies respi­ra­toires et cardio­vas­cu­laires. L’air que nous respirons est-​il toxique ? La réponse est oui.

Lire aussi… Pollution de l’air : Nice encore en retard, d’après une étude

Lire aussi… À Nice, la pollution de l’air coûterait… 383,4 millions d’euros tous les ans

Or, les citadins sont les plus exposés à ce risque de surmor­talité, lié aux concen­tra­tions élevées que les polluants gazeux et parti­cu­laires peuvent atteindre. Les popula­tions urbaines subissent, en effet, non seulement les pollu­tions issues de sources d’émission locales (trans­ports urbains et chauffage princi­pa­lement), mais aussi les pollu­tions diffuses trans­portées par les courants aériens sur de longues distances (émissions indus­trielles, pesti­cides, pollens, aérosols divers).

En France, plusieurs métro­poles dépassent réguliè­rement les seuils régle­men­taires. L’État français a été condamné à plusieurs reprises pour « action insuf­fi­sante » par la Cour de Justice de l’Union européenne (CJUE), et un procès est en cours à Londres sur le rôle de la pollution dans le décès d’un enfant. Pourtant, nous ne partons pas de zéro, loin de là.

Des stations de référence aux microcapteurs

Depuis les années 1970, un vaste réseau de surveillance et de prévision de la qualité de l’air a été progres­si­vement déployé sur l’ensemble du terri­toire national. Il s’appuie sur un parc de stations dites « de référence » et est géré à l’échelle de chaque région par des struc­tures dédiées, les associa­tions agréées de surveillance de la qualité de l’air.

Les points de mesure sont peu nombreux, mais les instru­ments sont implantés dans des zones soigneu­sement choisies et les capteurs utilisés sont rigou­reu­sement étalonnés et exploités. Les associa­tions de surveillance utilisent également des modèles numériques ou statis­tiques pour estimer la répar­tition des principaux polluants dans la région considérée.

Cependant, si la rue dans laquelle vous habitez ne dispose pas d’une station de mesure, ce qui a de grandes chances d’être le cas, l’estimation fournie ne correspond en fait qu’à la moyenne statis­tique du quartier, elle-​même élaborée à partir d’un inven­taire des sources fixes et du trafic moyen horaire, en tenant compte de la météo­ro­logie du jour, le vent surtout.

Autrement dit, si vous cherchez à connaître votre exposition person­nelle à la pollution de l’air à partir du dispo­sitif de surveillance national, vous n’obtiendrez dans le meilleur des cas qu’une valeur moyenne, pour un polluant donné. Difficile d’en déduire une infor­mation fiable sur votre exposition person­nelle à la « pollution de l’air » et encore moins au risque sanitaire que cette exposition repré­sente pour vous.

Or, depuis quelques années, on observe l’arrivée sur le marché de « micro­cap­teurs » qui portent avec eux la promesse d’une mesure précise et fiable de son exposition indivi­duelle à la pollution de l’air. Ces instru­ments de mesure de petite taille et que l’on porte avec soi, acces­sibles au prix d’un smart­phone, pourraient-​ils changer la donne ?

Des limites à la conception, à la mesure et à l’utilisation

Un capteur se compose d’un système de détection pour un ou plusieurs polluants, par exemple une diode laser dont le faisceau est atténué ou diffusé par le passage des parti­cules polluantes ; d’un système électro­nique pour enregistrer le signal ; d’un micro-​ordinateur pour l’interpréter (par exemple, convertir l’atténuation du faisceau lumineux durant un temps donné en nombre de parti­cules). Il collecte souvent aussi l’heure, la position, la tempé­rature et l’humidité.

file 20201203 19 7o87bt.png?ixlib=rb 1.1
Les micro­cap­teurs construits en fab lab ou fabriqués par des entre­prises sont des instru­ments complexes. Author provided

Dans le cas des stations de référence, la « mesure » d’un polluant est un processus complexe qui nécessite de nombreux tests de quali­fi­cation en amont ainsi qu’une mainte­nance coûteuse tout au long de sa durée de vie. Pour garantir la fiabilité des données générées, le capteur doit respecter des condi­tions d’usage parti­cu­lières et doit être station­naire le temps de la mesure notamment. Enfin, pour comparer les données de plusieurs capteurs, les condi­tions de mesures doivent être similaires : hauteur au-​dessus du sol, entrée de l’air dans les capteurs, durée d’intégration des mesures primaires, entre autres.

Les micro­cap­teurs indivi­duels répondent à un cahier des charges différent : ils exploitent des détec­teurs de moindre qualité, ils ne sont pas étalonnés réguliè­rement et ils fournissent des infor­ma­tions souvent intégrées sur une minute au moins pour avoir une précision accep­table. Leur usage est à chaque fois parti­culier : le capteur peut être en mouvement ou accroché diffé­remment chaque jour par exemple.

Plus problé­ma­tique encore, pour un modèle donné, chaque capteur se comporte diffé­remment et il n’existe pas encore de stratégie d’étalonnage unique. De plus, tous les instru­ments sont sujets au phénomène de « dérive de la mesure », qui peut inter­venir à des moments diffé­rents pour chaque capteur. Dans le cas des micro­cap­teurs, il semblerait selon nos études que la dérive inter­vienne beaucoup plus rapidement que pour les instru­ments homologués pour diffé­rentes raisons, notamment la robus­tesse des principes de détection, la minia­tu­ri­sation des compo­sants de détection, la protection vis-​à-​vis de pertur­ba­tions environ­ne­men­tales (tempé­rature, humidité).

Enfin, l’utilisation de ces micro­cap­teurs par des personnes non formées à leurs usages introduit une source d’erreur supplé­men­taire : la mauvaise manipu­lation, par exemple capteur dans la poche ou masqué par une écharpe.

Lorsque l’on fait l’acquisition d’un micro­capteur pour son usage personnel, il est donc important de garder à l’esprit que l’on utilise un instrument qui, de facto, ne respecte pas les mêmes standards de qualité que les stations de référence.

Des limites à l’exploitation des mesures

Pour permettre un suivi fiable de sa propre exposition, il est néces­saire de contrôler la qualité des données du capteur. L’approche la plus courante consiste à demander aux porteurs de capteurs mobiles de se rendre pério­di­quement près d’une station de mesure fixe ou bien de comparer systé­ma­ti­quement les mesures des diffé­rents capteurs lorsqu’ils sont à proximité les uns des autres, pour effectuer un inter-étalonnage.

Une autre diffi­culté vient du fait que la détection d’un pic d’exposition extrême par le capteur mobile est souvent difficile à carac­té­riser : s’agit-il du toast qui a brûlé dans le grille-​pain ? Du camion à l’arrêt moteur allumé depuis 10 minutes ? En ayant connais­sance de ces éléments contex­tuels et en les documentant sous la forme de métadonnées, il est possible d’éliminer les faux positifs a poste­riori, mais cela implique une attention accrue et un travail supplé­men­taire au moment de la collecte. Le traitement des données repré­sente donc un défi en soi. On peut y répondre en partie grâce à d’un protocole rigoureux, mais il faut y sensi­bi­liser les usagers de microcapteurs.

Impliquer les individus dans l’estimation de leur exposition

Si, comme on l’a relevé, la plupart des diffi­cultés rencon­trées sont de nature technique, les solutions à ces mêmes problèmes pourraient bien reposer en partie sur un recen­trage des dispo­sitifs vers l’humain, en parti­culier à travers des « sciences citoyennes » ou « sciences participatives ».

Former les usagers à l’utilisation de leur instrument et les associer à la co-​construction de connais­sances est en effet triplement vertueux : une telle démarche repré­sente à la fois un intérêt sociétal (impli­cation citoyenne, dévelop­pement de la culture scien­ti­fique), un intérêt indus­triel (feed-​back utili­sa­teurs, mise à l’épreuve des instru­ments dans un contexte scien­ti­fique), et bien sûr un intérêt scien­ti­fique, car cela permet d’augmentation le volume et la repré­sen­ta­tivité des données et la sécuri­sation de la qualité de données : les données générées deviennent plus exploi­tables et plus utiles pour tous.

Cet article a été co-​écrit par Jérémy Hornung, de l’association PartiCitEnv’s (ancien­nement PartiCitaE).The Conversation

Laurence Eymard, Directrice de recherche CNRS émérite, chercheuse dans le domaine du climat, Sorbonne Université ; Laure Turcati, Ingénieure de recherche en sciences parti­ci­pa­tives, Sorbonne Université et Sébastien Payan, Professeur, Sorbonne Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Réagissez