Nathalie Redon, IMT Lille Douai – Institut Mines-Télécom
En mai dernier, la mairie de Paris a lancé « Pollutrack » : une flotte de microcapteurs placés sur le toit de véhicules roulant dans la capitale pour mesurer la quantité de particules fines dans l’air en temps réel. Un an plus tôt, c’était Rennes qui proposait aux habitants d’évaluer la qualité de l’air à l’aide de capteurs individuels.
En France, depuis quelques années, de fortes concentrations en particules fines sont régulièrement observées et la pollution de l’air est devenue une préoccupation sanitaire majeure. En France, 48 000 décès prématurés lui sont attribués chaque année.
L’hiver 2017 constitue à ce propos un parfait exemple avec des teneurs journalières pouvant atteindre par endroit les 100µg/m3 et une situation stagnante sur plusieurs jours en raison de conditions anticycloniques et froides qui ont limité la dispersion des polluants.
Portrait-robot d’une particule fine
Une particule fine (ou particulate matter en anglais, d’où le terme « PM » qu’on leur associe) est caractérisée par trois principaux paramètres : sa taille, sa nature et sa concentration.
Sa taille, ou plus exactement son diamètre, est l’un des critères qui impacte le plus notre santé : les PM10 ont un diamètre compris entre 2,5 et 10μm ; les PM2,5, un diamètre inférieur à 2,5μm. À titre de comparaison, une particule est environ 10 à 100 fois plus fine qu’un cheveu. Et c’est bien là le problème : plus les particules que nous respirons sont petites, plus elles pénètrent profondément dans nos poumons, entraînant une inflammation des alvéoles respiratoires, mais aussi du système cardio-vasculaire.
La nature des particules fines est également problématique. Elles se composent en effet de mélanges de substances organiques et minérales plus ou moins dangereuses : l’eau et le carbone en constituent la base autour desquels vont se condenser sulfates, nitrates, allergènes, métaux lourds et autres hydrocarbures aux propriétés cancérogènes avérées.
Quant à leur concentration, plus celle-ci est importante en masse, plus le risque sanitaire est grand. L’Organisation mondiale de la santé recommande ainsi de ne pas dépasser une exposition individuelle pour les PM2.5 de 25 μg/m3 en moyenne sur 24 heures et 50 μg/m3 pour les PM10. Ces dernières années, ces seuils ne cessent toutefois d’être dépassés, en particulier dans les grandes métropoles.
L’homme n’est pas le seul concerné par le danger que constituent les particules fines : leur dépôt participe à l’enrichissement des milieux naturels, pouvant ainsi conduire à des phénomènes d’eutrophisation, c’est-à-dire l’apport excessif dans le sol ou l’eau de nutriments comme l’azote apporté par les particules ; cela conduit, par exemple, à la prolifération d’algues qui vont étouffer l’écosystème local. De plus, par réaction chimique de l’azote avec le milieu environnant, l’eutrophisation s’accompagne généralement d’une acidification des sols. Un sol plus acide voit sa fertilité baisser de manière drastique : la végétation s’appauvrit, les espèces dépérissent lentement mais inexorablement.
D’où viennent-elles ?
Les émissions de particules fines sont essentiellement liées aux activités humaines : 60 % des PM10 et 40 % des PM2,5 sont issus de la combustion du bois, en particulier liée au chauffage par cheminée ou poêle, 20 % à 30 % ont pour origine le carburant automobile (diesel en tête) ; enfin, près de 19 % des émissions nationales de PM10 et 10 % des émissions de PM2,5 sont imputables aux activités agricoles.
Pour aider les pouvoirs publics à limiter et maîtriser ces émissions, la communauté scientifique doit améliorer l’identification et la quantification de ces sources d’émissions et disposer également d’une meilleure appréhension de leur variabilité spatiale et temporelle.
Des mesures complexes et coûteuses
Aujourd’hui, la mesure des particules fines repose essentiellement sur deux techniques.
Il y a d’abord les prélèvements sur filtres ; ils sont effectués sur une journée complète pour être ensuite analysés en laboratoire. Outre le fait que les données sont différées, les équipements d’analyse utilisés sont coûteux et complexes à mettre en œuvre ; les résultats demandent également un certain niveau d’expertise pour être interprétés.
L’autre technique consiste à effectuer des mesures en temps réel ; on a ici recours à des outils comme l’Aethalomètre multi-longueurs d’onde AE33, appareil dont le coût est relativement cher, puisqu’il dépasse les 30 000 euros, mais qui a l’avantage de permettre des mesures toutes les minutes voire moins ; ce dernier permet notamment la surveillance du black carbon (BC) (« carbone suie » en français) : il est capable d’identifier les particules qui viennent spécifiquement des réactions de combustion. On peut également citer l’aerosol chemical speciation monitor (ACSM) qui va permettre d’identifier la nature des particules au rythme d’une mesure toutes les 30 minutes, mais avec un coût à 150 000 euros, l’accès à ce type d’outil est limité aux laboratoires experts.
Étant donné leur coût et leur niveau de sophistication, le nombre de sites équipés de tels outils est limité en France. Grâce à des simulations, l’analyse des moyennes journalières permet toutefois d’établir des cartes à l’échelle de mailles de 50 km par 50 km.
Ces moyens de mesure ne permettant pas d’établir une cartographie temps réel à des échelles spatio-temporelles fines – de l’ordre du km2 et de la minute – les scientifiques se sont récemment tournés vers de nouveaux outils : les microcapteurs de particules.
Les microcapteurs, comment ça marche ?
Petits, légers, portables, peu chers, faciles d’utilisation, connectés… les microcapteurs semblent présenter nombre d’avantages permettant de compléter la batterie de techniques analytiques lourdes mentionnée plus haut.
Quel crédit peut-on accorder à ces nouveaux dispositifs ? Pour répondre, il faut s’intéresser à leurs caractéristiques physiques et métrologiques.
À l’heure actuelle, plusieurs constructeurs se disputent le marché des microcapteurs : le Britannique Alphasense, le Chinois Shinyei et l’Américain Honeywell. Ils partagent tous la même méthode de mesure : la détection optique par diode laser.
Le principe est simple : l’air, aspiré par un ventilateur, circule dans une chambre de détection, dont la configuration est censée séparer les particules les plus grosses pour ne conserver que les plus fines. Le flux d’air chargé en particules traverse alors le signal optique émis par une diode laser dont le faisceau est diffracté par une lentille.
Un photodétecteur placé face au faisceau émis recueille les baisses de luminosité liées au passage des particules et compte leur nombre par plages de tailles. Le signal électrique de la photodiode est alors transmis à un microcontrôleur qui traite la donnée en temps réel : connaissant le débit de l’air, on peut ainsi remonter à une concentration en nombre, puis en masse, selon les gammes de taille, comme on peut le voir sur la figure ci-dessous.
Entre une version brute et une version tout intégrée (avec logiciels d’acquisition, de traitement des données et transmission des mesures via le cloud) le prix peut varier de 20 à 1 000 euros pour les systèmes les plus élaborés. Ceci constitue un prix largement abordable, comparé aux techniques décrites plus haut.
Peut-on faire confiance aux microcapteurs ?
Il faut tout d’abord souligner que ces microcapteurs n’informent en aucun cas sur la composition chimique des particules fines. Seules les techniques décrites plus haut le peuvent. Or, connaître la nature des particules, c’est pouvoir s’informer sur leur source.
Par ailleurs, leur système de séparation par taille est souvent rudimentaire ; les essais menés sur le terrain montrent ainsi que si l’on suit plutôt bien les particules les plus fines (PM2.5), il est souvent difficile d’extraire la part liée aux PM10 seules. Ceci dit, les particules les plus fines sont justement celles qui ont le plus d’impact sur la santé, on peut donc s’accommoder de ce défaut.
En termes de limite de détection/quantification, lorsque les capteurs sont neufs, il est possible d’atteindre des seuils raisonnables de l’ordre de 10µg/m3. Ils présentent également des sensibilités de 2 à 3µg/m3 (avec une incertitude autour de 25 %), ce qui est largement suffisant pour suivre des dynamiques d’évolution des concentrations en particules sur des gammes de concentration pouvant atteindre les 200µg/m3.
Cependant, avec l’usage, la fluidique et le détecteur optique de ces systèmes a tendance à s’encrasser, induisant une dérive de la réponse. Les microcapteurs ont donc besoin d’être étalonnés régulièrement par raccordement à une donnée de référence, comme celle délivrée par exemple par les Associations de surveillance de la qualité de l’air.
Ce type d’outils est donc tout à fait adapté au diagnostic instantané et semi-quantitatif. L’idée est de rendre compte, non pas d’une mesure ultra-précise mais plutôt de l’évolution dynamique de la pollution en particules, sur une échelle de niveaux de type bas/moyen/haut. Vu leur coût réduit, ils peuvent être distribués en nombre sur le terrain et aider ainsi à une meilleure compréhension des émissions de particules.
Nathalie Redon, Maître-assistante, co-responsable du Laboratoire « Capteurs », IMT Lille Douai – Institut Mines-Télécom
La version originale de cet article a été publiée sur The Conversation.