Qualité de l’air : plusieurs approches pour modéliser l’invisible

La journée de la modélisation de la qualité de l’air (organisée par FIMEA et IMT Lille Douai) du 8 juin était l’occasion, pour les chercheurs du domaine, d’échanger sur les méthodes existantes. La modélisation permet d’identifier le lien entre sources de pollution et récepteurs. Les modèles ainsi réalisés servent à la compréhension des processus atmosphériques et à la prévention de la qualité de l’air.

 

Quelle pollution fera-t-il demain ? Un seul outil permet de répondre à cette question : la modélisation. Mais qu’est-ce que c’est ? Tout dépend du domaine d’expertise dont on parle. En qualité de l’air, cette méthode consiste à élaborer des simulations informatiques pour représenter des scénarios. Cela permet par exemple de simuler les émissions de polluants avant la mise en place d’un nouvel axe routier. Là où un modèle météorologique prévoit la pluie, un modèle de qualité de l’air prévoit les concentrations de polluants. La modélisation permet également de mieux comprendre les réactions physiques et chimiques qui se passent dans l’atmosphère. « Il existe des modèles couvrant des zones plus ou moins grandes qui permettent d’étudier la qualité de l’air sur un continent, un territoire régional ou encore à l’échelle d’une rue », précise Stéphane Sauvage chercheur au département Sciences de l’Atmosphère et Génie de l’Environnement (SAGE) d’IMT Lille-Douai. Comment sont construits ces modèles ?

 

Des modèles qui remontent aux sources

La première approche consiste à identifier les sources émettant des polluants à partir d’observations de terrain, une spécialité à IMT Lille-Douai. Des capteurs situés au niveau des récepteurs (individus, écosystèmes) mesurent des composés sous forme de gaz ou de fines poussières (aérosols). Les chercheurs qualifient certaines espèces détectées comme traceurs car elles sont représentatives d’une source d’émission connue. « Plusieurs COV (composés organiques volatiles) sont émis par les plantes, alors que d’autres espèces caractérisent le trafic automobile. On peut aussi identifier l’origine (naturelle, combustion de bois…) d’un aérosol en analysant sa composition chimique », détaille Stéphane Sauvage.

Les chercheurs étudient les variabilités horaire, journalière et saisonnière des traceurs grâce à des analyses statistiques. Ces variations sont combinées à des modèles retraçant le parcours des masses d’air avant qu’elles n’arrivent sur le site d’observation. « À partir de cette approche temporelle et spatiale, on arrive à resituer les zones d’origine potentielles. On observe des polluants dits « primaires », directement émis par les sources, et mesurés au niveau des récepteurs. Mais il y a aussi des polluants secondaires qui résultent de réactions chimiques survenues dans l’atmosphère », ajoute le chercheur. Pour identifier les sources de cette deuxième catégorie de polluants, les chercheurs identifient les réactions possibles entre composés chimiques. Ce procédé est complexe car l’atmosphère est un véritable réacteur au sein duquel les espèces ne cessent de se transformer. Les chercheurs font donc des hypothèses pour pouvoir remonter aux sources. Une fois ces modèles fonctionnels, ils servent d’outil d’aide à la décision.

 

Des modèles orientés vers les récepteurs

Une deuxième approche dite « déterministe » est orientée vers les récepteurs. À partir des connaissances sur les sources (concentrations des rejets industriels, du trafic routier…), les chercheurs appliquent des modèles de diffusion et de déplacement de masses d’air afin de visualiser l’impact de ces émissions au niveau du récepteur. Pour cela, ces modèles intègrent des données météorologiques (vent, température, pression…) et des équations de réactions chimiques survenant dans l’atmosphère. Ces outils complexes nécessitent une connaissance exhaustive des processus atmosphériques et une importante puissance de calcul informatique.

Ces modèles ont des fins de prévisions. « Les agences de surveillance de la qualité de l’air les utilisent pour informer le public des niveaux de polluants sur une zone donnée. Des mesures de restriction de circulation automobile peuvent le cas échéant être déclenchées par la préfecture suite aux prévisions de ces modèles », renseigne Stéphane Sauvage. Cette approche de modélisation permet également de simuler des études d’impact environnemental pour des sites industriels.

 qualité de l'air, modélisation, stéphane sauvage

 

Des méthodes complémentaires

Chaque méthode a ses limites et présente des incertitudes. Les modèles construits à partir d’observations ne sont pas exhaustifs. « On ne sait pas observer toutes les espèces. De plus, cette approche statistique nécessite beaucoup d’observations pour construire un modèle robuste et fiable. Les hypothèses utilisées dans cette approche sont simplistes comparées aux modèles orientés vers le récepteur », ajoute Stéphane Sauvage. L’autre type de modèles s’appuie également sur des approximations. Il utilise des données qui peuvent être incertaines comme l’estimation d’émissions des sources et les prévisions météorologiques.

« On peut combiner les deux méthodes pour obtenir des outils plus performants. Les approches à partir d’observations permettent d’évaluer la connaissance des sources utiles aux modèles déterministes. La validation de ces modèles déterministes se fait en comparant prédictions et observations. Mais on peut aussi intégrer les données observées dans les modèles pour les corriger », ajoute le chercheur. Cette association limite les incertitudes et favorise l’identification des liens entre sources et récepteurs. Le but à terme est de proposer des outils d’aide à la décision pour des politiques de réduction efficaces des polluants.

 

A lire également sur I’MTech :

Paris et sa pollution au fil des saisons

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *