[Podcast] Le climat, une question de…VILLES avec Karine Sartelet
Karine Sartelet est invitée au podcast "Le climat, une question de...VILLES"
https://www.ipsl.fr/article/podcast-le-climat-une-question-de-villes/
Diffusion sur Spotify
Karine Sartelet est invitée au podcast "Le climat, une question de...VILLES"
https://www.ipsl.fr/article/podcast-le-climat-une-question-de-villes/
Diffusion sur Spotify
Alice Maison a reçu la médaille d’argent-Dufrenoy de l'académie de l'agriculture dans la section environnement et territoire, pour sa thèse sur la "Modélisation des impacts des arbres sur la qualité de l’air de l’échelle de la rue à la ville".
Surveiller les émissions de gaz à effet de serre depuis l’espace grâce à l’apprentissage profond
Interview d'Alice Maison par Ingenius
https://ingenius.ecoledesponts.fr/articles/interview-dalice-maison/
INGENIUS
Les visages de la recherche – Technicien·ne
Aurélien présente son métier dans un vidéo suivant
https://www.youtube.com/watch?v=eXV6HXviWn4
Alice Maison a reçu le 1er prix pour le prix de thèse du ministère de la Transition écologique 2024.
Podcast - à la rencontre des doctorants - Lya Lugon
Le chercheur du CEREA, Alban Farchi présente l'évolution récente sur la prévision météorologique par l'intelligence artificielle.
Bonne lecture !
https://ingenius.ecoledesponts.fr/articles/intelligence-artificielle-meteorologie/
Karine Sartelet a reçu une médaille de l'Institut des sciences industrielles de l'Université de Tokyo, suite à sa conférence sur la "modélisation multi-échelle de la qualité de l'air dans les villes", et à plus de trois années de collaboration productive avec le laboratoire d'Ooka et Kikumoto.
Modélisation de l’impact du trafic routier sur les concentrations de polluants en zone urbaine
La soutenance se tiendra le jeudi 8 juin 2023, de 14h à 17h, dans l’Amphithéâtre Cauchy, École des Ponts (6/8 Av. Blaise Pascal, 77420 Champs-sur-Marne).
Composition du jury
Pr Guy BRASSEUR, Max Planck Institute for Meteorology, Rapporteur
Dr Oriol JORBA, Barcelona Supercomputing Center, Rapporteur
Pr Isabelle COLL, Université Paris-Est Créteil, Examinatrice
Dr Yao LIU, Université Gustave Eiffel, Examinatrice
Pr Lionel SOULHAC, INSA Lyon, Examinateur
Dr Karine SARTELET, École nationale des ponts et chaussées, Directrice de thèse
Dr Yelva ROUSTAN, École nationale des ponts et chaussées, Co-encadrant de thèse
Dr Christophe CHAILLOU, Aramco, Invité
Résumé en français
En milieu urbain et en particulier dans les rues, les personnes sont exposées à de fortes concentrations de dioxyde d’azote (NO2), et de particules dont les aérosols organiques (OM) et le carbone suie (BC). Afin de mieux comprendre les sources et représenter l’évolution des concentrations dans les rues, une modélisation multi-échelle est utilisée, avec le modèle de réseaux de rues MUNICH couplé au modèle de chimie-transport régional Polair3D et au module chimique SSH-aerosol pour représenter la formation des composés secondaires aux différentes échelles.
L’influence des émissions des composés organiques volatils (COV) du trafic routier, des émissions hors dues à l’usure des hors échappements et des émissions d’asphalte est étudiée avec des scénarios de sensibilité. La simulation de référence utilise des facteurs d’émission standards obtenus de la méthodologie COPERT. L’utilisation de données récentes de mesure de spéciation permet de mieux caractériser les COV émis, en particulier les composés organiques intermédiaires, semi et faiblement volatils (COVI/S/F), engendrant une réduction des concentrations de OM allant jusqu’à 27 %. Une augmentation de 219 % des émissions de BC dues à l’usure des pneus, cohérente avec la littérature, double les concentrations de BC. Les émissions d’asphalte augmentent fortement les émissions de COVI/S/F. Les concentrations de particules simulées en prenant en compte ces émissions se comparent bien aux observations, soulignant l’importance de mieux caractériser cette source manquante dans les modèles.
Des simulations sont ensuite réalisées pour l’année 2030 afin d’évaluer les impacts futurs des émissions du trafic sur les concentrations. L’introduction de véhicules à très faibles émissions, conformes aux futures normes européennes d’émissions, induit une forte réduction des émissions par rapport à une flotte représentative de l’année 2014. Les émissions de NO2 et de BC sont réduites de 70 %, entrainant une diminution des concentrations de 52 % pour le NO2, 42 % pour le BC, et 20 % pour les particules. Les émissions d’une flotte composée uniquement de véhicules à très faibles émissions sont 99 % et 80 % plus faibles pour le NO2 et le BC respectivement, réduisant les concentrations de NO2 de 80 % et celles de BC de 45 %.
Pour représenter les gradients de concentrations dans les rues et mieux estimer l’exposition des personnes, une nouvelle version de MUNICH est développée. Plutôt que de considérer les concentrations homogènes dans chaque segment de rue, le volume des rues est discrétisé avec trois niveaux verticaux. Une discrétisation horizontale en deux zones est également introduite sous certaines conditions avec une paramétrisation tirée du modèle OSPM. Les concentrations simulées dans les rues de Copenhague et de l’est parisien avec cette version discrétisée de MUNICH se comparent mieux aux observations que celles simulées avec la version homogène, et les concentrations de NO2, BC et OM sont plus élevées en bas des rues.
Mots-clés : qualité de l’air, modélisation numérique, trafic routier, émissions, milieu urbain, polluants primaires et secondaires.
English abstract
In urban areas and in particular in the streets, populations are exposed to high concentrations of nitrogen dioxide (NO2), and particulate matter including organic aerosols (OM) and black carbon (BC). In order to better understand the sources and to represent the evolution of the concentrations in the streets, a multiscale modeling is used, with the street-network model MUNICH coupled to the regional chemistry-transport model Polair3D, and to the chemical module SSH-aerosol to represent the formation of the secondary compounds at the different scales.
The influence of volatile organic compound (VOC) emissions from road traffic, non-exhaust emissions due to tire wear and asphalt emissions are studied with sensitivity scenarios. The reference simulation uses standard emission factors obtained from the COPERT method- ology. The use of recent speciation measurement data allows for a better characterization of the emitted VOCs, in particular intermediate, semi and low volatile organic compounds (I/S/LVOC), resulting in a reduction of OM concentrations of up to 27 %. A 219 % increase in BC emissions from tire wear, consistent with the literature, doubles BC concentrations. Asphalt emissions strongly increase I/S/LVOC emissions. The simulated PM concentra- tions taking into account these emissions compare well with observations, highlighting the importance of better characterizing this missing source in the models.
Simulations are then performed for the year 2030 to assess the future impacts of traffic emissions on concentrations. The introduction of ultra-low emission vehicles, compliant with future European emission standards, results in a large reduction in emissions compared to a representative fleet of 2014. NO2 and BC emissions are reduced by 70 %, resulting in a decrease in concentrations of 52 % for NO2, 42 % for BC, and 20 % for PM. Emissions from a fleet of only ultra-low emission vehicles are 99 % and 80 % lower for NO2 and BC respectively, reducing NO2 concentrations by 80 % and BC concentrations by 45 %.
To represent the concentration gradients in the streets and to better estimate the popula- tion exposure, a new version of MUNICH is developed. Instead of considering homogeneous concentrations in each street segment, the street volume is discretized with three vertical levels. A horizontal discretization into two zones is also introduced under specific conditions with a parameterization from the OSPM model. The concentrations simulated in the streets of Copenhagen and eastern Paris with this discretized version of MUNICH compare better with observations than those simulated with the homogeneous version, and the concentrations of NO2, BC and OM are higher at the bottom of the streets.
Keywords: air quality, numerical modeling, road traffic, emissions, urban area, primary and secondary pollutants
De nombreuses personnes étant exposées à de fortes concentrations de polluants atmosphériques en milieu urbain, il est important d’en comprendre les sources et les processus de formation. La modélisation est un outil efficace pour cela. Cette thèse porte sur la compréhension par modélisation des processus physiques et chimiques influençant la qualité de l'air intérieur et extérieur à l'échelle locale.
Dans un premier temps, la qualité de l’air dans une rue urbaine est modélisée avec l’outil de mécanique des fluides numérique (CFD) code_saturne, couplé au module de chimie atmosphérique et de dynamique des aérosols SSH-aerosol. La rue canyon est modélisée en 2D, et l’étude porte sur une période de 12 heures. Les concentrations simulées de NO2 et de PM10 se comparent bien aux mesures expérimentales lorsque la chimie atmosphérique et la dynamique des aérosols sont prises en compte. Cependant, la concentration de carbone suie est sous-estimée, probablement en partie à cause de la sous-estimation des émissions hors échappement. Les concentrations des composés secondaires des particules sont fortement influencées par la dynamique des aérosols. Notamment, l'ammoniac émis par le trafic favorise la formation de particules inorganiques et organiques hydrophiles.
Dans un second temps, pour étudier l'impact des arbres dans la rue, des arbres sont ajoutés dans la rue canyon 2D. L'impact aérodynamique des couronnes d'arbres augmente significativement la concentration des polluants émis par le trafic. Le dépôt sec sur les surfaces des feuilles n'est important que pour les composés très solubles comme HNO3ou peu volatils. Les émissions de composés organiques volatils (COV) par les arbres influencent peu la formation des condensables, sauf en cas de vent faible. Néanmoins, la production de certains composés organiques extrêmement peu volatils par autoxidation est élevée, ce qui pourrait favoriser la formation de particules ultrafines.
Finalement, la qualité de l'air intérieur dans un stade fermé est étudiée à l’aide d’un modèle 0D (H2I). Le taux d'échange intérieur-extérieur et le facteur de filtration du modèle sont déterminés à partir des concentrations de carbone suie mesurées à l'intérieur et à l'extérieur en utilisant une transformation de Fourier. Les variations temporelles des concentrations d'O3 et de NOx en air intérieur sont correctement simulées, mais les concentrations de NO sont sur-estimées et celles d'O3 de NO2 sous-estimées. Des tests de sensibilité sont effectués afin de déterminer les paramètres physiques prégnants du modèle qui pilotent ces concentrations. L’impact des réactions de surface est limité, car le ratio entre la surface et le volume du stade est faible comparé à des environnements intérieurs plus petits. La prise en compte des COV favorise la conversion du NO en NO2 et réduit la sous-estimation du NO2. La photolyse influence aussi fortement les concentrations, avec un fort impact du vitrage.
En écho à la première partie de la présentation, les questions posées par la mise en place de simulations pour l'analyse de l'impact des émissions d'ammoniac sur la formation de particules seront abordées en s'appuyant sur les résultats du projet Ammon et des comparaisons aux observations OASIS.
https://osu-efluve.u-pec.fr/presentation/actualites/15emes-rencontres-scientifiques-de-losu-efluve
Lya Lugon est une lauréate du prix de thèse des ponts 2022 (Grand prix) pour sa thèse « Modélisation de la qualité de l’air dans les rues de Paris »
https://ecoledesponts.fr/le-prix-de-these-des-ponts-2022
Independent and joint multifractal characterization of atmopsheric variability in real and controlled environments
Caractérisation multifractale indépendante et conjointe de la variabilité atmosphérique en environnement réel et contrôlé
by Jerry JOSE, École des Ponts ParisTech (ENPC)
with
• Laboratory of Hydrology Meteorology & Complexity (HM&Co) &
• Centre d’Enseignement et de Recherche en Environnement Atmosphérique (CEREA)
PhD thesis defence committee:
• Referee, Marie-Claire TEN VELDHUIS, Delft University of Technology
• Referee, Martin OBLIGADO, Université Grenoble Alpes
• Examiner, Li-Pen WANG, National Taiwan University
• Examiner, Denis MARO, Institut de radioprotection et de sûreté nucléaire
• Examiner, Ioulia TCHIGUIRINSKAIA, École des Ponts ParisTech
• Thesis Co-director, Yelva ROUSTAN, École des Ponts ParisTech
• Thesis Co-director, Auguste GIRES, École des Ponts ParisTech
• Thesis Director, Daniel SCHERTZER, École des Ponts ParisTech
22/03/2023 13:30 - Room B 004, ENPC
Lya Lugon est une lauréate du prix de thèse de l'Université Paris-Est pour l'École doctorale Sciences, Ingénierie et Environnement
Titre : Modélisation de la qualité de l’air dans les rues de Paris
How does climate change impact air quality?
https://ingenius.ecoledesponts.fr/en/articles/how-does-climate-change-impact-air-quality/
Les écoulements à surface libre peuvent présenter des aspects très différentes dans l'environnement et l'industrie. Il peut s'agir d'une surface tranquille, régulière mathématiquement parlant, avec des vagues dont on peut vouloir extraire de l'énergie renouvelable, ou encore d'une surface, lisse également, d'une piscine s'évaporant suite à une défaillance des pompes de recirculation, ou enfin d'un écoulement dans un déversoir de barrage avec une surface libre vraiment perturbée et complexe dans sa forme et sa topologie. Les approches lagrangiennes et / ou eulériennes peuvent être utilisées pour résoudre les équations discrétisées de Navier-Stokes avec une surface libre.
Parmi les méthodes lagrangiennes, l'hydrodynamique des particules lissées (en anglais « Smoothed Particule Hydrodynamics » SPH) est une méthode numérique sans maillage idéale pour simuler des phénomènes potentiellement violents de surface libre très déformée tels qu'une vague déferlante ou un déversoir de barrage pour lequel de nombreuses méthodes eulériennes peuvent être difficiles à appliquer.
Les écoulements à surface libre réguliers peuvent également être traités avec la méthode des volumes finis sur maillage déformable avec une approche arbitrairement lagrangienne eulérienne (ALE), où les faces de surface libre du maillage se déplacent de sorte que la condition aux limites cinématique soit vérifiée.
Le premier chapitre a pour objectif de présenter les méthodes volumes finis ALE et SPH et d’en établir des liens.
Pour SPH, la gestion des conditions aux limites (murs et frontières ouvertes) est l'une des parties les plus difficiles car elle est déclarée comme l'un des grands défis de l'organisation internationale représentant la communauté des chercheurs et des utilisateurs industriels de l'hydrodynamique des particules lissées (SPHERIC). Concernant les murs, nos travaux suivent l’approche semi-analytique, introduite au chapitre 2, qui consiste à renormaliser la masse volumique près d'un mur plein par rapport à la zone de support de noyau manquante. La partie SPH de ce travail étend cette méthodologie semi-analytique, où des opérateurs de gradient et de divergence intrinsèques qui garantissent des propriétés de conservation sont employés. La précision du champ physique telle que la pression à côté des murs est considérablement améliorée, et la manière cohérente de prise en compte des parois développée pour les opérateurs nous permet d'effectuer des simulations avec des modèles de turbulence.
Une formulation axisymétrique avec un facteur de renormalisation unifié prenant à la fois la correction radiale et la renormalisation de la paroi est proposée en annexe.
Le chapitre 3 traite des frontières ouvertes pour l'approche SPH avec la résolution d'un problème de Riemann associé au cadre SPH compressible hyperbolique utilisé. La discrétisation de la frontière en éléments de surface (segments en 2-D) et en sommets est adéquate pour faire entrer les particules progressivement afin qu'aucune onde de pression ne soit créée par la libération de nouvelles particules fluides. Quelques autres aspects sur SPH dont l’intégration du facteur de renormalisation sont présentés en annexe.
Le chapitre 4 présente l'algorithme volumes finis ALE développé dans le code open-source massivement parallèle code_saturne. Un mélange original de schéma numérique basé sur les cellules utilisé pour obtenir la conservation de la masse et de la quantité de mouvement sur chaque volume de contrôle de cellule et un schéma basé sur les sommets basé sur l'approche des opérateurs discrets compatibles (CDO) est présenté avec un soin particulier sur la condition à la limite de la surface libre aussi bien du point de vue du fluide que du déplacement du maillage. Différents cas de test de vérification et de validation sont présentés. La discrétisation spatiale d'une équation de Poisson, utilisée pour l'étape de correction de masse dans l'approche des volumes finis ALE, est présentée en annexe.
Free-surface flows have various natures in the environmental and industrial contexts. It may be a gentle mathematically regular surface with waves from which one may want to extract renewable energy, or an also smooth surface of an evaporating pool in case of recirculating pumps deficiency, but also a flow down a spillway with a really disturbed free-surface. Lagrange and/or Euler approaches can be used to solve the discretised Navier-Stokes equations with a free-surface.
Among the Lagrangian methods, Smoothed Particle Hydrodynamics (SPH) is a mesh-less numerical method ideal for simulating potentially violent free-surface phenomena such as a wave breaking, or a dam-break for which many Eulerian methods can be difficult to apply.
Gentle free-surface flows can also be tackled with the Arbitrary Lagrangian Eulerian (ALE) mesh-based Finite Volumes method, where the free-surface faces of the mesh move so that the kinematic boundary condition is fulfilled.
The first Chapter is made to introduce SPH and ALE Finite Volumes and to draw links between the two methods.
For SPH, dealing with boundary conditions (walls and open boundaries) is one of the most challenging parts as it is declared as one of the Grand Challenges of the international organisation representing the community of researchers and industrial users of Smoothed Particle Hydrodynamics (SPHERIC). Concerning walls, the proposed methodology introduced in Chapter 2 relies on the semi-analytical approach which consists in renormalising the density field near a solid wall with respect to the missing kernel support area, and intrinsic gradient and divergence operators that ensure conservation properties are employed. The accuracy of the physical field such as the pressure next to walls is considerably improved, and the consistent manner developed to wall-correct operators allows us to perform simulations with turbulence models
An axisymmetric formulation with a unified renormalisation factor taking both radial correction and wall renormalisation is proposed as an extension of this work in Appendix.
The third Chapter deals with open-boundaries for the SPH approach with the resolution of a Riemann problem associated to the hyperbolic compressible SPH framework used. The discretisation of the boundary in surface elements (segments in 2-D) and vertices is adequate to make particles enter progressively so that no pressure wave are created by the release of new fluid particles. Some details or how to integrate the geometrical renormalisation factor used in the SPH boundary conditions is presented in Appendix. The fourth Chapter presents the ALE Finite Volumes algorithm developed in the massively parallel open-source code code_saturne. An original mixing of cell-based numerical scheme used to get conservation of mass and momentum on each cell control volume and a vertex-based scheme based on the Compatible Discrete Operators (CDO) approach is presented with a particular care on the free-surface condition both on fluid and mesh-displacement. Various verification and validation test cases are presented. Space discretisation of a Poisson equation, used for the mass correction step in the ALE Finite Volumes approach, is presented in Appendix.
Un fort développement de la filière énergie solaire est prévu pour les prochaines années en France et dans le monde. Une modélisation précise du rayonnement solaire est nécessaire pour minimiser les incertitudes sur l’estimation du productible de futures fermes et optimiser leur conception. Cependant, le rayonnement solaire au sol est fortement influencé par plusieurs paramètres géographiques, météorologiques et atmosphériques, dont notamment les caractéristiques des nuages, et celles des aérosols. L’objectif de cette thèse est d’améliorer la modélisation du rayonnement solaire, en mettant l’accent sur celles dues à la présence de nuages et d’aérosols. Des améliorations ont d’abord été apportées au modèle de rayonnement 1D du logiciel CFD Code Saturne. Ce modèle estime dorénavant le rayonnement global, direct et diffus, en prenant en compte l’impact des gaz atmosphériques, des aérosols et des nuages. Les simulations sont effectuées au SIRTA, observatoire atmosphérique en Ile-de-France, et comparées aux mesures de rayonnement effectuées dans cet observatoire. Une bonne estimation du rayonnement en ciel clair est obtenue en prenant en compte la présence d’aérosols dont les propriétés optiques sont estimées grâce à un chaînage avec la plateforme Polyphemus. Les nuages conduisent notamment à une forte atténuation du rayonnement et ils sont très complexes à modéliser en raison notamment de leur forte variabilité spatio-temporelle. Afin d’améliorer la modélisation en ciel nuageux, le modèle est couplé aux mesures sur site pour déterminer les propriétés optiques des nuages (épaisseur optique, fraction nuageuse). Différents tests de sensibilité sont conduits afin de mieux comprendre l’impact de ces propriétés et les instruments utilisables pour les mesurer. L’analyse de la comparaison entre rayonnement mesuré et calculé (réalisée pour le rayonnement global et sa composante directe) est basée à la fois sur des scores statistiques globaux et sur une étude détaillée des causes possibles des erreurs les plus importantes. Un second axe de la thèse a consisté à appliquer et valider ce modèle de rayonnement sur à un cas bien documenté de brouillard radiatif au SIRTA (campagne Paris-Fog) évoluant en stratus bas après sa dissipation. L’accent est porté sur la prise en compte des aérosols et notamment du carbone suie dans la composition des gouttelettes lors de la phase de dissipation, ainsi que sur l’hypothèse considérée pour la fraction nuageuse. Dans un troisième axe, des améliorations sont apportées au modèle de rayonnement 3D de Code_Saturne pour la prise en compte des aérosols et nuages et en vue de son application à la modélisation d’une ferme PV. Une vérification du comportement du modèle est faite sur un cas d’interaction avec un obstacle, avec des comparaisons entre les résultats des modèles 1D et 3D.
Abstract
A strong development of the solar energy sector is expected for the coming years in France and around the world. An accurate prediction of the amount of solar irradiance reaching the ground is necessary to optimize the performance of photovoltaic (PV) farms and to forecast the production at different time scales. However, the amount of solar irradiance reaching the ground is influenced by different geographical, meteorological and atmospheric parameters, including the characteristics of clouds and aerosols. The objective of this thesis is to improve the modeling of solar irradiation, by focusing on the impact of clouds and aerosols. Improvements have been made to the standalone 1D irradiance model of the CFD software Code_Saturne. The model now estimates the total solar irradiance and its direct and diffuse components taking into account clouds, aerosols and absorption by minor gases. Simulations are conducted and compared to measurements at the French SIRTA observatory (instrumental site for atmospheric remote sensing research), located in Palaiseau, Ile-de-France. Satisfactory results are obtained during clear-sky days when considering the impact of aerosols which optical properties are estimated by coupling our model to the Polyphemus platform. Clouds have a strong influence on the amount of solar irradiance reaching the ground, they have large spatio-temporal variations and are difficult to model. The estimation of irradiance during cloudy-sky days is improved by coupling the model to on-site measurements of cloud parameters (cloud optical thickness, cloud fraction) from the SIRTA observatory. A sensitivity analysis on the cloud parameters is performed in order to better understand and quantify the influence of these parameters on the simulated irradiance (global and direct), and to identify the data sources that minimize the prediction error. Moreover, hourly values of solar fluxes are analyzed to determine and physically understand the causes of the largest errors between model and measurements when measured cloud parameters are used. The second part of the thesis consisted in applying and validating the model on a well-documented case of a radiative fog at the SIRTA (ParisFog campaign), where the fog evolves into a low stratus cloud. Special attention is given to the impact of aerosols concentration and of the presence of black carbon in cloud droplets on the dissipation of the fog as well as the hypothesis used for the cloud fraction. In the third part, further improvements are implemented in the 3D irradiation scheme in order to take into account the aerosols and clouds and for its application to PV farms. This 3D model is applied to a case of interaction with an obstacle, and results are compared to those obtained with the 1D scheme.
Afin de modéliser les concentrations de polluants liés à la qualité de l’air dans les rues de Paris, le modèle de réseau de rues MUNICH (Model of Urban Network of Intersecting Canyons and Highways) est amélioré. Une approche non stationnaire est développée pour représenter la formation des composés secondaires, tels que NO2. Pour modéliser la dynamique des aérosols, MUNICH est couplé au module chimique SSH-aérosol. Les concentrations en gaz et particules dans les rues de Paris sont simulées avec MUNICH, couplé au modèle de chimie-transport Polair3D pour intégrer les concentrations de fond dans les rues. Pour les composés gazeux, le couplage entre MUNICH et Polair3D peut être unidirectionnel (les concentrations de fond influencent celles des rues) ou bidirectionnel (il y a un feedback entre la rue et les concentrations de fond). Les concentrations de NO2 et NOx se comparent bien aux observations, quelque soit l’approche utilisée pour le couplage. Le couplage bidirectionnel influence plus les rues avec un rapport hauteur/largeur intermédiaire et avec des émissions de trafic élevées, atteignant 60% sur les concentrations de NO2 selon la rue. Pour les particules, les concentrations de PM2.5 , PM10 et les compositions chimiques simulées sont proches des observations. Lesparticules secondaires ont un impact important sur les concentrations de PM2.5 , atteignant 27% selon la rue et le moment de la journée. La chimie gazeuse a une forte influence sur les espèces gazeuses réactives, augmentant de 37% la concentration moyenne du NO2. L’influence sur les condensables est plus faible, mais atteint 20% selon la rue. L’hypothèse d’équilibre thermodynamique dans le calcul de la condensation/évaporation surestime les concentrations en organiques d’environ 5% en moyenne, jusqu’à 31% à midi selon la rue. Les émissions trafic de NH3 augmentent les concentrations en inorganiques de 3% en moyenne, atteignant 26% selon la rue. Pour expliquer la sous-estimation par le modèle des fortes concentrations de carbone suie (BC) observées dans les rues, l’influence des émissions hors échappement et du couplage bidirectionnel est investiguée. Une nouvelle approche pour calculer la remise en suspension des particules est présentée, modélisant la masse déposée et respectant le bilan de masse à la surface des rues. Les simulations montrent que la remise en suspension des particules a un faible impact sur les concentrations de BC. Les concentrations de BC dans les rues influencent les concentrations urbaines de fond : l’influence du couplage bidirectionnel atteint 50% selon la rue. Les émissions d’usure des pneus contribuent aux émissions de BC de façon comparable aux émissions à l’échappement. Des nouveaux facteurs d’émission sont proposés cohérents avec certaines études de la littérature et la comparaison modèle/mesures effectuée. MUNICH est finalement utilisé sur Paris pour estimer l’impact du renouvellement du parc automobile sur dix ans et de la mobilité urbaine sur l’exposition de la population à de multiples composés. Le renouvellement du parc de véhicules diminue fortement l’exposition de la population aux NO2, BC, PM10, PM2.5 et aux particules organiques. Cette diminution est plus importante que celle estimée en utilisant un CTM à l’échelle régionale. L’exposition de la population aux PM2.5 diminue de façon similaire si les véhicules diesel, essence ou électriques récents sont favorisés. Mais favoriser les véhicules électriques induit la plus forte diminution de l’exposition au NO2 . Le télétravail est moins efficace que le renouvellement des véhicules, mais il peut être utilisé pour intensifier la diminution de l’exposition aux concentrations de particules. Cependant, des réductions plus ambitieuses des émissions sont nécessaires pour respecter les directives de qualité de l’air sur Paris.
Cécile Defforge est une des trois lauréats pour le Prix de thèse Ponts 2020
Titre : Assimilation de données dans un code de mécanique des fluides pour la micro-météorologie
B. Carissimo (Directeur de thèse), M. Bocquet (Co-directeur de thèse)
https://www.fondationdesponts.fr/prix-de-these-des-ponts-2020/
Titre : Inférence bayésienne et quantification d'incertitudes pour l'estimation de sources de rejets de radionucléides
Membres du jury :
Mme Sophie RICCI, Chargée de recherche, CERFACS, rapporteure
M. Lionel SOULHAC, Professeur, LMFA, rapporteur
Mme Paola CINNELLA, Professeure des universités, Sorbonne université, examinatrice
Mme Anne MATHIEU, Ingénieure, IRSN, examinatrice
M. Didier LUCOR, Directeur de recherche, LIMSI-CNRS, examinateur
M. Marc BOCQUET, Professeur, ENPC, directeur de thèse
M. Olivier SAUNIER, Ingénieur de recherche, IRSN, encadrant de thèse
M. Yann RICHET, Ingénieur de recherche, IRSN, invité
M. Yelva ROUSTAN, Chargé de recherche, ENPC, invité et co-encadrant de thèse
Résumé :
En cas de rejet de polluants radioactifs dans l’atmosphère, une des missions des autorités est d’évaluer les conséquences de ce rejet afin de mettre en œuvre, si nécessaire, des mesures de protection des populations. Il peut s’agir d’évacuation ou de mise à l’abri à très court terme et de restrictions de consommation ou de commercialisation des denrées alimentaires contaminées à plus long terme. Pour cela, des modèles numériques sont utilisés pour simuler la dispersion des radionucléides dans l’atmosphère.
La précision des résultats obtenus à partir de ces modèles dépend fortement de la connaissance du terme source, c’est-à-dire de la localisation, de la durée, de l’ampleur du rejet ainsi que de sa distribution entre radionucléides. Or, la connaissance du terme source est généralement soumise à d’importantes incertitudes. En plus du terme source, d’autres incertitudes proviennent du modèle de transport, des champs météorologiques, des données de mesure et de la représentativité du modèle par rapport aux mesures. Dans cette thèse, nous avons développé et appliqué des méthodes de modélisation inverse permettant d’améliorer l’évaluation du terme source et de quantifier les incertitudes.
Parmi les méthodes de modélisation inverse, les approches déterministes variationnelles sont efficaces pour fournir une estimation rapide du terme source, mais la quantification des incertitudes associée à cette estimation est généralement difficile. Nous proposons donc d'aborder le problème dans le cadre probabiliste de l'inférence bayésienne qui s’inscrit dans un formalisme permettant d’obtenir une évaluation plus complète des incertitudes. Plusieurs méthodes d’échantillonnage de Monte Carlo à chaîne de Markov (MCMC) sont mises en \oe uvre afin de reconstruire les variables décrivant la source : l’algorithme de Metropolis Hastings, l’algorithme du parallel tempering et enfin le Reversible-Jump MCMC.
Ces algorithmes sont tout d’abord appliqués et validés sur l’évènement de détection de ruthénium 106 survenu en Europe à l’automne 2017. Les densités de probabilité des variables de la source sont reconstruites afin d’identifier l’origine géographique des détections ainsi que les quantités de ruthénium 106 rejetées dans l’atmosphère. Puis, dans un second temps, plusieurs méthodes sont développées afin d’incorporer et de quantifier différentes sources d’erreurs au sein du problème bayésien et ainsi permettre une meilleure reconstruction de la distribution du rejet. Le second cas d’étude est dédié à l’accident de Fukushima-Daiichi qui a conduit à des rejets longs associés à une cinétique variable dans le temps. La reconstruction de ces rejets aux caractéristiques plus complexes a nécessité le développement d’un nouvel algorithme MCMC, le Reversible-Jump MCMC, qui a été adapté à partir des méthodes d’échantillonnage précédentes. Appliqué au cas de Fukushima-Daiichi, le Reversible-Jump MCMC montre sa capacité à échantillonner plus finement et plus efficacement la distribution du terme source et des incertitudes.
Soutenance d'HDR Yelva Roustan
La diffusion en ligne
- la partie de la soutenance jusqu’à la délibération du jury : https://youtu.be/ns3fqi_d_ns
- la partie de la soutenance après la délibération du jury, la délibération étant confidentielle : https://youtu.be/7K0DNRvsUII
Air Pollution: Concepts, Theory, and Applications, Cambridge: Cambridge University Press.
Cédric Flageul coorganized 16th ERCOFTAC SIG15 Workshop in Slovenia
Date: 15th - 16th October 2019
Location: Reactor Centre of the Jožef Stefan Institute, Ljubljana, Slovenia
Organiser:SIG15
Coordinators: Krpan, R. & Flageul, C.
ERCOFTAC Members: Pr Matevž Dular, University of Ljubljana;
Pr Dominique Laurence, University of Manchester;
Dr Sofiane Benhamadouche, EDF.
Titre de thèse
Localisation des méthodes d'assimilation de données d'ensemble
Lieu de soutenance
Amphithéàtre Caquot à l'Ecole des Ponts ParisTech (Champs-sur-Marne)
Jury de thèse
Pr Alberto Carrassi (University of Utrecht), rapporteur
Dr Emmanuel Cosme (Université Grenoble Alpes), rapporteur
Dr Olivier Talagrand (CNRS), examinateur
Dr Etienne Mémin (INRIA), examinateur
Dr Valérie Monbet (Université Rennes 1), examinatrice
Dr Massimo Bonavita (ECMWF), examinateur
Pr Marc Bocquet (Ecole des Ponts ParisTech), directeur de thèse
Résumé de thèse
L’assimilation de données est la discipline permettant de combiner des observations d’un système dynamique avec un modèle numérique simulant ce système, l'objectif étant d'améliorer la connaissance de l'état du système. Le principal domaine d'application de l'assimilation de données est la prévision numérique du temps. Les techniques d'assimilation sont implémentées dans les centres opérationnels depuis plusieurs décennies et elles ont largement contribué à améliorer la qualité des prédictions.
Une manière efficace de réduire la dimension des systèmes d'assimilation de données est d'utiliser des méthodes ensemblistes. La plupart de ces méthodes peuvent être regroupées en deux classes : le filtre de Kalman d'ensemble (EnKF) et le filtre particulaire (PF). Le succès de l'EnKF pour des problèmes géophysiques de grande dimension est largement dû à la localisation. La localisation repose sur l'hypothèse que les corrélations entre variables d'un système dynamique décroissent très rapidement avec la distance. Dans cette thèse, nous avons étudié et amélioré les méthodes de localisation pour l'assimilation de données ensembliste.
La première partie est dédiée à l'implémentation de la localisation dans le PF. Nous passons en revue les récents développements concernant la localisation dans le PF et nous proposons une classification théorique des algorithmes de type PF local. Nous insistons sur les avantages et les inconvénients de chaque catégorie puis nous proposons des solutions pratiques aux problèmes que posent les PF localisés. Les PF locaux sont testés et comparés en utilisant des expériences jumelles avec des modèles de petite et moyenne dimension. Finalement, nous considérons le cas de la prédiction de l'ozone troposphérique en utilisant des mesures de concentration. Plusieurs algorithmes, dont des PF locaux, sont implémentés et appliqués à ce problème et leurs performances sont comparées.
La deuxième partie est dédiée à l'implémentation de la localisation des covariances dans l'EnKF. Nous montrons comment la localisation des covariances peut être efficacement implémentée dans l'EnKF déterministe en utilisant un ensemble augmenté. L'algorithme obtenu est testé au moyen d'expériences jumelles avec un modèle de moyenne dimension et des observations satellitaires. Finalement, nous étudions en détail la cohérence de l'EnKF déterministe avec localisation des covariances. Une nouvelle méthode est proposée puis comparée à la méthode traditionnelle en utilisant des simulation jumelles avec des modèles de petite dimension.
Titre de thèse
Assimilation de données pour des applications micro-météorologiques avec le modèle de mécanique des fluides Code_Saturne
Lieu de soutenance
Amphithéàtre Caquot 2 à l'Ecole des Ponts ParisTech (Champs-sur-Marne)
Jury de thèse
Dr. Sophie RICCI, CERFACS -- Rapporteure
Dr. Alberto MARTILLI, CIEMAT -- Rapporteur
Pr. Chantal STAQUET, LEGI - Université Grenoble Alpes -- Examinatrice
Dr. Olivier TALAGRAND, LMD – CNRS -- Examinateur
Dr. Bertrand CARISSIMO, CEREA – Ecole des Ponts ParisTech et EDF R&D -- Directeur de thèse
Pr. Marc BOCQUET, CEREA – Ecole des Ponts ParisTech et EDF R&D – Co-directeur de thèse
M. Raphaël BRESSON, CEREA – Ecole des Ponts ParisTech et EDF R&D -- Invité
Dr. Patrick ARMAND, CEA DAM/DIF – Invité
Résumé de la thèse
Titre de thèse: Méthodes variationnelles d'ensemble et optimisation variationnelle pour les géosciences
Lieu de thèse: Amphithéâtre Caquot I, à l'Ecole des Ponts ParisTech
Jury de thèse :
Directeurs de thèse :
Marc Bocquet CEREA, École des Ponts Paris Tech
Serge Gratton IRIT, INP Toulouse
Rapporteurs :
Étienne Mémin FLUMINANCE, INRIA Rennes
Yann Michel CNRM, Météo France & CNRS, Toulouse
Examinateurs :
Maëlle Nodet AIRSEA, INRIA Grenoble
Selime Gürol CERFACS, Toulouse
Annick Sartenaer NaXys, Université de Namur
Résumé de thèse
L'assimilation de données consiste à estimer précisément l'état d'un système physique. Cette estimation combine de façon optimale des observations bruitées et des modèles numériques imparfaits permettant de simuler le système physique. En particulier, l'assimilation de données sert à estimer l'état initial d'un système dynamique. Cet état analysé peut ensuite être utilisé pour prévoir le comportement de ce système, notamment dans les systèmes géophysiques où les jeux de données sont conséquents.
Une première approche repose sur une estimation de l'état initial basée sur le principe du maximum a posteriori. Il s'agit alors de résoudre un problème d'optimisation, souvent par des techniques utilisant le gradient des opérateurs. Cette approche, appelée 4DVar, nécessite le calcul de l'adjoint du modèle et de l'opérateur d'observation, ce qui est une tâche consommatrice en temps de développement des systèmes de prévision. Une seconde approche permettant de résoudre séquentiellement le problème d'assimilation est basée sur les techniques dites d'ensemble . Ici, des perturbations a priori de l'état du système permettent d'accéder à des moments statistiques. Ces moments sont alors utilisés dans les formules de Kalman pour obtenir des approximations de l'état du système a posteriori.
Ces deux approches ont été récemment combinées avec succès dans les méthodes de type EnVar aujourd'hui utilisées dans les systèmes opérationnels de prévision. Elles bénécient donc d'une gestion ecace de la non linéarité au travers des méthodes d'optimisation variationnelle et permettent l'estimation de statistiques et de dérivées à l'aide des ensembles. Le lisseur de Kalman d'ensemble itératif (IEnKS, [Bocquet and Sakov, 2014]) est un archétype de ces méthodes EnVar. Pour combiner les deux approches précédentes, il utilise une fenêtre d'assimilation qui est translatée entre chaque cycle. Diérents paramétrages de la fenêtre d'assimilation conduisent à diérentes stratégies d'assimilation non équivalentes lorsque la dynamique du système est non linéaire.
En particulier, les longues fenêtres d'assimilation réduisent la fréquence de l'approximation gaussienne des densités a priori. Il en résulte une amélioration des performances jusqu'à un certain point. Au delà, la complexité structurelle de la fonction de coût met l'analyse variationnelle en défaut. Une solution nommée quasi statique variational assimilation (QSVA) ([Pires et al., 1996]) permet d'atténuer ces problèmes en ajoutant graduellement les observations à la fonction de coût du 4DVar. Le second chapitre de thèse correspondant à la publication [Fillion et al., 2018], généralise cette technique aux méthodes EnVar et s'intéresse plus précisément aux aspects théoriques et numériques du QSVA appliqués à l'IEnKS.
Cependant, l'intérêt du QSVA repose sur l'hypothèse de modèle parfait pour simuler l'évolution de l'état. La pertinence d'une observation temporellement éloignée pour estimer l'état peut être remise en cause en présence d'erreur modèle. Le troisième chapitre est donc consacré à l'introduction d'erreur modèle au sein de l'IEnKS en poursuivant les travaux de [Sakov and Bocquet, 2018, Sakov et al., 2018]. Il y sera donc construit l'IEnKS-Q, une méthode 4D variationnelle d'ensemble résolvant séquentiellement le problème de lissage en présence d'erreur modèle. Avec erreur modèle, une trajectoire n'est plus seulement déterminée par son état initial. Le nombre de paramètres nécessaires à sa caractérisation augmente alors avec la longueur de la fenêtre d'assimilation. Lorsque ce nombre va de pair avec le nombre d'évaluations du modèle, le coût calcul croît considérablement. La solution proposée est alors de découpler ces quantités avec une décomposition des matrices d'anomalies. Dans ce cas, l'IEnKS-Q n'est pas nécessairement plus coûteux que l'IEnKS en terme d'évaluation du modèle.
Références
[Bocquet and Sakov, 2014] Bocquet, M. and Sakov, P. (2014). An iterative ensemble Kalman smoother. Q. J. R. Meteorol. Soc., 140 :15211535.
[Fillion et al., 2018] Fillion, A., Bocquet, M., and Gratton, S. (2018). Quasistatic ensemble variational data assimilation : a theoretical and numerical study with the iterative ensemble Kalman smoother. Nonlinear Processes in Geophysics, 25 :315334.
[Pires et al., 1996] Pires, C., Vautard, R., and Talagrand, O. (1996). On extending the limits of variational assimilation in nonlinear chaotic systems. Tellus A, 48 :96121.
[Sakov and Bocquet, 2018] Sakov, P. and Bocquet, M. (2018). Asynchronous data assimilation with the EnKF in presence of additive model error. Tellus A, 70 :1414545.
[Sakov et al., 2018] Sakov, P., Haussaire, J., and Bocquet, M. (2018). An iterative ensemble Kalman lter in presence of additive model error. Q. J. R. Meteorol. Soc., 144 :12971309. Accepted for publication.