Probabilistic hydrogeological and geophysical inversion with deep generative models
Geosciences Conference in Rennes, by Niklas LINDE (University of Lausanne)
Venerdì 23 gennaio, 11:00

Deep generative modeling is transforming science and society. In hydrogeology, it can encode complex geological information into a prior probability density function (pdf) that one can easily sample from, thereby, enabling inversion and uncertainty quantification far beyond standard geostatistical settings. I begin by showcasing early work on inverting the latent variables of variational autoencoders or generative adversarial networks using Markov chain Monte Carlo (MCMC). I explain how the high computational costs of such approaches can be circumvented by employing variational Bayesian methods that optimize the parameters describing a normalized flow from the prior to the posterior pdf. Approaching the current state-of-the-art in deep generative modeling, I introduce an approximate and fast technique to sample from the posterior pdf using diffusion models. I then briefly introduce the more general stochastic interpolants and conditional flow matching techniques. My exposé includes synthetic examples involving transient hydraulic tomography, tracer test data, and different types of geophysical data. I end by discussing the main challenge in moving towards field examples, namely, the limited amount of reliable training data to train deep generative models.
Inversion hydrogéologique et géophysique probabiliste à l'aide de modèles génératifs profonds
Conférence de Géosciences Rennes, par Niklas LINDE (Université de Lausanne)
Venerdì 23 gennaio, 11:00

La modélisation générative profonde transforme la science et la société. En hydrogéologie, elle permet d'encoder des informations géologiques complexes dans une fonction de densité de probabilité a priori (pdf) à partir de laquelle on peut facilement prélever des échantillons, ce qui permet une inversion et une quantification de l'incertitude bien au-delà des paramètres géostatistiques standard. Je commence par présenter les premiers travaux sur l'inversion des variables latentes des auto-encodeurs variationnels ou des réseaux antagonistes génératifs à l'aide de la méthode de Monte Carlo par chaîne de Markov (MCMC). J'explique comment les coûts de calcul élevés de ces approches peuvent être contournés en utilisant des méthodes bayésiennes variationnelles qui optimisent les paramètres décrivant un flux normalisé de la pdf a priori à la pdf a posteriori. À l'approche de l'état de l'art actuel en matière de modélisation générative profonde, je présente une technique approximative et rapide pour échantillonner à partir de la pdf a posteriori à l'aide de modèles de diffusion. Je présente ensuite brièvement les interpolants stochastiques plus généraux et les techniques de correspondance de flux conditionnelle. Mon exposé comprend des exemples synthétiques impliquant la tomographie hydraulique transitoire, des données de tests de traceurs et différents types de données géophysiques. Je termine en discutant du principal défi à relever pour passer à des exemples concrets, à savoir la quantité limitée de données d'apprentissage fiables pour entraîner les modèles génératifs profonds.