Axe 2 : Modèles, Prédictions et Incertitudes sur les Systèmes Complexes

- Responsables : Dominique Gibert (GR), Marie-Odile Cordier (IRISA)
- Animateurs : Jean-Raynald de Dreuzy, Gérard Le Caër, Dominique Gibert, Jocelyne Erhel, Roger Lewandowski, Marie-Odile Cordier, Alfredo Hernandez, Pascal Redou, Sean McNamara, Dominique Wolbert
- Autres : Cédric Wolf

Thématiques

- Problème inverse – critique des présupposés de modélisation, qualité des données et prédiction
- Modèles d’organisation, d’hétérogénéités et effets d’échelle
- Effets coopératifs, auto-organisation, et instabilités
- Méthodes de simulations (graphe, population, …)

Descriptif

L’approche numérique est un outil essentiel, autant cognitif que prédictif, pour simuler et comprendre les systèmes complexes. A de rares exceptions près, les modèles numériques utilisés ne peuvent fournir qu’une description grossière des milieux vis-à-vis de leur hétérogénéité et de la complexité des phénomènes. Le développement de nouvelles méthodes est donc extrêmement important et peut prendre deux orientations possibles : la réduction de la complexité, qui est une démarche autant théorique (homogénéisation, changement d’échelle) que numérique, et le développement de nouvelles méthodes de calcul massivement parallèles.

Les exemples développés au sein du réseau RISC-E sont nombreux. La très forte hétérogénéité du sous-sol géologique reste un verrou pour la modélisation des transferts hydrogéologiques. La dynamique des milieux granulaires présente une richesse de comportements (instabilités, effets coopératifs, hétérogénéités dynamiques dans les écoulements gravitaires ou lors d’une réorganisation forcée) qui ne peuvent être simulés que par des méthodes spécifiques telles que la dynamique moléculaire et les automates cellulaires. Les écoulements turbulents, ubiquistes dans les milieux naturels, restent trop complexes pour un modélisation complète ; le défi est de développer des modèles approchés qui restent pertinents pour l’application ciblée (ne suivre que les quantités moyennées, ou filtrer les plus petites échelles dans les simulations grandes échelles).

Ces différentes complexités ont un certain nombre de points communs :

  • Chacun des modèles doit être validé mathématiquement et physiquement, que ce soit par preuve de convergence ou par comparaison qualitative ou quantitative avec des résultats d’expérience.
  • La première utilisation des modèles ainsi validés est l’étude du comportement des systèmes complexes souvent plus simple numériquement qu’expérimentalement. Il s’agit notamment de capturer l’essence des phénomènes et le caractère universel qu’ils peuvent présenter.
  • Le problème inverse, c’est-à-dire la calibration de modèles prédictifs, reste extrêmement difficile pour la plupart des systèmes naturels. La paramétrisation des modèles est un problème à part entière qui consiste à trouver la bonne description des milieux tout en restant compatible avec la densité de données. La résolution du problème inverse est aussi extrêmement difficile par sa complexité numérique (problème np-complet) ; elle nécessite la mise au point de stratégies d’optimisation.

Que ce soit pour la contamination des aquifères naturels, l’économie d’énergie dans la pêche industrielle ou le déclenchement des avalanches par des forçages externes, la prédiction n’est qu’une approximation et s’accompagne de la définition de l’incertitude. Fondamentalement, l’incertitude est associée au modèle numérique lui-même, à l’imperfection de la calibration et très souvent à l’absence d’une connaissance exhaustive de l’hétérogénéité et de la dynamique physique du système étudié. La nécessité d’estimer l’incertitude transforme la démarche de modélisation en ce qu’elle lui associe à chaque étape un impératif de mesure de sa correspondance avec la réalité.

Mis en ligne le jeudi 16 septembre 2010