Société de Mathématiques Appliquées et Industrielles

10e rencontre Math-Industrie. Résumés


Programme

Evaluation des Risques


  • Etienne de ROCQUIGNY (EDF)

Vers une modélisation généralisée des risques industriels et environnementaux.

La modélisation des risques dans les domaines industriels, environnementaux et sanitaires subit une évolution accélérée grâce au développement des modèles phénoménologiques, des moyens de calcul à haute performance et de l’acquisition de données. La convergence s’amorce entre des domaines mathématiques souvent séparés dans les applications : les mathématiques de la sûreté de fonctionnement, celles des sciences de l’ingénieur (EDP et calculs de champ, EDO ...), le calcul probabiliste et l’estimation statistique avancée (bayésienne, valeurs extrêmes), l’optimisation (méthodes inverses, contrôle optimal et assimilation, programmation dynamique) et la théorie de la décision. Un cadre générique de modélisation est proposé sur la base de mesures de risque généralisées. Quelques résultats et défis mathématiques sont introduits en lien avec les domaines émergents suivants : calcul de risques rares ; calibration et sélection robuste de modèles ; modélisation phénoménologique des évènements extrêmes ; options réelles à base fiabiliste et optimisation stochastique. Des démonstrateurs récents illustreront le propos.


  • Daniel AVERBUCH (IFP)

Méthodes d’analyse de risques pour la production pétrolière offshore

Cet exposé présente des méthodes développées à l’IFP pour évaluer l’impact de risques de natures diverses sur un système de production pétrolier offshore. Ces risques peuvent être liés à des défaillances des équipements ou à des problèmes de maintien de la production (flow assurance). Ces derniers phénomènes, liés à la nature du fluide et aux conditions d’écoulement sont très importants dans les critères de
conception des installations. Cependant, si les risques liés aux défaillances des équipements peuvent être pris en compte de manière conventionnelle par des méthodes de réseaux de Petri stochastiques, la représentation des risques liés aux phénomènes physiques affectant potentiellement l’écoulement est plus complexe. En effet, ceux-ci sont représentés par des modèles physiques relativement coûteux en temps calcul, et incompatibles en l’état avec les méthodes de Monte-Carlo.

L’approche proposée repose donc sur un couplage de techniques de réseaux de Petri stochastiques, avec des modèles de surfaces de réponse représentant les phénomènes physiques liés à l’écoulement.

Cette méthode est présentée et illustrée sur un cas typique de production
pétrolière offshore.


  • Guillaume PEPIN (ANDRA)

Evaluation de performance/sûreté d’un stockage de déchets radioactifs : traitement des incertitudes et analyse de sensibilité

L’Agence Nationale pour la gestion des Déchets Radioactifs (ANDRA) réalise des simulations numériques depuis de nombreuses années dans le cadre du suivi des centres de stockage en exploitation (déchets de très faible et faible activité des centres de stockage de surface Manche et Aube) et dans le cadre des projets de futurs stockages en formation géologique (déchets Haute et Moyenne Activité à Vie Longue et déchets de faible activité à vie longue). S’appuyant sur des travaux d’acquisition de connaissances scientifiques et technologiques, ces simulations numériques contribuent (i) à la description du fonctionnement phénoménologique des installations et de leur environnement géologique, par la quantification des processus physico-chimiques (thermique, mécanique, hydraulique, chimiques, radiologiques, relâchement et transfert des radionucléides) affectant les ouvrages de stockage et leur environnement) (ii) à la conception et au dimensionnement des composants des stockages et (iii) aux évaluations de sûreté en exploitation et en post fermeture, notamment la quantification d’indicateurs relatifs à la performance des composants du système de stockage et in fine des impacts radiologique et chimique des stockages. Il s’agit alors de s’assurer du respect des objectifs de radioprotection en fonctionnement normal et en fonctionnement altéré des installations.

Dans le cadre des calculs de sûreté post fermeture, l’Andra mène une démarche de quantification des différentes incertitudes, en exploitant des méthodes déterministes et probabilistes, dont les objectifs sont d’identifier (i) l’incertitude des indicateurs calculés et (ii) les paramètres les plus influents sur les résultats.

L’exposé s’attachera à montrer le type de simulations numériques menées en terme de calculs de performance et d’impact, la méthodologie de traitement des incertitudes retenue en fonction de la complexité des calculs, et quelques exemples de résultats relatifs à l’évaluation de performance et de sûreté d’un stockage de déchets radioactifs en formation géologique profonde.


  • E. DUCEAU, F. MANGEANT (EADS)

Maîtrise des risques industriels : le point de vue de l’intégrateur de systèmes.


  • Emmanuel BUISSON – Dr Physique de l’Atmosphère, Vivien CLAUZON – Dr Mathématiques Appliquées, (NUMTECH)

Dispersion des gaz et particules dans des écoulements atmosphériques complexes.

L’étude de la dispersion atmosphérique ou plus généralement de l’écoulement atmosphérique, repose aujourd’hui sur une interdisciplinarité importante, tant dans le contexte opérationnel que celui de la recherche.
L’intérêt des industriels et des chercheurs dans le domaine se porte à la fois sur l’amélioration et le
développement de modèles physiques complexes, sur l’étude et la conception de méthodes numériques
robustes et précises et sur l’implémentation et l’optimisation d’algorithmes efficaces sur un matériel adapté.

Selon l’échelle traitée, les modèles physiques diffèrent et s’adaptent de sorte à fournir une modélisation
des phénomènes de sous maille optimale (en espace et en temps). Les méthodes numériques utilisées sont
choisies en fonction de leur robustesse et de leur capacité à représenter correctement les phénomènes
représentatifs de l’échelle étudiée. Enfin, les algorithmes mis en Å“uvre permettent la parallélisation à plus ou
moins gros grain du problème et sont adaptés à l’architecture matérielle utilisée.

Chacune de ces disciplines introduit un certain type d’approximations et d’incertitudes dans la chaîne
de modélisation et de simulation. Ces incertitudes sont étudiées et parfois contrôlées, voir même utilisées de
sorte à réaliser une prévision de meilleure qualité. Les principales causes d’incertitudes sont la connaissance
très éparse des conditions initiales et des conditions aux limites (assimilation de données), les paramètres
empiriques présents dans de nombreux modèles physiques, les approximations liées aux méthodes
numériques (troncature en fréquence, dissipation numérique, …) ainsi que les erreurs numériques (et les bugs !).

La chaîne de modélisation/simulation globale, utilisée par NUMTECH, est composée d’un modèle
météorologique à l’échelle synoptique (prévision à l’échelle de la planète), d’un modèle météorologique à méso-
échelle (modèle à aire limitée), d’un modèle de météorologie ou d’écoulement à l’échelle locale (forte influence
de la topographie ou des sources de chaleur locale) et d’un modèle de dispersion des polluants (modèle de
panaches gaussiens, de bouffées gaussiennes, de dispersion lagrangienne, ou eulérienne). Ces modèles, leur
finesse notamment, sont principalement choisis en fonction des contraintes industrielles opérationnelles (parfois
très fortes) : le prix de l’étude, le temps affecté pour cette étude, le besoin de précision souhaitée, …

Au cours de l’exposé, nous nous attacherons à décrire l’ensemble de la chaîne de modélisation/simulation en faisant ressortir les besoins et les contraintes liés au caractère opérationnel de sa mise en Å“uvre. Le triangle physique/mathématique/informatique sera présent tout au long de la présentation et on s’attachera à démontrer par l’exemple que l’un de ces domaines ne va pas sans les autres lorsqu’il est question de simulation de la dispersion atmosphérique à l’échelle industrielle.


  • Pr Didier GUILLEMOT (PhEMI, Institut Pasteur / U657, INSERM / UFR PIFO, UVSQ)

Recherche épidémiologique, mathématique et santé publique.

Il y a 2 perspectives à la recherche épidémiologique. La première vise à comprendre les mécanismes biologiques en Å“uvre dans la survenue des maladies. La seule différence avec les autres disciplines scientifiques des sciences du vivant appliquées à la santé humaine, est que son point de vue est populationnel. Il s’agit de comprendre des phénomènes physiopathologiques par une analyse des phénomènes sur un grand nombre d’individus. La seconde est dédiée à la décision de santé publique. En ce sens, il est classique de présenter l’épidémiologie comme la discipline scientifique qui devrait être la plus proche des décideurs de santé publique.
Il est possible de dater à 1760 le premier travail de modélisation mathématique appliquée à une question de santé publique. Il fut mené par Daniel Bernoulli, fils de Jean Bernoulli. L’intention était de prédire l’impact que pourrait avoir la vaccination par inoculation contre la variole.
S’il on considère que modéliser consiste à « convertir un problème concret, issu du monde réel, en termes de nature mathématique  » (Bernard Beauzamy, 2001), il existe historiquement 2 approches de modélisation en recherche épidémiologique.

La première consiste à partir directement de données et à les convertir en un modèle statistique. Ceci en vue d’identifier et de mesurer des associations entre les informations recueillies généralement par l’analyse des corrélations entre celles-ci. Il s’agit en fait d’une approche pragmatique et empirique très utilisée en recherche épidémiologique. Son intérêt repose sur 2 hypothèses : (i) une maladie ne survient pas par hasard, (ii) il n’est nul besoin d’en connaître les mécanismes pour en identifier des maillons de la chaine causale. C’est par exemple cette approche qui permet d’incriminer tel ou tel aliment dans la responsabilité d’une épidémie alimentaire. Bien sur, sa principale limite tient justement au fait que l’approche n’est pas « mécanistique  ». L’inférence causale est totalement externe à l’analyse

La seconde consiste à partir d’un problème (par exemple l’émergence et la dissémination de bactéries résistantes) et de le transformer en termes mathématiques après avoir émis des hypothèses de relation causales entre les différents états de maladie dans lesquels se trouvent les individus ou les populations. Il s’agit d’une approche déterministe mais nécessairement simplificatrice de la réalité.

A partir d’exemples historiques ou portant sur des phénomènes de santé émergents ou ré-émergents, seront abordés dans la présentation, certains des enjeux et des futurs possibles de ces approches à la fois en termes de recherche et en termes plus opérationnels, la nécessité d’en accroître l’articulation de la recherche épidémiologique avec les mathématiques appliquées, mais aussi les résistances à s’engager dans cette voie.


  • Jean Sébastien LAGACE (AXA)

Modélisation et couverture du risque catastrophe : une R&D alignée aux problématiques opérationnelles d’AXA.

Cette présentation animée par AXA exposera les problématiques opérationnelles liées à la modélisation et couverture du risque catastrophes naturelles. Pour ce faire, AXA présentera les techniques actuellement utilisées pour modéliser et/ou couvrir ce risque au sein du Groupe et identifiera les axes de recherche futurs devant permettre de répondre aux problématiques opérationnelles soulevées.

[jeansebastien.lagace@axa.com]


Accueil du site | Contact | Coordonnées | Plan du site

Site réalisé avec SPIP + AHUNTSIC