Société de Mathématiques Appliquées et Industrielles
Accueil du site > Manifestations de la SMAI > 1ère journée MAS-MODE 2017

1ère journée MAS-MODE 2017

Première journée MAS-MODE organisée le 9 janvier 2017 à l’IHP (amphi Hermite).

Les deux communautés autour des groupes thématiques MAS (Modélisation Aléatoire et Statistique) et MODE (Mathématiques de l’Optimisation et de la Décision) de la SMAI ont un nombre croissant d’intérêts scientifiques communs, tant du point de vue des concepts que des applications. Citons :
 l’analyse des données
 l’apprentissage et la classification
 l’optimisation convexe et la recherche opérationnelle en statistique
 l’optimisation stochastique
 les algorithmes stochastiques en optimisation
 le transport optimal et les probabilités

Cette première journée commune, organisée grâce au soutien de la SMAI, fut l’occasion d’écouter des spécialistes de ces sujets.

Programme de la journée :

09:00-09:30 Accueil

09:30-10:15 Christian Léonard (Nanterre) - Approximations d’interpolations par déplacement par des interpolations entropiques

Présentation ici.

Résumé : Le problème de Schrödinger est un problème de minimisation d’entropie sur un ensemble de mesures de chemins dont les marginales initiale et finale sont prescrites. Il est issu d’un principe de grandes déviations pour des mesures empiriques de grands systèmes de particules. Ralentir la dynamique, tout en gardant les contraintes marginales fixes, induit un second niveau de grandes déviations et permet de construire une suite, indexée par le paramètre de ralentissement, de problèmes de Schrödinger qui Gamma-convergent vers un problème de transport optimal. Nous illustrerons ce phénomène dans le cadre des interpolations par déplacement L2 dans Rd et L1 sur des graphes.

10:15-10:45 Pause-café

10:45-11:30 Patrick L. Combettes (Raleigh) - Fonctions Perspectives et Statistique en Grande Dimension

Présentation ici.

Résumé : Nous proposons une étude détaillée des fonctions perspectives et de leurs aspects proximaux et ouvrons un nouveau champ d’application en statistique de grande dimension.

11:30-12:15 Peggy Cénac (Dijon) - Algorithmes rapides pour l’estimation de la médiane géometrique et la classification non-supervisée "robuste" en grande dimension

Résumé : Dans de grandes masses de données en grande dimension, la détection automatique de points atypiques est souvent délicate. Ces points, même s’ils sont peu nombreux, peuvent fortement perturber des indicateurs simples tels que la moyenne ou la covariance. Cet exposé se concentre sur des estimateurs robustes, qui ne sont pas trop sensibles aux données atypiques, de la médiane géométrique. Plus précisément, il est question d’un algorithme de Robbins-Monro ainsi que de sa version moyennisée. Nous présenterons les propriétés asymptotiques de ces estimateurs, des inégalités de concentration et des boules de confiance pour la médiane. Travail en collaboration avec Hervé Cardot et Antoine Godichon-Baggioni.

Pause-déjeuner

14:00-14:45 René Henrion (Berlin) - Contraintes en probabilité : formules du gradient et applications

Présentation ici.

Résumé : Les contraintes en probabilité représentent un modèle de base de l’optimisation stochastique. Elles permettent de trouver sans coûts excessifs des décisions robustes par rapport à l’action des aléas. Le défi principal de ce type de contraintes repose sur le fait qu’elles ne sont pas données par une formule explicite. L’exposé se consacre au calcul de la valeur et du gradients d’une contrainte en probabilité dans le cas d’une loi multivariée Gaussiennes. Une application à un problème du réseau de gaz sous demandes aléatoires sera présentée.

14:45-15:30 Gersende Fort (Paris) - Inférence dans les modèles à données cachées par des algorithmes gradient-proximaux perturbés

Résumé détaillé ici et présentation ici.

Résumé : L’inférence paramétrique par maximum de vraisemblance pénalisé dans les modèles à données cachées, est habituellement résolue par des algorithmes de type Expectation Maximization (EM) couplé à ds approximations stochastiques. Dans le cas de pénalité convexe non régulière, nous montrerons le lien entre ces algorithmes et les algorithmes gradient-proximaux perturbés, la perturbation portant sur l’étape de gradient. Nous présenterons par ailleurs des conditions suffisantes de convergence des algorithmes gradient-proximaux perturbés, dans le cas convexe, l’originalité de nos résultats étant de donner des conditions réalistes sur la perturbation pour traiter notamment le cas d’approximations stochastiques biaisées du gradient. Nous discuterons de la mise en oeuvre des approximations stochastiques : doit-on choisir un pas constant ou un pas décroissant dans l’étape de gradient ? doit-on construire des approximations avec des sommes de Monte Carlo à nombre croissant ou constant de termes ? Travaux en collaboration avec Yves Atchadé (Univ. Michigan, USA), Eric Moulines (CMAP, Ecole Polytechnique), Edouard Ollier (UMPA, ENS Lyon) et Adeline Leclercq-Samson (LJK, Univ. Grenoble Alpes).

15:30-16:00 Pause-café

16:00-16:45 Anatoli Juditsky (Grenoble) - Near-Optimality of Linear Recovery in Gaussian Observation Scheme under $\ell_2$-Loss

Présentation ici.

Résumé : We consider recovering linear image $Bx$ of a signal $x$ known to belong to a given convex compact set $X$ from indirect observation $\omega=Ax+\sigma\xi$ of $x$ corrupted by Gaussian noise $\xi$. It is shown that under some assumptions on $X$ (satisfied, e.g., when $X$ is the intersection of $K$ concentric ellipsoids/elliptic cylinders), an easy-to-compute linear estimate is near-optimal in terms of its worst-case, over $x\in X$, expected $|\cdot|_2^2$-loss. The main novelty here is that the result imposes no restrictions on $A$ and $B$. To the best of our knowledge, preceding results on optimality of linear estimates dealt either with one-dimensional $Bx$ (estimation of linear forms) or with the diagonal case'' where $A$, $B$ are diagonal and ${\X}$ is given by aseparable’’ constraint like $X={x :\sum_ia_i^2x_i^2\leq 1}$ or $X={x :\max_i|a_ix_i|\leq1}$. Joint work with A. Nemirovski (Georgia Tech).

16:45-17:00 Clôture


Accueil du site | Contact | Coordonnées | Plan du site

Site réalisé avec SPIP + AHUNTSIC