Accueil

english

Prochains exposés

SPOT 90 – Lundi 1 juillet 2024 – Amphi A001

14h : Jonathan Chirinos Rodriguez (University of Genoa)

Machine Learning Techniques for Inverse Problems

Inverse problems serve as a general playground for analyzing many real-world applications. Typical examples are MRI, X-Ray CT, and image recovery. An inverse problem involves reconstructing an unknown source from limited and possibly distorted observations. The so-called data-driven techniques for solving inverse problems have become popular in recent years due to 1. their effectiveness in many practical scenarios and 2. the reduced need for prior knowledge. Yet, few theoretical guarantees have been provided to date. In this talk, we aim to bridge this gap in several key directions.
First, we propose and study a statistical machine learning approach, based on Empirical Risk Minimization (ERM), to determine the best regularization parameter given a finite set of examples. Our main contribution is a theoretical analysis, showing that, if the number of examples is big enough, this approach is optimal and adaptive to the noise level and the smoothness of the solution. We showcase the applicability of our framework to a broad class of inverse problems, including spectral regularization methods and sparsity-promoting norms. Numerical simulations further support and illustrate the theoretical findings.
Moreover, we introduce a data-driven approach for constructing (firmly) nonexpansive operators. We present the utility of such a technique in the context of Plug-and-Play methods, where one proximal operator in classical algorithms such as Forward-Backward Splitting or the Chambolle–Pock primal-dual iteration is substituted by an operator that aims to be firmly nonexpansive. We establish a rigorous theoretical framework for learning such operators using an ERM approach. Further, we derive a solution that is ensured to be firmly nonexpansive and piecewise affine in the convex envelope of the training data. We prove that such an operator converges to the best empirical solution when increasing the number of points inside the envelope. Finally, we propose a practical implementation strategy and an application in the context of image denoising.

15h – Charles Dossal (Institut de Mathématiques de Toulouse)

Un tour d’horizon des résultats récents sur les algorithmes inertiels dans un cadre déterministe

Les algorithmes inertiels pour l’optimisation datent des années 60 avec les travaux de Polyak. L’étude de ces algorithmes a connu un regain d’intérêt ces dernières années après presque 30 ans de somnolence. Alors que le ML nous incite à nous poser la question du non convexe et des algorithmes stochastiques, nous verrons que même dans un cadre aussi simple que celui de l’optimisation convexe déterministe, tous les résultats n’étaient pas connus et que de nombreuses zones d’ombres ont été dissipées ces dernières années par différentes équipes de chercheuses et chercheurs. Ces nouveaux résultats déploient des outils et donnent des clés pour aborder les algorithmes stochastiques et l’optimisation de fonctions non convexes. Cet exposé propose d’y jeter un oeil et de comprendre pourquoi finalement Nesterov et Polyak n’avaient pas déjà fait le tour de la question au début des années 80.


 

Comité local d’organisation

Cf un glossaire expliquant ces sigles et affiliations du système universitaire toulousain.


 Fréquence et structure

Une séance par mois environ, avec deux conférenciers chaque fois (deux conférences de type différent : une orientée fondements et une orientée applications, un conférencier de l’environnement toulousain et un conférencier extérieur, un conférencier du milieu académique et un conférencier du milieu de l’industrie et des services, etc.).

Horaire habituel : le lundi après-midi de 14h à 16h.


Lieu

Sauf indication contraire, à la salle des thèses (C002) à l’ENSEEIHT (N7), 2 rue Charles Camichel, 31000 Toulouse  (métro B, François Verdier). Attention, présentez-vous au poste de garde afin d’accéder au site.