Rechercher


Accueil > Activités > Archives des activités de l’IMB > Archives SPOC

LES SEMINAIRES DE STATISTIQUE, PROBABILITES, OPTIMISATION ET CONTRÔLE


  • Estimer des sommes d’impulsions de Diracs à partir d’observations linéaires en utilisant des méthodes variationnelles convexes a récemment été l’objet de différentes études : il a été montré que si les Diracs sont suffisamment séparés, il est possible d’estimer leurs positions après leur convolution par un filtre passe-bas. Ce problème de super-résolution a de plus été relié à un problème de reconstruction de densité de probabilité à partir de moments empiriques généralisés ("sketches"), qui permet d’effectuer des tâches d’apprentissage statistique à partir de bases de données compressées. Ces résultats suggèrent qu’une somme d’impulsions de Diracs peut être estimée à partir de mesures de Fourier aléatoires au lieu de mesures régulières des basses fréquences. Dans cet exposé, de nouveaux résultats sur l’estimation de sommes de Diracs à partir d’observations de Fourier aléatoires sont présentés. Des expériences illustrent les implications de ces résultats en traitement du signal et en apprentissage statistique. Enfin, le cadre général utilisé pour dériver ces résultats permet d’entrevoir des pistes prometteuses tant pratiques que théoriques pour des problématiques d’estimation en traitement du signal et en apprentissage statistique.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • This talk includes two parts. In the first part, we consider the deterministic 2D Euler equations in the weak vorticity form, and present some known results which serve as the backward of our work. In the second part, we consider the 2D Euler equations perturbed by some suitable noises. In particular, we show that the solution to the corresponding Fokker-Planck equation satisfies a gradient estimate, which might be useful for establishing a uniqueness result.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • L’article de B. Franke, C.-R. Hwang, H.-M. Pai et S.-J. Sheu (2010) donne l’expression asymptotique du trou spectral lorsque le flot sous-jacent de la diffusion est accéléré vers l’infini. Ici, on s’intéresse à la vitesse avec laquelle le phénomène se manifeste. Dans un premier temps, nous étudions le cas particulier d’une diffusion du type Ornstein-Uhlenbeck qui est perturbée par un flot préservant la mesure gaussienne. Dans ce cas, nous pouvons réduire l’étude du spectre du générateur à des valeurs propres d’une famille de matrices. Nous étudions ce problème avec des méthodes de développement limite des valeurs propres.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • We consider the long Brownian bridge started from the origin in hyperbolic space H^d and show that its range, after being suitably renormalised, converges in law to a Brownian continuum tree in the sense of Gromov-Hausdorff. The rough idea of the proof will be talked about, by presenting the convergence, obtained by Bougerol and Jeulin [1], of the radial part ; the invariance property of re-rooting and the hyperbolicity property. The similar idea will be applied to obtain the local convergence of the infinite Brownian loop in hyperbolic space.

    References
    [1] Bougerol, P. and Jeulin, T. (1999) Brownian bridge on hyperbolic spaces and on homogeneous trees. Probab. Theory Related Fields. 115(1), 95-120.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Un problème d’optimisation avec des contraintes en probabilité est de la forme

    min (f (x) | P(g(x, ξ) ≥ 0) ≥ p)

    où x est une variable de décision, f est l’objectif, ξ est un vecteur aléatoire, g est une application de contraintes (aléatoires), P désigne une mesure de probabilité et p ∈ (0, 1) est un niveau de probabilité. Selon l’inégalité en dessus (nommée : contrainte en probabilité) une décision est admissible si et seulement si le système des contraintes aléatoires est satisfait avec une probabilité au moins p. Il y a plein d’applications de cette classe de problèmes d’optimisation, par exemple dans la production d’énergie. Traditionellement, ces problèmes sont formulés et résolus dans le cadre de la recherche opérationnelle avec des décisions en dimension finie. Récemment, un intérêt croissant se manifeste pour des contraintes d’état aléatoires dans l’optimisation sous contraintes d’EDP ce qui demande une nouvelle analyse de continuité, différentiabilité, convexité etc. de tels problèmes dans un contexte de dimension infinie. L’exposé présente des résultats récents [1, 2] dans cette direction avec quelques applications.

    Références
    [1] A. Hantoute, R. Henrion and P. Prez-Aros, Subdifferential characterization of probability functions under Gaussian distribution, submitted.
    [2] M.H. Farshbaf-Shaker, R. Henrion and D. Homberg, Properties of chance constraints in infinite dimensions with an application to PDE constrained optimization, to appear in : Set-Valued and Variational Analysis.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • We obtain Central Limit Theorems in Functional form for a class of
    time-inhomogeneous interacting random walks on the simplex of
    probability measures over a finite set. Due to a reinforcement
    mechanism, the increments of the walks are correlated, forcing their
    convergence to the same, possibly random, limit. Random walks of this
    form have been introduced in the context of urn models and in
    stochastic algorithms. We also propose an application to opinion
    dynamics in a random network evolving via preferential attachment. We
    study, in particular, random walks interacting through a mean-field rule
    and compare the rate they converge to their limit with the rate of
    synchronization, i.e. the rate at which their mutual distances
    converge to zero. Under certain conditions, synchronization is faster
    than convergence. This is joint work with I. Crimaldi, P. Dai Pra and I. Minelli.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Dans cet exposé nous montrerons que les chemins sur les graphes obéissent rigoureusement
    à une extension semi-commutative de la théorie des nombres. Nous montrerons que cette
    extension, complète avec ses éléments premiers, ses fonctions analytiques etc. préserve et
    étend toutes les relations entre les objets fondamentaux de la théorie des nombres. Cette
    approche fournie de nombreux outils nouveaux pour traiter des problèmes en mathématiques
    pures et appliquées. Nous présenterons un rapide tour d’horizon de ces applications, en algo-
    rithmique, calcul différentiel, apprentissage automatique, combinatoire énumérative et analyse
    des réseaux. Nous nous attacherons notamment à démontrer l’utilisation d’un crible de Brun
    non-commutatif sur un graphe pour modéliser les interactions entre une plante et ses pathogènes,
    mieux que l’état de l’art.

    Mot clés : chemins ; cycles simples ; théorie des nombres ; randonnées ; empilements de pièces ; algorithmique ; combinatoire énumérative ; réseaux sociaux ; économiques et biologiques.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • An usual problem in statistics consists in estimating the minimizer of a convex function. When we have to deal with large samples taking values in high dimensional spaces, stochastic gradient algorithms and their averaged versions are efficient candidates. Indeed, (1) they do not need too much computational efforts, (2) they do not need to store all the data, which is crucial when we deal with big data, (3) they allow to simply update the estimates, which is important when data arrive sequentially. The aim of this work is to give asymptotic and non asymptotic rates of convergence of stochastic gradient estimates as well as of their averaged versions when the function we would like to minimize is only locally strongly convex.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • On s’intéresse dans cet exposé à l’introduction d’aléatoire dans des algorithmes d’optimisation numérique étant par ailleurs déterministes. Afin de réduire le coût de ces méthodes, on se propose de garantir certaines propriétés nécessaires à leur convergence uniquement avec une certaine probabilité. L’exposé se concentre essentiellement sur des méthodes dites sans dérivées : dans ce contexte, on montre que de telles variantes probabilistes peuvent être plus performantes que leurs équivalents déterministes, non seulement du point de vue théorique mais aussi au niveau de leur performance pratique. On détaillera l’analyse de ces méthodes ainsi que les outils de théorie de probabilité sur lesquels elle s’appuie, en abordant les problèmes sans et avec contraintes linéaires : la performance du code associé sera également présentée. Enfin, l’exposé se conclura par une présentation de travaux en cours sur l’application de telles techniques aux algorithmes avec dérivées.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • L’information géographique (plus précisément les coordonnées géographiques (x,y)) est une information de plus en plus présente dans les bases de données à notre disposition. Celle-ci peut être mobilisée à l’étape de construction du plan de sondage afin d’en améliorer son efficacité. L’idée sous-jacente étant que si l’on a sélectionné une unité, il est souvent préférable du fait de l’autocorrélation spatiale de ne pas sélectionner l’unité voisine. Les caractéristiques de l’unité voisine étant souvent proche sur certaines caractéristiques (par exemple socio-démographiques) de l’unité sélectionnée, l’apport d’information est alors marginal. Dans cette présentation, une revue d’un certain nombre de méthodes permettant de mobiliser de l’information spatial et/ou de l’information auxiliaire afin de disperser spatialement les échantillons sera réalisée. Ensuite, une étude par simulation sera présentée afin de mettre en évidence les gains supplémentaires apportés en termes de précision par les méthodes d’échantillonnage spatial par rapport à des méthodes plus standards. Enfin, une approximation par Monte-Carlo des probabilités d’inclusion doubles pour la méthode spatialement équilibrée sera présentée dans le but de proposer des estimations de variance dans un contexte d’échantillonnage spatialement équilibré.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Variational methods suffer from inevitable bias. The simplest example
    is l^1 -regularization, which leads to sparse solutions, but however affects
    the quantitative peak values. We present a two-step method to reduce
    bias. After solving the standard variational problem, the key idea is to
    add a consecutive debiasing step minimizing the data fidelity on an appro-
    priate space, the so-called model subspace. Here, these spaces are defined
    by Bregman distances or infimal convolutions thereof, using the subgra-
    dient appearing in the optimality condition of the variational method. In
    particular, they lead to a decomposition of the overall bias into two parts,
    model and method bias, of which we shall tackle the latter. We provide
    numerous examples and experiments to illustrate both the performance
    and the statistical behavior of the method.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • In this talk, I will present some recent results about large deviations on sums of independent random variables and martingales. In particular, I will show an improvement of the classical Beinstein – Cramér - Chernoff bound on large deviations for sums of independent random variables by adding a missing factor ; this result extends Talagrand’s inequality (1995) about the missing factor in Hoeffding’s inequality to non-bounded variables, and improves Talagrand’s inequality to an equality which leads to large deviation expansions similar to those of Cramér (1938), Bahadur-Rao (1960) and Sakhanenko (1991). Large deviation results on martingales, such as exponential and sub-exponential bounds are also presented. (Based on joint work with Xiequan Fan and Ion Grama.)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les jeux à champ moyen (MFG) ont été introduits pour décrire l’équilibre
    de Nash dans des jeux différentiels avec un nombre infini des joueurs.
    Dans des cas simples le modèle devient un système de deux equations
    couplées : une équation d’Hamilton-Jacobi en arrière et une équation de
    Fokker-Plank en avant. Le point de depart de cette etude est que dans
    certains cas le système MFG peut être vu comme un système de deux
    problèmes d’optimization convexe en dualité. Cette formulation nous
    donne une stratégie variationnelle pour étudier la bonne position du
    système des EDP.
    En suivant cette méthodologie, on montre l’existence et l’unicité des
    solutions faibles de quelque jeu à champ moyen, même dégénéré, et
    l’existence des solutions d’un problème MFG modifié qui donne la
    distribution finale et initiale des agents.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Le modèle de Rudin-Osher-Fatemi (1992), l’une des premières méthodes non-linéaires de restauration d’image, doit sa popularité à la capacité de préserver des contours nets et restaurer des images de type "cartoon". De nombreux auteurs, notamment Caselles, Chambolle, Novaga... ont décrit précisément les propriétés de ce modèle, exploitant des liens avec la théorie géométrique de la mesure. Néanmoins, la plupart des résultats concernent les solutions du problème en l’absence de bruit.

    Dans cet exposé, on s’intéressera à la stabilité du modèle en présence de bruit, en particulier en ce qui concerne la géométrie des contours : en quel sens peut-on dire que l’image reconstruite est proche de celle recherchée ? Y a-t-il des artefacts introduits par la méthode ?

    Ce travail a été réalisé avec Antonin Chambolle, Gabriel Peyré et Clarice Poon.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • In this talk we survey some classical and new results regarding the discretization of stochastic optimal control problems. We focus our attention on time-discrete approximations recalling first some classical convergence result for the value function which can be proved by using analytic or probabilistic arguments. Next we discuss the more delicate issue of the convergence of the optimizers as well as an algorithm for the time-discrete problem. The talk is based on an ongoing work with J.-F. Bonnans (INRIA Saclay and Ecole Polytechnique) and Justina Gianatti (CIFASIS).

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Varying coefficient models are simple (concurrent) functional linear regression models for functional responses with many scalar or functional covariates. We study nonparametric estimation of coefficient functions for varying coefficient models in analysing longitudinal/functional data under a certain type of sparsity consideration. The problem of sparse estimation is well understood in the parametric setting as variable selection. Sparsity is the recurrent theme that could also encapsulate interpretability in the face of high dimensional regression. For nonparametric models, interpretability not only concerns the number of covariates involved but also the functional form of the estimates, and so the sparsity consideration is much more complex. To distinguish the types of sparsity in nonparametric models, we call the former global sparsity and the latter local sparsity, which constitute functional sparsity. Most existing methods focus on directly extending the framework of parametric sparsity for linear models to nonparametric function estimation to address one or the other, but not both. We develop a penalized estimation procedure that simultaneously addresses both types of sparsity in a unified framework. We establish asymptotic properties of estimation consistency and sparsistency of the proposed method. Our method is illustrated in simulation study and real data analysis, and is shown to outperform the existing methods in identifying both local sparsity and global sparsity.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Dans cette présentation, je présenterai une analyse de la convergence de l’ADMM (Alternating Direction Method of Multipliers) qui s’attache à minimiser les fonctions composites de la forme f(x) = g(x) + h(Kx). Dans le cas lisse où g et h* sont fortement convexes, on peut démontrer la convergence linéaire de cet algorithme, et en optimiser le taux de convergence. Je proposerai ensuite une variante accélérée de cet algorithme. Une comparaison avec deux autres méthodes connues que sont FISTA et l’algorithme primal-dual PDHG (Primal-Dual Hybrid Gradient) sera également proposée.

    salle 318

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • In the face of high energy consumption of industrial distillation processes and their low thermodynamic efficiency (5-10%), any improvement in the efficiency of these processes results in a significant reduction in energy consumption. Given this need, it is possible to synthesize multicomponent distillation system using distillation columns models with thermal coupling by means of superstructure optimization problem formulation composing a mixed integer non-linear programming (MINLP). The proposed MINLP problems were solved in EMSO software (ALSOC Project - Brazil) using deterministic optimization code (based on BONMIN algorithm) and stochastic (based on particle swarm algorithm). The software found satisfactory results when we used the stochastic code, however using the deterministic code, the software didn’t find viable solution featuring convergence problems. Given the difficulty of solving optimization models using the deterministic code available in solvers library of EMSO software, this work presents a modification of the distillation column model, with similar results comparing the original model and adequate to use in deterministic and stochastic codes.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • De nombreuses applications demandent de pouvoir échantillonner efficacement des mesures de probabilité données sous la forme mu(dx) = exp(-V(x))dx, où le potentiel V peut avoir de nombreux puits.
    Pour permettre à un algorithme de Monte-Carlo de "sortir des puits", diverses méthodes sont utilisées en pratique. L’une d’entre elles, la "métadynamique", consiste à augmenter le potentiel dans les zones beaucoup visitées, ce qui force l’algorithme à les quitter pour en explorer d’autres. Nous étudierons deux modèles simplifiés de cet algorithme pour en souligner les forces et les faiblesses.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle



  • L’ACP robuste est une technique versatile pour eliminer les outliers d’une matrices de donnees de faible rang par optimisation convexe. Nous proposons dans ce travail une analyse tres elementaire de cette technique.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • The group fused lasso (GFL) is a powerful method for analyzing data that have both group structure and natural ordering, for example multivariate time series or gene sequencing data. It is widely used in machine learning, signal processing, and bioinformatics for tasks such as prediction, signal recovery, segmentation, and change point detection.

    This talk will explore GFL in the context of high dimensional time-varying regression. Computationally, GFL is a nonsmooth convex optimization problem for which standard numerical techniques, e.g., proximal algorithms and subgradient methods, are readily available. In high dimension however, these techniques typically require high computational effort and may also suffer from a lack of interpretability. To address these concerns, I will present a fast GFL method based on block coordinate descent, iterative thresholding, and parallel computations. In addition to its speed, the proposed approach produces solutions that strictly enforce structural constraints, e.g., the requirement of global change points in the regression model. This is in contrast to competing methods that only approximately respect structural constraints.

    After discussing methodological and theoretical aspects of the method (updating strategy, convergence analysis, statistical inference…), I will compare it to the state of the art in a numerical study. The method will also be illustrated with resting-state fMRI data in a study of dynamic brain connectivity.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • We consider the problem of estimating the slope function in a functional linear model with a scalar response and a functional covariate. The two most commonly used approaches are based on spectral truncation and Tikhonov regularization of the empirical covariance operator. The latter is the more canonical choice, as it is robust to eigenvalue ties while attaining the asymptotically optimal minimax rate of convergence in mildly ill-posed settings. In this talk, we discuss that, surprisingly, one can strictly improve upon the performance of the Tikhonov estimator while retaining its stability properties by combining it with a form of spectral truncation. Specifically, we construct a hybrid estimator that additively decomposes the functional covariate by projecting it onto two orthogonal subspaces defined via functional PCA ; it then applies Tikhonov regularization to one component, while leaving the other component unregularized. We show that this hybrid estimator enjoys the same minimax optimal rates as the Tikhonov estimator, but that it strictly and uniformly improves upon it in a non-asymptotic sense, for all sufficiently large sample sizes. We discuss the performance of the hybrid estimator by means of simulations and demonstrate that one can make considerable gains even in finite samples.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • La formule d’Eyring-Kramers décrit le temps moyen de transition entre deux états métastables d’une diffusion dans un potentiel à basse température. Dans cet exposé, nous présenterons une dérivation formelle de la généralisation de cette formule à des processus de diffusion pas nécessairement réversibles. Le rôle du potentiel y est joué par le quasi-potentiel introduit par Freidlin et Wentzell. Un terme supplémentaire apparaissant dans la formule caractérise la "non-Gibbsianité" du système.

    S318

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • In this paper, we consider the ergodicity for the three-dimensional stochastic primitive equations of the large scale oceanic motion.

    We proved that if the noise is at the same time sufficiently smooth and non-degenerate, then the weak solutions converge exponentially fast to equilibrium.

    Moreover, the uniqueness of invariant measure is stated.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Dans ce travail, nous nous intéressons au problème de commande optimale en horizon infini. Le problème consiste à minimiser un fonctionnel de coût de type L^p avec 0<p<=1. L’existence de contrôle optimal est analysée différemment pour le cas convexe avec p=1 et le cas nonconvexe avec 0<p<1. D’autre part, nous étudions notamment la parcimonie des solutions optimales générée par le coût L^p. Enfin nous donnerons des exemples numériques de problèmes de contrôles parcimonieux résolus par l’approche Hamilton-Jacobi-Bellman.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • L’objectif de ces travaux est d’améliorer des images numériques issues d’un intensificateur de lumière et destinées à améliorer la vision de nuit des pilotes d’hélicoptère.
    Pour cela, nous réalisons d’abord l’estimation du bruit présent dans les images. Nous avons développé une méthode non paramétrique de détection des zones homogènes dans une image afin d’extraire les statistiques du bruit et estimer la fonction de niveau de bruit via l’estimateur des moindres déviations.
    Cela nous permet ensuite de mettre en place une méthode de débruitage d’images et de séquences d’images qui repose sur une régularisation adaptative des moyennes non locales.
    Enfin, nous nous intéressons à la fusion de capteurs, et nous avons pour cela mis en place une méthode de recalage multimodal basé sur l’alignement des contours présents dans les deux modalités.
    Ces travaux s’inscrivent dans un contexte opérationnel où l’on traite un flux vidéo avec une forte contrainte temps-réel.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Dans un cadre très simplifié, nous étudierons le problème de l’estimation d’un paramètre dans un modèle statistique engendré par l’observation de la trajectoire d’un processus dont le comportement diffère selon l’échelle d’observation, et fournissant plusieurs méthodes d’estimation selon l’échelle à laquelle on se place et ayant leurs avantages et leurs inconvénients propres. Nous mettrons en place une méthodologie simple pour reconstruire de manière "optimale" le paramètre ``à travers les échelles".

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Ces dernières années, les développements en imagerie et en analyse de données se sont accompagnés d’un accroissement de la quantité d’informations à traiter. Ainsi nous assistons à un besoin accru de développement de méthodes rapides et/ou de faible complexité pour la résolution de problèmes d’optimisation de très grande dimension. Une stratégie d’optimisation simple permettant de minimiser la somme d’une fonction de gradient Lipschitz et d’une fonction non lisse est l’algorithme explicite-implicite. Dans cet exposé, plusieurs approches permettant d’en accélérer la convergence et d’en réduire la complexité seront présentées. Une première partie concernera des méthodes de préconditionnement adaptées au traitement de problèmes non convexes, puis une seconde partie sera consacrée à des techniques d’optimisation stochastique pour le cas convexe. L’efficacité des méthodes présentées sera illustrée sur divers problèmes inverses de traitement de données.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Ce travail étudie un algorithme de descente du type "Heavy Ball" introduit par Polyak, qui se réinterprète comme une descente de gradient à mémoire.
    Cette méthode de descente possède l’aptitude particulière d’éviter certains pièges locaux, et opère une descente de gradient non pas dans la direction du point courant mais via une direction moyennant tout le passé de la trajectoire. Physiquement, ceci peut se modéliser par l’algorithme dit boule pesante avec frottement (HBF) et peut être relié à la célèbre méthode de descente de Nesterov. Ces multiples connexions sont possibles en changeant le coefficient de mémoire et la forme qu’il peut prendre.

    Nous proposerons l’étude de ces descentes discrétisées pour deux types de mémoire dans un contexte stochastique, pour lesquelles on n’accède qu’à des évaluations bruitées du gradient à chaque itération de l’algorithme.
    Les vitesses de convergences seront données et comparées avec les bornes théoriques connues. Une étude de la convergence en loi de tels algorithmes sera aussi proposée avec à la clé un théorème central limite surprenant.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • "We consider different classes of random walks on a manifold, where the typical paths are tangent to a given set of vector fields, satisfying Hormander condition. We discuss the convergence of these walks to a limit diffusion, and the associated second order, hypoelliptic operator. We compare the result with the standard sub-laplacians of sub-Riemannian geometry, with the aim to find a good microscopic interpretation for hypoelliptic diffusion. This is a joint work with U. Boscain and R. Neel".

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Cette présentation est centrée sur les modèles de croissance-fragmentation, pouvant servir à modéliser la croissance d’une population de cellules. D’un point de vue stochastique, nous nous intéressons à un système de particules évoluant à travers deux phénomènes. D’une part, les particules évoluent de façon déterministe (elles vieillissent, elles croissent). D’autre part, les particules se divisent au bout d’un temps aléatoire : une particule d’âge a ou de taille x se divise en deux nouvelles particules (d’âge 0, de taille initiale x/2) selon un taux de division B(.) dépendant de l’âge a ou de la taille x de la particule. Un objectif majeur est alors de reconstruire de façon non-paramétrique le taux de division.
    Dans une première partie, une étude générale sur les chaînes de Markov bifurquantes, autrement dit adaptées à la structure d’arbre binaire, est menée. Cette étude nous permet de reconstruire de façon adaptative un taux de division dépendant de la taille à partir de l’observation des tailles à la naissance de toutes des cellules jusqu’à une génération fixée dans l’arbre généalogique de la population.
    Dans une seconde partie, je présenterai l’estimation du taux de division dépendent de l’âge, à partir de l’observation du système en temps continu entre les instants 0 et T. Des difficultés sont intrinsèquement liées au cadre du temps continu, dont un phénomène de biais de sélection.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Dans cet exposé, nous nous intéresserons à l’estimation de la fonction de répartition et à la fonction de régression d’une variable réelle Y conditionnellement à une variable X à valeurs dans un espace de Hilbert (typiquement un espace de fonctions). Dans ce cadre-là, Ferraty et al. (2006, 2010) ont défini des estimateurs à noyau, de type Nadaraya-Watson. Nous étudierons dans un premier temps, d’un point de vue non-asymptotique, la décomposition biais-variance du risque de tels estimateurs puis nous proposerons une méthode de choix de la fenêtre par une méthode inspirée des travaux de Goldenshluger et Lepski (2011). Nous prouvons que l’estimateur obtenu atteint, à une perte log près, le meilleur compromis biais-variance ainsi que la vitesse minimax de convergence sous diverses hypothèses portant sur la loi de X. Nous évoquerons ensuite brièvement les problématiques liées au choix de la semi-norme dans le noyau, puis nous illustrerons numériquement et sur des données réelles les performances des estimateurs. Ce travail est en collaboration avec Gaëlle Chagny (LMRS,Université de Rouen).

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Cette présentation introduit une nouvelle methode pour approximer numériquement les solutions d’EDPs elliptiques dépendentes d’un nombre dénombrable de paramètres. La methode s’appuie sur une decomposition du domaine dans des espaces imbriqués, ainsi que sur la compressibilité du développement en série de Tschebycheff de la solution.
    En utilisant des techniques issues de l’echantillonage parcimonieux (compressed sensing) on montre qu’il est possible d’approcher la solution en norme L2 et L infinie avec une précision prédéfinie en évaluant la solution principalement sur un domaine de discrétisation grossier. La solution est ensuite raffinée petit à petit tout en réduisant le nombre d’évaluations à chaque niveau.
    On montre que la complexité totale est comparable à l’effort requis pour l’évaluation d’une seule solution sur le domaine de discrétisation le plus fin.
    Ce travail est basé sur une collaboration avec Holger Rauhut, RWTH Aachen et Christoph Schwab, ETH Zurich.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Realized statistics based on high frequency returns have become very
    popular in financial economics. In recent years, different non-parametric
    estimators of the variation of a log-price process have appeared. Among
    them are the realized quadratic (co-)variation which is perhaps the most
    well known example, providing a consistent estimator of the integrated
    (co-)volatility when the logarithmic price process is continuous. In this
    paper, we propose to study the large deviation properties of realized
    (co-)volatility. More specifically, we consider a bivariate model with
    synchronous observation schemes and correlated Brownian motions of the
    following form : $dX_\ell,t =
    \sigma_\ell,tdB_\ell,t+b_\ell(t,\omega)dt$ for $\ell=1,2$, where
    $X_\ell$ denotes the log-price, we are concerned with the large
    deviation estimation of the vector
    $V_t^n(X)=\left(Q_1,t^n(X), Q_2,t^n(X), C_t^n(X)\right)$ where
    $Q_\ell,t^n(X)$ and $C_t^n(X)$ represente the estimator of the
    quadratic variational processes $Q_\ell,t=\int_0^t\sigma_\ell,s^2ds$
    and the integrated covariance
    $C_t=\int_0^t\sigma_1,s\sigma_2,s\rho_sds$ respectively, with
    $\rho_t=cov(B_1,t, B_2,t)$. Our main motivation is to improve upon the
    existing limit theorems such as the weak law of large numbers or the
    central limit theorem which have been proved in different contexts. As an
    application we provide the large deviation for the standard dependence
    measures between the two assets returns such as the realized regression
    coefficients up to time $t$, or the realized correlation.
    We will also prove the same results for the threshold estimator in the
    presence of the jump component. Our study should contribute to the recent
    trend of research on the (co-)variance estimation problems, which are
    quite often discussed in high-frequency financial data analysis."

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Cet exposé est consacré au modèle de Mumford-Shah pour le problème de segmentation de fines structures, comme des tubes ou des plaques minces, dans une image 3-D. À partir d’une interprétation géométrique des paramètres du modele, une nouvelle approche sera proposée. L’ingrédient principal est l’introduction d’un milieu anisotrope. L’analyse de ce nouveau modèle de Mumford-Shah anisotrope sera conduite, avec des approximations par gamma-convergence et des résultats de régularité pour les minimiseurs.

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    Salle 318

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    Salle René Baire

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Les responsables du séminaire sont Alexandre Cabot et Yoann Offret Le séminaire a lieu habituellement le mercredi 10h30-11h30 en salle 318
    les prochaines séances planifiées sont listées ci-dessous, tandis que les séances qui ont déjà eu lieu sont consultables sur la page (...)

    Salle René Baire

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • Résumé : Dans cet exposé, je vais faire une étude asymptotique et non-asymptotique des estimateurs des fonctions d’auto-régression dans un modèle bifurcant autorégressif non-linéaire que nous avons introduit dernièrement. Il s’agit des estimateurs de type Nadaraya-Watson que nous adaptons à la structure d’un arbre binaire régulier. L’étude non-asymptotique comprend le contrôle des bornes supérieures et des bornes minimax de convergence de nos estimateurs. L’étude asymptotique comprend principalement la normalité asymptotique des nos estimateurs et ceci me permettra de construire un test d’asymétrie permettant de différencier les fonctions d’auto-régression.

    Salle René Baire

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle


  • We consider a special class of stochastic differential equations (SDEs) and study the dynamic behavior regarding conjugacy of solution of Marcus type SDEs driven by Lévy processes and solutions of certain RDEs. Moreover we consider local linearization (similar to the Hartman—Grobman theorem). Furthermore we consider Marcus type SDEs with memory (stochastic delay differential equations) and give the main idea to prove existence and the so—called cocycle property.

    Salle 318

    | Séminaires : Statistique, Probabilités, Optimisation et Contrôle