Aller au menu Aller au contenu Aller à la recherche
aA - +Imprimer la page
Chargement Évènements

« Tous les Évènements

  • Cet évènement est passé

Différentiation implicite pour la sélection des hyperparamètres en apprentissage convexe et non-lisse

12 mai 2021 @ 08:15 -09:15

Speakers: Quentin Klopfenstein (IMB, Université de Bourgogne)
Trouver la valeur optimale d’hyperparamètres pour un modèle d’apprentissage automatique peut être écrit comme un problème d’optimisation à deux niveaux. Ce problème d’optimisation est très souvent résolu en utilisant des techniques de grid-search, random-search ou de l’optimisation bayésienne. Toutes ces méthodes peuvent être vues comme de l’optimisation à l’ordre zéro (sans l’information du gradient) mais sont difficilement utilisables lorsque le nombre des hyperparamètres à sélectionner devient grand. Des méthodes d’optimisation du premier ordre peuvent surmonter ces difficultés : l’étape clés étant le calcul des hypergradients, i.e. des gradients en fonction des hyperparamètres. Ces méthodes ont été très étudiées pour des modèles basés sur des problèmes d’optimisation lisses, cependant la littérature concernant les problèmes d’optimisation non lisses est plus rare.

Dans ce travail, nous proposons différentes méthodes pour calculer des hypergradients lorsque le problème d’optimisation sous-jacent est convexe mais non lisse.

Nous appliquons ensuite ces résultats pour la sélection des hyperparamètres sur des modèles de régression et de classification. Nous obtenons ainsi des gains significatifs en rapidité de calcul, en particulier lorsque le nombre d’hyperparamètres est grand.
https://indico.math.cnrs.fr/event/6613/

Détails

Date :
12 mai 2021
Heure :
08:15 -09:15
Catégorie d’Évènement:
Site :
https://indico.math.cnrs.fr/event/6613/

Lieu

René Baire (IMB)
René Baire (IMB) + Google Map
wpea_event_id:
indico-event-6613@indico.math.cnrs.fr
wpea_event_origin:
ical
wpea_event_link:
https://indico.math.cnrs.fr/event/6613/

Log In

Create an account