Théorie de l'Optimisation avec Applications

Optim
Abstract

Ce cours explore les techniques d’optimisation en mettant l’accent sur l’optimisation convexe et non convexe, les méthodes SG-MCMC (Stochastic Gradient Markov Chain Monte Carlo), les algorithmes évolutifs et l’apprentissage par renforcement. Le programme combine des cours théoriques avec des travaux pratiques pour doter les étudiants des connaissances et des compétences nécessaires pour appliquer des techniques d’optimisation dans divers domaines.

Modalités pédagogiques : 

Le cours sera divisé en 7 séances théoriques de 3 heures chacune, avec une combinaison de discussions théoriques et d’exercices pratiques. Chaque séance sera structurée de manière à fournir un mélange de théories fondamentales, de sujets avancés et d’applications pratiques.

Règles du cours : La participation aux cours et aux travaux dirigés n'est pas obligatoire mais fortement recommandée.

Requirements

Calcul multi-variant, bases de la proabilité

Description

Introduction à l’optimisation
    • Théorie :
        Introduction de l’optimisation convexe.
        Techniques courantes pour les problèmes convexes.
        Introduction à l’optimisation non convexe : défis.
    • Travaux pratiques :
        Introduction aux logiciels et outils d’optimisation Python.
        Résoudre des problèmes d’optimisation convexe de base à l’aide de méthodes numériques. (C’est facile, mais montre que la vie non-convexe est plus difficile)
Descente de gradient stochastique (SGD) et ses variantes
    • Théorie :
        Examen de SGD.
        Perspective temporelle continue : SGD comme équation différentielle stochastique.
        Variantes de SGD : momentum, accélération de Nesterov et Adam.
    • Travaux pratiques :
        Mise en œuvre de SGD et de ses variantes.
        Comparaison empirique de différentes techniques d’optimisation sur des problèmes de référence.
Méthodes d’optimisation bayésienne et de gradient stochastique MCMC (SG-MCMC)
    • Théorie :
        Principes fondamentaux de l’optimisation bayésienne.

Processus de Markov en temps continu.
        Introduction aux méthodes SG-MCMC.
        Applications de SG-MCMC dans l’optimisation.
    • Travaux pratiques :
        Mise en œuvre des méthodes SG-MCMC.
        Applications pratiques de l’optimisation bayésienne.
Optimisation "à travers le vide" (méthodes sans gradient)
    • Théorie :
        Introduction aux méthodes d’optimisation sans gradient.
        Sous-gradients : variantes SGD
        Algorithmes évolutifs : principes et applications.
        Mises à jour des paramètres basées sur les perturbations.
    • Travaux pratiques:
        Implémentation d’algorithmes évolutifs.
        Études de cas : optimisation des fonctions sans gradients.
Renforcement Apprentissage applications à l’optimisation
    • Théorie :
        Manque d’une fonction de perte disponible
        Risques d’optimisation pour des résultats non voulus.
        Méthodes pour intégrer la rétroaction humaine
    • Travaux pratiques :
        Mise en œuvre pratique de la RL avec rétroaction humaine. Analyse des résultats et des biais potentiels dans les systèmes axés sur la rétroaction.
Formation vs. Mise à l’essai des paysages de pertes dans le machine learning
    • Théorie :
        Comprendre les différences entre la formation et l’essai des paysages de perte.
        Généralisation et surajustement : causes et conséquences.
        Techniques pour atténuer le surajustement : régularisation, décrochage et validation croisée.
        Études de cas : analyse des paysages de pertes dans les modèles réels d’apprentissage automatique.
    • Travaux pratiques :
        Visualisation et analyse des paysages de perte d’entraînement vs. test.
        Mettre en œuvre des techniques de régularisation pour améliorer la généralisation.
        Évaluation des performances du modèle sur différents ensembles de données.
 

Objectifs d'apprentissage :

Faire la distinction entre les problèmes convexes et non convexes, en résolvant des tâches convexes de base au moyen d’outils numériques.
Implémenter et ajuster les variantes de descente stochastique (SGD), en les interprétant à travers une lentille de temps continu.
Déployer l’optimisation bayésienne et le SG-MCMC pour les objectifs de boîte noire, saisir les fondements théoriques et les applications.
Appliquer des algorithmes évolutifs et d’autres méthodes sans gradient à des tâches non différentiables, en les comparant avec des sous-gradients.
Gérer les scénarios d’optimisation dépourvus de fonctions de perte explicites dans l’apprentissage par renforcement, en intégrant la rétroaction humaine tout en atténuant les résultats imprévus.

Différencier la formation de l’essai des paysages de perte, relier la netteté/planéité à la suradaptation et employer la régularisation ou la visualisation pour une meilleure généralisation.

Nb d'heures: 21h00

Evaluation :

  • Examen (100% de la note finale) ;
  • Points bonus grâce à la participation en cours