Code
IGFF SIC 5014
Niveau
M2
Graduate
Graduate
Semestre
Fall
Domaine
Signal et Communications
Programme
Programme Ingénieur
Langue
Français/French
Crédits ECTS
4
Heures programmées
45
Charge de travail
90
Coordonnateur(s)
Département
- Communications, Images et Traitement de l'information
Equipe pédagogique
Organisation
Cours/TD/TP/projet/examen : 30/0/15Acquis d'apprentissage
- Connaitre l’utilité de modèles mathématiques dans des domaines appliqués
- Savoir traduire les modèles théoriques dans un langage « traitement du signal » et « apprentissage automatique »
- Développer des estimateurs robustes.
- Appréhender les algorithmes d’apprentissage distribué sur les graphes et d’apprentissage par renforcement
Compétences CDIO
- 1.1.1 - Mathématiques (y compris statistiques)
- 1.2 - Connaissance des principes fondamentaux d'ingénierie
- 1.3 - Connaissances avancées en ingénierie : méthodes et outils
- 2.1.2 - Modélisation
- 2.2.1 - Formulation d'hypothèses
- 2.2.2 - Etat de l'art
Prérequis
Bases de traitement du signal (module SIC3601), Bases en probabilités et statistiques (module MAT3601) et théorie des communications (module SIC3602)
Mots-clés
Apprentissage par renforcement, modèles probabilistes graphiques, estimation robuste
Contenu
- Méthodes d’apprentissage par renforcement :
- Processus de décision markovien
- Prédiction et contrôle basés sur modèle MDP (Méthodes de Programmation dynamique : Itération sur valeur et sur politique)
- Prédiction et contrôle sans modèle (Méthodes de Monte-Carlo, Méthodes d’apprentissage TD, Méthodes SARSA, Q-Learning, Double Q-Learning)
- Apprentissage par renforcement profond (Deep Q-learning, Double DQN, Dueling DQN, …)
- Méthodes probabilistes pour l’apprentissage automatique :
- Graphes factoriels dans les problèmes d’inférence et d’optimisation
- Algorithmes de propagation de croyance : min-somme et somme-produit
- Estimation paramétrique et apprentissage de modèles
- Méthodes d’inférence distribuée dans les processus discrets, continus et mixtes discrets-continus
- Application :théorie de l’information, jeux vidéos, traitement de la parole, optimisations discrète ; etc
Estimation robuste pour données non gaussiennes:
- rappels d’estimation paramétrique
- sensibiliser au problème de la mauvaise spécification du modèle
- borne de Cramér-Rao et estimateur de maximum de vraisemblance mal spécifiés
- une généralisation de la loi gaussienne : les distributions elliptiques
- estimation robuste pour données elliptiques
- Applications : machine learning, science de l’environnement, radar et sonar, génétique, finance, etc
Evaluation
La validation de cette UV est basée sur les notes attribuées pour chacune des parties indépendantes. Une épreuve écrite ou un TP noté est possible selon l’intervenant.
Note finale = Moyenne pondérée des notes de chaque partie
Bibliographie
Supports de cours:
Documentation fournie par les intervenants
Bibliographie:
- R.S Sutton and A.G Barto. Reinforcement Learning :An Introduction, MIT Press, 2015.
- J. Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan Kaufmann, 2014
- Peter J. Huber, Elvezio M. Ronchetti : Robust Statistics, 2009 John Wiley & Sons.