Méthodes statistiques pour l'apprentissage et la poursuite

Catalogue des cours de Télécom SudParis

Code

IGFF SIC 5014

Niveau

M2

Graduate

Graduate

Semestre

Fall

Domaine

Signal et Communications

Programme

Programme Ingénieur

Langue

Français/French

Crédits ECTS

4

Heures programmées

45

Charge de travail

90

Coordonnateur(s)

Département

  • Communications, Images et Traitement de l'information

Equipe pédagogique

Organisation

Cours/TD/TP/projet/examen : 30/0/15

Acquis d'apprentissage

- Connaitre l’utilité de modèles mathématiques dans des domaines appliqués
- Savoir traduire les modèles théoriques dans un langage « traitement du signal » et « apprentissage automatique »
- Développer des dispositifs de poursuite de cible par filtrage statistique.
- Appréhender les algorithmes d’apprentissage distribué sur les graphes et d’apprentissage par renforcement

Compétences CDIO

  • 1.1.1 - Mathématiques (y compris statistiques)
  • 1.2 - Connaissance des principes fondamentaux d'ingénierie
  • 1.3 - Connaissances avancées en ingénierie : méthodes et outils
  • 2.1.2 - Modélisation
  • 2.2.1 - Formulation d'hypothèses
  • 2.2.2 - Etat de l'art

Prérequis

Bases de traitement du signal (module SIC3601), Bases en probabilités et statistiques (module MAT3601) et théorie des communications (module SIC3602)

Mots-clés

Séparation de sources, filtrage adaptatif, codage canal, théorie de l'information, décodage itératif

Contenu

- Méthodes statistiques pour la poursuite de cibles :
- Filtrage statistique linéaire et non-linéaire
- Principes de la poursuite multicible
- Ensembles aléatoires finis
- Filtre PHD (Probability Hypothesis Density)
- Implémentations particulaires et à mélange de gaussiennes
- Applications : radar, sonar, imagerie, fusion de capteurs, robotique, etc

- Méthodes probabilistes pour l’apprentissage automatique :
- Graphes factoriels dans les problèmes d’inférence et d’optimisation
- Algorithmes de propagation de croyance : min-somme et somme-produit
- Estimation paramétrique et apprentissage de modèles
- Méthodes d’inférence distribuée dans les processus discrets, continus et mixtes discrets-continus
- Application :théorie de l’information, jeux vidéos, traitement de la parole, optimisations discrète ; etc

- Méthodes d’apprentissage par renforcement :
- Processus de décision markovien
- Prédiction et contrôle basés sur modèle MDP (Méthodes de Programmation dynamique : Itération sur valeur et sur politique)
- Prédiction et contrôle sans modèle (Méthodes de Monte-Carlo, Méthodes d’apprentissage TD, Méthodes SARSA, Q-Learning, Double Q-Learning)
- Apprentissage par renforcement profond (Deep Q-learning, Double DQN, Dueling DQN, …)

Evaluation

La validation de cette UV est basée sur les notes attribuées pour chacune des parties indépendantes. Une épreuve écrite ou un TP noté est possible selon l’intervenant.
Note finale = Moyenne pondérée des notes de chaque partie

Bibliographie

Supports de cours:
Documentation fournie par les intervenants
Bibliographie:
- B.-N. Vo, B.-T. Tuong and D. Clark, Bayesian Multiple Target Filtering Using Random Finite Sets, in “Integrated Tracking, Classification, and Sensor Management”, Wiley, 2013.
- J. Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan Kaufmann, 2014
- R.S Sutton and A.G Barto. Reinforcement Learning :An Introduction, MIT Press, 2015.

Fiche mise à jour le 18/06/2020