Code
IGFF SIC 5014
Niveau
M2
Graduate
Graduate
Semestre
Fall
Domaine
Signal et Communications
Programme
Programme Ingénieur
Langue
Français/French
Crédits ECTS
4
Heures programmées
45
Charge de travail
90
Coordonnateur(s)
Département
- Communications, Images et Traitement de l'information
Equipe pédagogique
Organisation
Cours/TD/TP/projet/examen : 30/0/15Acquis d'apprentissage
- Connaitre l’utilité de modèles mathématiques dans des domaines appliqués
- Savoir traduire les modèles théoriques dans un langage « traitement du signal » et « apprentissage automatique »
- Développer des dispositifs de poursuite de cible par filtrage statistique.
- Appréhender les algorithmes d’apprentissage distribué sur les graphes et d’apprentissage par renforcement
Compétences CDIO
- 1.1.1 - Mathématiques (y compris statistiques)
- 1.2 - Connaissance des principes fondamentaux d'ingénierie
- 1.3 - Connaissances avancées en ingénierie : méthodes et outils
- 2.1.2 - Modélisation
- 2.2.1 - Formulation d'hypothèses
- 2.2.2 - Etat de l'art
Prérequis
Bases de traitement du signal (module SIC3601), Bases en probabilités et statistiques (module MAT3601) et théorie des communications (module SIC3602)
Mots-clés
Séparation de sources, filtrage adaptatif, codage canal, théorie de l'information, décodage itératif
Contenu
- Méthodes statistiques pour la poursuite de cibles :
- Filtrage statistique linéaire et non-linéaire
- Principes de la poursuite multicible
- Ensembles aléatoires finis
- Filtre PHD (Probability Hypothesis Density)
- Implémentations particulaires et à mélange de gaussiennes
- Applications : radar, sonar, imagerie, fusion de capteurs, robotique, etc
- Méthodes probabilistes pour l’apprentissage automatique :
- Graphes factoriels dans les problèmes d’inférence et d’optimisation
- Algorithmes de propagation de croyance : min-somme et somme-produit
- Estimation paramétrique et apprentissage de modèles
- Méthodes d’inférence distribuée dans les processus discrets, continus et mixtes discrets-continus
- Application :théorie de l’information, jeux vidéos, traitement de la parole, optimisations discrète ; etc
- Méthodes d’apprentissage par renforcement :
- Processus de décision markovien
- Prédiction et contrôle basés sur modèle MDP (Méthodes de Programmation dynamique : Itération sur valeur et sur politique)
- Prédiction et contrôle sans modèle (Méthodes de Monte-Carlo, Méthodes d’apprentissage TD, Méthodes SARSA, Q-Learning, Double Q-Learning)
- Apprentissage par renforcement profond (Deep Q-learning, Double DQN, Dueling DQN, …)
Evaluation
La validation de cette UV est basée sur les notes attribuées pour chacune des parties indépendantes. Une épreuve écrite ou un TP noté est possible selon l’intervenant.
Note finale = Moyenne pondérée des notes de chaque partie
Bibliographie
Supports de cours:
Documentation fournie par les intervenants
Bibliographie:
- B.-N. Vo, B.-T. Tuong and D. Clark, Bayesian Multiple Target Filtering Using Random Finite Sets, in “Integrated Tracking, Classification, and Sensor Management”, Wiley, 2013.
- J. Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan Kaufmann, 2014
- R.S Sutton and A.G Barto. Reinforcement Learning :An Introduction, MIT Press, 2015.