Code
IGYF CSC 8607
Niveau
M2
Graduate
Graduate
Semestre
Fall
Domaine
Informatique
Programme
Programme Ingénieur
Langue
Français/French
Crédits ECTS
4
Heures programmées
45,5
Charge de travail
45,5
Coordonnateur(s)
Département
- Informatique
Organisation
Cours/TD/TP/projet/examen : Cours, TP, projet, examenAcquis d'apprentissage
À la fin de ce cours, les étudiants seront capables de :
* Expliquer les principes fondamentaux du deep learning.
* Implémenter des modèles de réseaux de neurones en Python à l’aide de bibliothèques telles que TensorFlow ou PyTorch.
* Comprendre et appliquer les concepts de régularisation et d’optimisation dans les réseaux de neurones.
* Analyser et diagnostiquer les performances des modèles de deep learning.
* Concevoir des architectures adaptées aux problèmes spécifiques, incluant des réseaux convolutifs, récurrents, et d’attention.
Compétences CDIO
- 1.3 - Connaissances avancées en ingénierie : méthodes et outils
- 2.2 - Méthodes scientifiques : expérimentation, enquête et initiation à la recherche
- 2.2.2 - Etat de l'art
Prérequis
Connaissances en algèbre linéaire (vecteurs, matrices). Bases en calcul différentiel. Introduction à la programmation en Python. Notions de probabilité et de statistiques.
Mots-clés
deep learning, perceptron, réseaux de convolution, réseaux récurrents, réseaux d'attention, backpropagation, optimisation, régularisation, apprentissage supervisé, intelligence artificielle
Contenu
Le cours couvre :
* Introduction au deep learning : Histoire, applications, motivation.
* Le perceptron : Concept, limitations, et extension aux réseaux multicouches.
* Backpropagation et optimisation : Algorithmes d’apprentissage et réglage des hyperparamètres.
* Réseaux convolutifs (CNN) : Structure, applications en vision par ordinateur.
* Réseaux récurrents (RNN) : Applications dans le traitement des séquences et introduction aux LSTM/GRU.
* Réseaux d’attention : Transformer et applications modernes comme GPT ou BERT.
* Régularisation : Techniques pour éviter le surapprentissage.
* Projets pratiques : Implémentation de modèles pour résoudre des cas concrets.
Evaluation
Notes totales : 20 points.
* Contrôle continu : 20%
* Projets : 40%
* Contrôle final : 40%
Seuil de validation : 10/20.
Formule de l'évaluation
L’évaluation sera réalisée de manière continue et finale :
* Contrôle continu (4 points) : 4 mini-tests sur les notions clés.
* Projets (8 points) : Un ou plusieurs projets mettant en œuvre les concepts vus en cours.
* Contrôle final (8 points) : Évaluation écrite pour tester la compréhension globale.
Bibliographie
https://www-inf.telecom-sudparis.eu/COURS/CSC8607/Supports/
Approches pédagogiques
Le cours adopte une approche mêlant théorie et pratique :
Cours magistraux pour poser les bases conceptuelles.
Travaux dirigés (TD) pour appliquer les notions apprises à des problèmes concrets.
Projets permettant aux étudiants de concevoir et d’entraîner leurs propres modèles de deep learning.
Études de cas sur des applications réelles pour illustrer les concepts.
L'accent sera mis sur l'expérimentation et la réflexion critique sur les résultats obtenus.