Code
IUSF SIC 3602
Niveau
L3
Graduate
UnderGraduate
Semestre
Spring
Domaine
Signal et Communications
Programme
Programme Ingénieur
Langue
Français/French
Crédits ECTS
2
Heures programmées
30
Charge de travail
60
Coordonnateur(s)
Département
- Communications, Images et Traitement de l'information
- Services répartis, Architectures, Modélisation, Validation, Administration des Réseaux
Equipe pédagogique
Organisation
Cours/TD/TP/projet/examen : - Heures Cours/TD/TP/CF1 : 9/21/0/3Acquis d'apprentissage
À l’issue de la première partie (Théorie de l’Information, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité de :
- appréhender les différentes mesures d’information (entropie, entropie conditionnelle, information mutuelle moyenne, taux d’entropie…) liées à des variables ou processus aléatoires, les calculer dans des exemples simples ;
- interpréter le théorème de codage de source de Shannon, l’appliquer à des sources d’information simples, et construire un codage à l’aide de l’algorithme de Huffman ;
- appréhender la capacité d’un canal de communication sans mémoire, et la calculer sur des exemples simples ;
- appréhender le principe du codage correcteur d’erreurs par blocs, et concevoir la table de décodage à distance minimale d’un code linéaire bloc.
À l’issue de la deuxième partie (Communications Numériques, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité :
- modéliser la couche physique dans le contexte d'une transmission mono-porteuse
- déterminer le caractéristiques d'une modulation dans le contexte des transmissions en bande de base et sur onde porteuse
- optimiser un système de communications numériques dans le cas simple mais réaliste d'une transmission point-à-point
- calculer les performances d'un système de communications numériques en présence d'un canal bruité
Compétences CDIO
- 1.1 - Connaissance des sciences de base, y compris mathématiques et autres
- 1.2 - Connaissance des principes fondamentaux d'ingénierie
- 1.3 - Connaissances avancées en ingénierie : méthodes et outils
- 2.1.2 - Modélisation
- 2.1.3 - Analyse qualitative
Mots-clés
Mesure de l'information, Entropie d'une source, Codage de source sans perte, Capacité d'un canal, Codage correcteur d'erreurs, Modulation / démodulation, filtrage adapté, récepteur optimal, interférences entre symboles.
Contenu
Paradigme de Shannon
Mesure de l’information :
Incertitude, self information, information mutuelle, entropie, entropie conditionnelle, information mutuelle moyenne.
Codage de source sans perte :
Entropie d’une source discrète. Théorème du codage de source pour les codes à longueur variable. Premier théorème de Shannon. Codage de Huffman, de Lempel-Ziv.
Codage de canal :
Modélisation d’une chaîne de communications numériques. Capacité d’un canal. Deuxième théorème de Shannon.
Codes correcteurs d’erreurs :
Aptitude d’un code à détecter et à corriger des erreurs. Génération et détection d’un code correcteur d’erreurs.
Modulations numériques. Représentation spectrale. Récepteur Optimal.
Structure d'une chaîne de communication.
Définitions des Modulations Numériques Linéaire. Equivalent Bande de base. Représentation vectorielle. Répartition spectrale des modulations numériques.
Constellations & Modulations linéaires PAM, QAM, QPSK, PSK.
Transmission dans un canal à bruit additif blanc Gaussien. Récepteur optimal.
Critère de Nyquist et interférences entre symboles IES. Performances des modulations sans mémoire.
Evaluation
- 1er session = 1 contrôle écrit (C1)
- 2e session = 1 contrôle écrit (C2)
Les absences en cours peuvent donner lieu à des pénalités dans l'évaluation du module.
Formule de l'évaluation
Note finale = max (C1,min(C2,13))
Bibliographie
Toute la documentation sur la première partie du cours (théorie de l’information) est disponible à l’adresse : http://www-citi.int-evry.fr/~uro
Ouvrages conseillés :
T.A. Cover 1J.A.Thomas, Information Theory, Wiley 1991
G.Battail, Théorie de l'information, Masson, Paris 1997
S.Haykin, Communication Systems, Wiley 1994, ch.10 et 11
Polycopié de cours de M. Uro
Polycopié de cours de F. Lehmann.
Polycopiés d’exercices (énoncés).