Théorie des communications

Catalogue des cours de Télécom SudParis

Code

SIC 8243

Niveau

Graduate (M1)

Domaine

Signal et Communications

Langue d'enseignement

Français

Crédits ECTS

3

Heures programmées / Charge de travail

35 / 35

Responsable(s)

  • LEHMANN Frederic

Département

- Communications, Images et Traitement de l'information

Equipe pédagogique

  • LEHMANN Frederic
  • SIMON Francois

Objectifs

À l’issue de la première partie (Théorie de l’Information, 15h) du cours, les étudiants de 2ème année du cycle formation ingénieur par apprentissage (FIPA) seront en capacité de :
- appréhender les différentes mesures d’information (entropie, entropie conditionnelle, information mutuelle moyenne, taux d’entropie…) liées à des variables ou processus aléatoires, les calculer dans des exemples simples ;
- interpréter le théorème de codage de source de Shannon, l’appliquer à des sources d’information simples, et construire un codage à l’aide de l’algorithme de Huffman ;
- appréhender la capacité d’un canal de communication sans mémoire, et la calculer sur des exemples simples ;
- appréhender le principe du codage correcteur d’erreurs par blocs, et concevoir la table de décodage à distance minimale d’un code linéaire bloc.
À l’issue de la deuxième partie (Communications Numériques, 15h) du cours, les étudiants de 2ème année du cycle formation ingénieur par apprentissage (FIPA) seront en capacité :
- modéliser la couche physique dans le contexte d'une transmission mono-porteuse
- déterminer le caractéristiques d'une modulation dans le contexte des transmissions en bande de base et sur onde porteuse
- optimiser un système de communications numériques dans le cas simple mais réaliste d'une transmission point-à-point
- calculer les performances d'un système de communications numériques en présence d'un canal bruité

Contenu

Paradigme de Shannon
Mesure de l’information : incertitude, entropie
Codage entropique, 1er théorème de Shannon
Code de Huffman, code Lempel-Ziv
Modélisation d’une chaîne de transmission numérique
Capacité d’un canal, 2ème théorème de Shannon
Code Correcteur d’erreurs
Modulations numériques (PAM, QAM, QPSK, PSK)
Représentation spectrale
Récepteur Optimal
Critères de Nyquist, Interférences entre symboles.

Prérequis

 

Mots-clés

Mesure de l'information, Entropie d'une source, Codage de source sans perte, Capacité d'un canal, Codage correcteur d'erreurs, Modulation / démodulation, filtrage adapté, récepteur optimal, interférences entre symboles.

Evaluation

- 1ère session = 1 contrôle écrit (C1)
- 2ème session = 1 contrôle écrit ou oral (C2)

Les absences en cours peuvent donner lieu à des pénalités dans l'évaluation du module.

Approches pédagogiques

 

Programme

Programme Ingénieur

Fiche mise à jour : 15/01/2018 17:09:39