Théorie des communications

Catalogue des cours de Télécom SudParis

Code

SIC 3602

Niveau

UnderGraduate (L3)

Domaine

Signal et Communications

Langue d'enseignement

Français

Crédits ECTS

2

Heures programmées / Charge de travail

30 / 60

Responsable(s)

  • DESBOUVRIES Francois
  • LEHMANN Frederic

Département

- Communications, Images et Traitement de l'information

Equipe pédagogique

  • DESBOUVRIES Francois
  • FRIGNAC Yann
  • LEHMANN Frederic
  • SIMON Francois
  • CLARK Daniel

Objectifs

À l’issue de la première partie (Théorie de l’Information, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité de :
- appréhender les différentes mesures d’information (entropie, entropie conditionnelle, information mutuelle moyenne, taux d’entropie…) liées à des variables ou processus aléatoires, les calculer dans des exemples simples ;
- interpréter le théorème de codage de source de Shannon, l’appliquer à des sources d’information simples, et construire un codage à l’aide de l’algorithme de Huffman ;
- appréhender la capacité d’un canal de communication sans mémoire, et la calculer sur des exemples simples ;
- appréhender le principe du codage correcteur d’erreurs par blocs, et concevoir la table de décodage à distance minimale d’un code linéaire bloc.
À l’issue de la deuxième partie (Communications Numériques, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité :
- modéliser la couche physique dans le contexte d'une transmission mono-porteuse
- déterminer le caractéristiques d'une modulation dans le contexte des transmissions en bande de base et sur onde porteuse
- optimiser un système de communications numériques dans le cas simple mais réaliste d'une transmission point-à-point
- calculer les performances d'un système de communications numériques en présence d'un canal bruité

Contenu

Paradigme de Shannon
Mesure de l’information :
Incertitude, self information, information mutuelle, entropie, entropie conditionnelle, information mutuelle moyenne.
Codage de source sans perte :
Entropie d’une source discrète. Théorème du codage de source pour les codes à longueur variable. Premier théorème de Shannon. Codage de Huffman, de Lempel-Ziv.
Codage de canal :
Modélisation d’une chaîne de communications numériques. Capacité d’un canal. Deuxième théorème de Shannon.
Codes correcteurs d’erreurs :
Aptitude d’un code à détecter et à corriger des erreurs. Génération et détection d’un code correcteur d’erreurs.
Modulations numériques. Représentation spectrale. Récepteur Optimal.
Structure d'une chaîne de communication.
Définitions des Modulations Numériques Linéaire. Equivalent Bande de base. Représentation vectorielle. Répartition spectrale des modulations numériques.
Constellations & Modulations linéaires PAM, QAM, QPSK, PSK.
Transmission dans un canal à bruit additif blanc Gaussien. Récepteur optimal.
Critère de Nyquist et interférences entre symboles IES. Performances des modulations sans mémoire.

Prérequis

 

Mots-clés

Mesure de l'information, Entropie d'une source, Codage de source sans perte, Capacité d'un canal, Codage correcteur d'erreurs, Modulation / démodulation, filtrage adapté, récepteur optimal, interférences entre symboles.

Evaluation

- 1ère session = 1 contrôle écrit (C1)
- 2ème session = 1 contrôle écrit (C2)

Les absences en cours peuvent donner lieu à des pénalités dans l'évaluation du module.

Approches pédagogiques

 

Programme

Programme Ingénieur

Fiche mise à jour : 29/06/2018 09:14:27