Théorie des communications

Catalogue des cours de Télécom SudParis

Code

IUSF SIC 3602

Niveau

L3

Graduate

UnderGraduate

Semestre

Spring

Domaine

Signal et Communications

Programme

Programme Ingénieur

Langue

Français/French

Crédits ECTS

2

Heures programmées

30

Charge de travail

60

Coordonnateur(s)

Département

  • Communications, Images et Traitement de l'information

Equipe pédagogique

Acquis d'apprentissage

À l’issue de la première partie (Théorie de l’Information, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité de :
- appréhender les différentes mesures d’information (entropie, entropie conditionnelle, information mutuelle moyenne, taux d’entropie…) liées à des variables ou processus aléatoires, les calculer dans des exemples simples ;
- interpréter le théorème de codage de source de Shannon, l’appliquer à des sources d’information simples, et construire un codage à l’aide de l’algorithme de Huffman ;
- appréhender la capacité d’un canal de communication sans mémoire, et la calculer sur des exemples simples ;
- appréhender le principe du codage correcteur d’erreurs par blocs, et concevoir la table de décodage à distance minimale d’un code linéaire bloc.
À l’issue de la deuxième partie (Communications Numériques, 15h) du cours, les étudiants de 1ère année du cycle ingénieur seront en capacité :
- modéliser la couche physique dans le contexte d'une transmission mono-porteuse
- déterminer le caractéristiques d'une modulation dans le contexte des transmissions en bande de base et sur onde porteuse
- optimiser un système de communications numériques dans le cas simple mais réaliste d'une transmission point-à-point
- calculer les performances d'un système de communications numériques en présence d'un canal bruité

Contenu

Paradigme de Shannon
Mesure de l’information :
Incertitude, self information, information mutuelle, entropie, entropie conditionnelle, information mutuelle moyenne.
Codage de source sans perte :
Entropie d’une source discrète. Théorème du codage de source pour les codes à longueur variable. Premier théorème de Shannon. Codage de Huffman, de Lempel-Ziv.
Codage de canal :
Modélisation d’une chaîne de communications numériques. Capacité d’un canal. Deuxième théorème de Shannon.
Codes correcteurs d’erreurs :
Aptitude d’un code à détecter et à corriger des erreurs. Génération et détection d’un code correcteur d’erreurs.
Modulations numériques. Représentation spectrale. Récepteur Optimal.
Structure d'une chaîne de communication.
Définitions des Modulations Numériques Linéaire. Equivalent Bande de base. Représentation vectorielle. Répartition spectrale des modulations numériques.
Constellations & Modulations linéaires PAM, QAM, QPSK, PSK.
Transmission dans un canal à bruit additif blanc Gaussien. Récepteur optimal.
Critère de Nyquist et interférences entre symboles IES. Performances des modulations sans mémoire.

Mots-clés

Mesure de l'information, Entropie d'une source, Codage de source sans perte, Capacité d'un canal, Codage correcteur d'erreurs, Modulation / démodulation, filtrage adapté, récepteur optimal, interférences entre symboles.

Evaluation

- 1er session = 1 contrôle écrit (C1)
- 2e session = 1 contrôle écrit (C2)

Les absences en cours peuvent donner lieu à des pénalités dans l'évaluation du module.

Formule de l'évaluation

Note finale = max (C1,min(C2,13))

Compétences CDIO

Compétences principales

  • 1.1 - Connaissance des sciences de base, y compris mathématiques et autres
  • 1.2 - Connaissance des principes fondamentaux d'ingénierie
  • 1.3 - Connaissances avancées en ingénierie : méthodes et outils
  • 2.1.2 - Modélisation
  • 2.1.3 - Analyse qualitative
Fiche mise à jour le 28/08/2018