Code APOGEE | Intitulé | ECTS | CM | TD | TP | 1ère Session | 2ème Session | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
CC | Examen | Dérogatoire | Examen | ||||||||||||||
Ecrit | Oral | TP | Ecrit | Oral | TP | Ecrit | Oral | TP | Ecrit | Oral | TP | ||||||
ASXETHI0 | Théorie de l'information | 3.0 | 16 | 6 | 8 | 33% | 67% | 67% | 33% | 67% | 33% |
1. Lois de probabilités discrètes (ensembles finis) 2. Programmation en Scilab ou Matlab
Donner les connaissances de base pour appréhender les concepts de la théorie de l’information (mesure de l’information, codage de source et codage de canal). Bien que considérablement plus simples que les sources et les canaux physiques réels, les modèles statistiques exposés permettent de donner une bonne approximation de leur comportement.
Cette UE fondamentale permet aux étudiants d’acquérir les connaissances de base permettant d’appréhender la notion d’information et la suite des opérations de transformation qu’elle subit lors de son acheminement (quantification, codage de source, codage de canal) afin de garantir une communication avec un minimum de pertes et d’altérations.
1) Elément généraux de théorie de l’information : - Notion d’information - Synoptique d’un système communicant - Mesure de l’information (quantité d’information, entropie d’une source, débit d’information, entropie conditionnelle, entropie conjointe, information mutuelle) 2) Sources et codage de source : - Modèles de sources (source continue, discrète, discrète sans mémoire) - Classification des codes de source (code de longueur fixe, de longueur variable, sans préfixe, à déchiffrage unique) - Longueur, efficacité et redondance d’un code - Théorème du codage de source (1er théorème de Shannon) - Techniques de codage de source (codage de Shannon-Fano, codage de Huffman) 3) Canaux et codage de canal : - Caractérisation d’un canal discret sans mémoire (représentation, matrice de transition, matrice des probabilités conjointes) - Modèles de canaux (canal sans perte, déterministe, sans bruit, binaire symétrique) - Capacité d’un canal (capacité par symbole, capacité par seconde, cas d’un canal avec bruit gaussien additif) - Théorème du codage de canal (2ème théorème de Shannon) - Codage de canal (codes détecteurs d’erreur, codes détecteurs-correcteurs d’erreur, codes en blocs)
Cours magistraux, Travaux dirigés et Travaux pratiques (Programmation sous Matlab d’algorithmes de codage de source : codage de Shannon-Fano et codage de Huffman. Application à la compression de fichiers « texte »)
Questionnaire anonyme.
Ouvrages : [1] T.M. Cover, J.A. Thomas, Elements of Information Theory, Wiley & Sons, 2nd edition, 2006. [2] F. Auger, Introduction à la théorie du signal et de l'information, Collection Sciences et Technologies, Editions Technip, 1999. [3] Gérard Battail, Théorie de l’information : application aux techniques de communication, MASSON, 1997 Sites web : [1] http://www.rfai.li.univ-tours.fr/PagesPerso/jyramel/fr/2ti_theorie.pdf [2] http://perso.citi-lab.fr/mminier/images/Th_Info.pdf [3] http://igm.univ-mlv.fr/~beal/Enseignement/TheorieInfo/info.pdf
Maquette 2019/2020 - Les informations portées sur ces pages sont non-contractuelles et n'engagent en rien la responsabilité de la faculté des sciences et technologies de l'UPEC.
Site en construction