Théorie de l'information/Sources et codages
Types de sources
[modifier | modifier le wikicode]Une source est un événement aléatoire qui constitue le message émis.
Il existe plusieurs types de sources :
- Sources d’information discrètes
Par exemple, une source d’information peut prendre la forme alphanumériques, de symboles binaires, d’information numérique.
Elle se classifie de la manière suivante :
- Sources sans mémoire qui sont des signes générés indépendamment les uns des autres (Modèle de Bernouilli)
- Sources avec mémoire qui prend en compte la dépendance entre un signe émis et les signes précédents (Modèle de Markov)
Selon le modèle de Markov, une autre classification se dessine :
- Source du 1er ordre correspond au fait que la mémoire se limite au dernier signe émis
- Source d’ordre m correspond au fait que la mémoire tient compte des m signes émis
- Sources d'information continue
Par exemple, une source de signaux analogiques : Parole, Musique, Images, Mesures.
Elle a pour caractéristique un nombre théorique de signes qui croît à l’infini.
Types de codages
[modifier | modifier le wikicode]Le codage de la source a pour but de supprimer les doublons d’information pour réduire le coût de transmission.
Le codage de source (ou compression des données) permet d’augmenter la compacité des signaux (sans ou avec distorsion). Mais aussi d’éliminer la redondance inutile émise par cette source S. Elle améliorer également l'efficacité informationnelle d'une source S en introduisant un codage préalable des signes.
Le codage de canal a pour but d’accroître (autant que l’on veut) la sécurité de la transmission en présence de bruit.