Leçons de niveau 17

Théorie de l'information/Introduction

Une page de Wikiversité.
Sauter à la navigation Sauter à la recherche
Début de la boite de navigation du chapitre
Introduction
Icône de la faculté
Chapitre no 1
Leçon : Théorie de l'information
Retour auSommaire
Chap. suiv. :Sources d'information
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « Théorie de l'information : Introduction
Théorie de l'information/Introduction
 », n'a pu être restituée correctement ci-dessus.

Qu’est-ce que la théorie de l’information ?

Définition[modifier | modifier le wikicode]

L'information prend plusieurs sens :

- C’est le fait d'informer, de s'informer, de donner la connaissance d'une vérité ou de la rechercher.

- Une information permet à quelqu'un de prendre connaissance de quelque chose tel qu’un renseignement, documentation…

- L'actualité telle que la presse, la radio, la télévision, l’Internet fait partie de l’information.

- En informatique et en télécommunication, c’est un élément de connaissance (voix, donnée, image) qui peut être conservé, analysé ou transmis à l'aide d'un support et d'un mode de codification.

- En mathématique, la théorie de l'information est la matière qui étudie les différentes façons de traiter des informations, des émissions, des réceptions, que comporte tout message (écrit, oral, informatique)

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

En théorie, l'information diminue l'incertitude.

En théorie de la décision, on appelle information que ce qui est peut influencer nos décisions. L'excès d'information , peut provoquer une saturation, et empêcher la prise de décision comme dans les systèmes de messagerie électronique par exemple.

Historique[modifier | modifier le wikicode]

La théorie de l’information provient initialement des travaux de Ronald Aylmer Fisher, qui était statisticien. Il a défini l'information comme étant la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée. Cela se résume par le fait que moins une observation est probable, plus son observation est porteuse d'information. Claude Shannon et Warren Weaver renforcent cette théorie en 1948. Tous deux ingénieurs en télécommunication. Leur objectif est de s’intéresser aux moyens de transmission d’une information à partir d’une source jusqu’à un utilisateur.

Processus de transmission de l'information[modifier | modifier le wikicode]

Ci-dessous le schéma représentant le processus de transmission de l'information :

Processus de transmission de l'information.png

La source correspond à des voix, des signaux électromagnétiques,  des séquences de symboles binaires,…

La source émet un message que le récepteur lit.

Le codeur est un ensemble d’opérations effectuées sur la sortie de la source avant la transmission. Le but étant de combattre le bruit.

Le canal correspond à des lignes téléphoniques, des liaisons radio,…

Le bruit est un élément perturbateur du canal

Le décodeur est un moyen qui restitue l’information à la source.