Matrice/Introduction générale
Les matrices sont des objets mathématiques que l’on rencontre très couramment en mathématiques, que ce soit en algèbre linéaire ou en géométrie. Leurs intérêts sont notamment les nombreuses interprétations qu'on peut leur donner, outre le nombre de problèmes qu’elles permettent de résoudre. Cette introduction générale traite des quelques questions « non mathématiques » au sujet des matrices.
Ceux qui souhaitent passer directement à la définition et entrer dans le vif du sujet peuvent sauter ce chapitre introductif.
Un peu d'histoire
[modifier | modifier le wikicode]Si les matrices sous leur formalisme actuel datent du début du XXe siècle, avec notamment l'appui de Heisenberg, l’intérêt pour les « chiffres placés sur une grille » est très ancien. En effet, le problème des « carrés magiques » intriguait déjà les mathématiciens chinois en 650 av. J.-C. et les systèmes d'équations linéaires furent complètement résolus avec les matrices trois siècles plus tard ! La méthode de Cramer (1750) en est l'équivalent moderne.
Le regain formidable d'intérêt pour ces objets au cours du XIXe siècle a motivé des mathématiciens de renom comme Leibniz, Cramer (méthode de Cramer), Gauss (pivot de Gauss), Jordan (réduction de Jordan), Sylvester (inventeur du terme « matrice », matrice de Sylvester), Cayley, Hamilton (mécanique hamiltonienne), Grassmann (formule de Grassmann), Frobenius (théorie des matrices positives), von Neumann…
En 1925, Heisenberg utilise la théorie des matrices pour formuler la mécanique quantique, ancrant définitivement dans l'esprit des mathématiciens l’intérêt indéniable de ces objets, et convaincant les physiciens de l'efficacité de son utilisation. Dans les années suivantes, de nombreux résultats furent découverts, en cryptographie, en calcul, en théorie des graphes, en optique, etc.
Les décompositions de matrices restent des objets de recherche actuels, puisque de telles opérations permettent de séparer le bruit d'une image (décomposition en valeurs singulières), de repérer les caractéristiques d'un code génétique (analyse en composantes principales), d'étudier automatiquement des données statistiques (analyse en composantes indépendantes), le langage humain (analyse sémantique latente), etc.
La généralisation de la théorie des matrices, appelée théorie des « tenseurs », est au cœur de la formulation actuelle de la théorie de la relativité générale. Ces objets et leurs extensions sont donc inévitables en physique classique (mécanique hamiltonienne), quantique et relativiste !
Interprétations
[modifier | modifier le wikicode]Ce qui fait la force des matrices, c’est qu’elles sont plus que de simples tableaux de chiffres. Non pas que, nous le verrons, il puisse s'agir d'autres choses que des chiffres, mais elles constituent de véritables objets à part entière. On peut les interpréter de différentes manières, selon le contexte — et certains résultats apparaissent « à l'œil ».
On peut en effet voir les matrices comme des transformations (transformations linéaires) : rotations, déformations... ou bien comme des opérateurs (opérateurs linéaires), comme des données statistiques corrélées, etc. Il en va de même pour leurs opérations : le produit matriciel, l'inversion, etc., tout cela peut être compris différemment selon le contexte.
Il y a de nombreux liens entre les matrices et d'autres domaines des mathématiques, les propriétés des premières pouvant être vues comme d'autres résultats dans les seconds.
La théorie des matrices actuelle étend ses résultats à la théorie des graphes, à l'algèbre, à la combinatoire et aux statistiques, soit autant de visions possibles.