Leçons de niveau 14

Théorie des groupes/Représentations complexes des groupes finis, 1

Une page de Wikiversité.
Aller à : navigation, rechercher
Début de la boite de navigation du chapitre
Représentations complexes des groupes finis, 1
Icône de la faculté
Chapitre no 36
Leçon : Théorie des groupes
Chap. préc. : Théorème de Maschke
Chap. suiv. : Représentations complexes des groupes finis, 2

Exercices :

Représentations complexes des groupes finis, 1
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « Théorie des groupes : Représentations complexes des groupes finis, 1
Théorie des groupes/Représentations complexes des groupes finis, 1
 », n'a pu être restituée correctement ci-dessus.

Dans ce chapitre, on va donner les premiers éléments sur les représentations complexes des groupes finis.

Le chapitre est un peu long pour son contenu, car on a voulu expliciter des choses sur lesquelles les auteurs passent rapidement. On a donné très peu de démonstrations, car elles ne sont pas difficiles, même si une rédaction rigoureuse demande parfois un effort de concentration. On ne conseille d'ailleurs pas au lecteur de s'astreindre à rédiger les démonstrations de tous les énoncés, mais plutôt de réserver son attention aux énoncés qualifiés de théorèmes.

On utilisera parfois une notation inhabituelle de la somme d'une famille finie d'éléments d'un monoïde commutatif (noté additivement) :
par , on désignera la somme de la famille , où E désigne l'ensemble (supposé fini) des u possédant la propriété P(u). Cette notation a sur la notation courante

l'avantage de montrer clairement que la variable de sommation est u.

En ce qui concerne les matrices, on suivra les mêmes conventions qu'au chapitre Simplicité des groupes linéaires spéciaux projectifs. Au lieu de « matrice à coefficients dans  » (où désigne le corps des nombres complexes), on dira parfois « -matrice ».

Notion de représentation[modifier | modifier le wikicode]

On désignera par le corps des nombres complexes.
Si V est un -espace vectoriel, on désignera par GL(V) le groupe formé par les -automorphismes de V, la loi de groupe étant la composition de droite à gauche (Cette composition est dite de droite à gauche parce qu'on prend d'abord la valeur par g, qui est écrit à droite, puis la valeur du résultat par f, qui est écrit à gauche.)
Pour un nombre naturel n, on désignera par GL(n, ) le groupe multiplicatif formé par les matrices inversibles à coefficients dans , le produit de deux matrices étant défini comme au chapitre Simplicité des groupes linéaires spéciaux projectifs.




Remarques.

  1. Si on convient d'incorporer les espaces vectoriels de départ et d'arrivée dans la notion d'un homomorphisme de -espaces vectoriels, autrement dit si on convient par exemple de définir un homomorphisme de -espaces vectoriels comme un triple (V,F,W), où V et W sont des espaces vectoriels et f une application de V dans W possédant les propriétés voulues, alors V est déterminé par n'importe quel élément de GL(V) et est donc déterminé par T, de sorte que parler de (V,T) est redondant. Donc, si on adopte la convention en question, on peut se contenter de définir une -représentation vectorielle de G comme un homomorphisme de groupes T de G dans GL(V) pour un certain -espace vectoriel V de dimension finie.
  2. Même sans adopter cette convention, on identifie couramment la représentation (V,T) et l'homomorphisme T.
  3. Une -représentation (vectorielle) de G dans V peut être considérée comme un cas particulier d'action (à gauche) du groupe G sur l'ensemble (sous-jacent de) V, et même comme un cas particulier d'action de G sur le groupe additif V, + par automorphismes (voir chapitre Produit semi-direct).




Remarques.

  1. On peut définir une F-représentation (vectorielle ou matricielle) de G pour tout corps commutatif F, ce qui donne lieu à des développements théoriques importants, mais on ne s'intéressera dans ce cours qu'au cas où .
  2. Comme le groupe GL(1, ) est canoniquement isomorphe au groupe multiplicatif du corps , une -représentation matricielle de degré 1 d'un groupe fini G peut être assimilée à un homomorphisme de G dans .







Puisque les isomorphismes et sont réciproques l'un de l'autre, nous avons défini une bijection (dépendant de B) entre l'ensemble des -représentations vectorielles de G dans V et l'ensemble des -représentations matricielles de degré n de G.

Soit G un groupe fini. Nous dirons qu'une -représentation vectorielle T de G et une -représentation matricielle U de G se correspondent s'il existe une base numérotée B de l'espace V de T telle que U soit la -représentation matricielle de G correspondant à T via B (ou, ce qui revient au même, telle que T soit la -représentation vectorielle de G correspondant à U via B).

Puisque tout espace vectoriel de dimension finie admet une base numérotée, toute -représentation vectorielle de G correspond à une -représentation matricielle de G. Puisque, pour tout nombre naturel n, il existe un -espace vectoriel de dimension n, toute -représentation matricielle de G correspond à une -représentation vectorielle de G.

Il est clair qu'une -représentation vectorielle et une -représentation matricielle qui se correspondent sont toutes deux fidèles ou toutes deux non fidèles (puisqu'on passe de la représentation vectorielle à la représentation matricielle en faisant suivre la représentation vectorielle par un certain isomorphisme de groupes).

De même, une -représentation vectorielle et une -représentation matricielle qui se correspondent sont toutes deux triviales ou toutes deux non triviales.

Exemples de représentations[modifier | modifier le wikicode]

1. Les représentations triviales, dont il a été question, fournissent un premier exemple (trivial) de -représentations vectorielles et matricielles.

2. Soit G un groupe cyclique d'ordre n, noté multiplicativement, soit x un élément de G qui engendre G, soit une racine primitive n-ième de 1, c'est-à-dire un élément d'ordre n du groupe multiplicatif de . Soit U l'unique homomorphisme de G dans GL(1, ) qui applique x sur la matrice dont l'unique coefficient est . Pour tout entier rationnel r, est donc la matrice dont l'unique coefficient est . Alors U est une -représentation fidèle de degré 1 du groupe cyclique G.

3. Rappelons cette définition[1] :


Si l'anneau A est non nul, toute ligne et toute colonne d'une matrice de permutation (relativement à l'anneau A) a donc un et un seul coefficient non nul et ce coefficient est égal à 1. Réciproquement, on vérifie facilement que toute matrice carrée de taille n à coefficients dans A possédant cette propriété est la matrice d'une certaine permutation de {1, ... , n}.
Le lecteur vérifiera facilement les faits suivants :

Début d’un théorème


Fin du théorème

Soit G un sous-groupe du groupe symétrique . Donc tout élément de G est une permutation de l'ensemble {1, 2, ... , n}. Si à l'élément de G, on fait correspondre la -matrice de la permutation , on définit, d'après les énoncés du rappel, une -représentation matricielle fidèle de degré n de G.

4. Représentation régulière gauche. Soit G un groupe fini. Rappelons que le -espace vectoriel libre construit sur l'ensemble G est par définition l'ensemble des applications de G dans , muni d'une addition et d'une loi externe définies « point par point ».
Cet espace vectoriel est noté .
Si, pour tout élément g de G, on désigne par l'application de G dans qui vaut 1 en g et 0 partout ailleurs, les éléments de de la forme forment une base de .
L'application de G dans est injective, ce qui amène à identifier l'élément de à l'élément g de G et donc à écrire g au lieu de . Avec cette identification, G est une base de . (En faisant des remplacements convenables dans , on pourrait d'ailleurs obtenir un -espace vectoriel ayant l'ensemble G pour base en toute rigueur des termes, mais cela n'en vaut pas la peine.) En particulier, la dimension de est égale à .
La structure de monoïde de G permet de munir le -espace vectoriel d'une structure de -algèbre associative unifère. (Pour la définition d'une telle algèbre, voir le chapitre Théorème de Maschke.) Pour cela, on définit une multiplication dans en posant, pour toute famille et toute famille de nombres complexes,

,

ce qui peut encore s'écrire

,

. Cette multiplication dans coïncide dans la partie G de avec la loi de groupe de G.
La -algèbre ainsi définie est notée ou . On notera de même l'espace vectoriel sous-jacent de cette algèbre, c'est-à-dire l'espace vectoriel qu'on a noté juqu'ici .
Pour tout élément g de G, désignons par la transformation de , où gx est calculé selon la multiplication qu'on vient de définir dans . On vérifie facilement que est un automorphisme du -espace vectoriel et que définit un homomorphisme de groupes de G dans , autrement dit une -représentation (vectorielle) de G dans l'espace . Cette représentation, qui joue un rôle dans la théorie, est appelée la -représentation régulière gauche de G.
En considérant la transformation de , on définira de même une -représentation de G, dite -représentation régulière droite de G. (Noter qu'ici, il faut inverser g pour obtenir une représentation conforme à notre définition des représentations.)
Il nous arrivera de dire « représentation régulière » tout court pour « représentation régulière gauche ».

Représentations équivalentes[modifier | modifier le wikicode]



Remarques.

  1. On vérifie facilement que l'équivalence entre -représentations vectorielles de G est une relation d'équivalence.
  2. L'équivalence définie ici est évidemment plus forte que l'équivalence entre les actions de G sur les ensembles V1 et V2, puisqu'on demande que f soit non seulement une bijection mais un isomorphisme de -espaces vectoriels.
  3. Si deux -représentations vectorielles de G sont équivalentes, elles ont le même degré (puisque deux espaces vectoriels isomorphes ont la même dimension).




Ici encore, on vérifie facilement que l'équivalence entre -représentations matricielles de G est une relation d'équivalence.

Les matrices carrées à coefficients dans forment un ensemble, donc, pour tout groupe fini G, les -représentations matricielles de G forment un ensemble. Donc l'équivalence entre -représentations matricielles de G est une relation d'équivalence dans un ensemble. Il en résulte d'une part que pour toute -représentation matricielle U de G, les -représentations matricielles de G équivalentes à U forment un ensemble, que nous appellerons la classe d'équivalence de U, et d'autre part que les classes d'équivalence de -représentations matricielles de G forment elles aussi un ensemble. De même que pour toute relation d'équivalence dans un ensemble, deux -représentations matricielles de G sont équivalentes si et seulement elles appartiennent à la même classe d'équivalence.

En revanche, si n est un nombre naturel, les -espaces vectoriels de dimension n ne forment pas un ensemble, donc, si G est un groupe fini et T une représentation vectorielle de G, les -représentations vectorielles de G équivalentes à T ne forment pas un ensemble. Donc, si on voulait parler de la « classe d'équivalence » d'une -représentation vectorielle de G (ce que nous ne ferons pas dans ce cours), certaines précautions d'ordre logique seraient nécessaires.

Début d’un théorème


Fin du théorème

Démonstration (facile) : voir les exercices.

Représentations irréductibles[modifier | modifier le wikicode]


Dire qu'une -représentation vectorielle est irréductible revient donc à dire que les conditions suivantes sont satisfaites : l'espace V de T n'est pas nul et il n'existe pas de sous--espace vectoriel W de V tel que 0 < W < V et que, pour tout g dans G et tout w dans W, (T(g)) (w) appartienne à W.
Ces conditions peuvent encore s'exprimer comme suit : l'espace V de T n'est pas nul et il n'existe pas de sous--espace vectoriel W de V tel que 0 < W < V et que, pour tout g dans G, (T(g)) (W) = W.
Il est clair que toute représentation de degré 1 est irréductible.

Début d’un théorème


Fin du théorème

Démonstration. Laissée au lecteur.

Soient G un groupe fini et U une -représentation matricielle de G. D'après les énoncés 1 et 2, les deux conditions suivantes sont équivalentes :

  1. il existe une -représentation vectorielle de G qui correspond à U et qui est irréductible;
  2. toute -représentation vectorielle de G qui correspond à U est irréductible.



Remarque. Pour définir une représentation matricielle irréductible, on a dû passer par une représentation vectorielle. Il y a donc une certaine dissymétrie entre représentations vectorielles et représentations matricielles.

Début d’un théorème


Fin du théorème

Démonstration (facile). Choisissons une -représentation vectorielle correspondant à et une -représentation vectorielle correspondant à . D'après la définition des -représentations matricielles irréductibles, est irréductible si et seulement l'est. D'après l'énoncé 2, est irréductible si et seulement l'est. D'après la définition des -représentations matricielles irréductibles, est irréductible si et seulement l'est. Donc est irréductible si et seulement l'est.

Somme directe de représentations vectorielles[modifier | modifier le wikicode]

Si est une famille finie de -espaces vectoriels, si est une famille telle que pour tout élément i de I, soit un -endomorphisme de , alors définit un -endomorphisme de l'espace (somme directe des espaces ). Nous désignerons (abusivement) cet endomorphisme comme la somme directe des et nous le noterons (abusivement) . Si les sont des -automorphismes, est lui aussi un -automorphisme.

Soit G un groupe fini, soit une famille finie de -représentations vectorielles de G. Pour chaque i dans I, notons l'espace de la représentation . Soit g un élément de G. Dans la terminologie et les notations de l'alinéa précédent, est un -automorphisme de et définit un homomorphisme de groupes de G dans , autrement dit une -représentation (vectorielle) de G dans .




Début d’un théorème


Fin du théorème

Démonstration. Laissée au lecteur.

Début d’un théorème


Fin du théorème

Démonstration. Laissée au lecteur.

Quelques faits concernant les matrices[modifier | modifier le wikicode]

Pour définir sans ambiguïté la somme directe d'un multiplet de -représentations matricielles d'un groupe fini et pour mettre cette définition en rapport avec celle de la somme directe de représentations vectorielles, on aura besoin de quelques notions sur les matrices. Comme il s'agit de théorie des matrices plutôt que de théorie des groupes, on sera avare de démonstrations.

Rappelons que, A étant un anneau, désigne l'anneau des matrices carrées à coefficients dans A.

M et N étant deux matrices (non forcément carrées) à coefficients dans un anneau A, définissons de façon informelle la somme directe de M et N comme la matrice obtenue en plaçant diagonalement le tableau de N à droite et en dessous du tableau de M et en complétant le nouveau tableau en mettant à chaque place libre le zéro de l'anneau A. (La somme directe ainsi définie dépend donc de la structure d'anneau de A, puisque c'est cette structure qui détermine le zéro de A.)

Dans la terminologie des blocs, la somme directe de M et N (par rapport à l'anneau A) est la matrice diagonale par blocs dont les blocs diagonaux sont respectivement M et N[2].

Par exemple, si

et ,

alors la somme directe de M et N est

.

De façon formelle :



Nous noterons la somme directe des matrices M et M'. Comme déjà noté, dépend de A, ce que la notation ne montre pas.

Début d’un théorème


Fin du théorème

Démonstration. La définition informelle de la somme directe de deux matrices comme mise bout à bout diagonalement de ces deux matrices rend l'énoncé évident. De façon formelle, on peut dire que les matrices et sont toutes deux égales à la matrice

Soient des matrices à coefficients dans l'anneau A. Puisque la somme directe des matrices à coefficients dans l'anneau A est associative, on peut écrire

sans parenthèses.

On peut d'ailleurs expliciter de la façon suivante :

Début d’un théorème


Fin du théorème


Début d’un théorème


Fin du théorème


Début d’un théorème


Fin du théorème

Remarque. La première partie de l'énoncé est plus forte que la seconde, car elle montre qu'on obtient la matrice en conjuguant M par une matrice indépendante des coefficients de M. Cela servira dans la suite.

Début d’un théorème


Fin du théorème


Remarque. La première partie de l'énoncé est plus forte que la seconde, car elle montre qu'on obtient la matrice en conjuguant par une matrice indépendante des coefficients de M et de N. Cela servira dans la suite.

Début d’un théorème


Fin du théorème


Début d’un théorème


Fin du théorème


Somme directe de représentations matricielles[modifier | modifier le wikicode]


Remarque. Pour le fait que U est un homomorphisme de groupes de G dans voir l'énoncé 11.

Début d’un théorème


Fin du théorème

Esquisse de démonstration. Pour tout i dans {1, ... , n}, désignons par l'espace de la représentation vectorielle et par le degré de , autrement dit la dimension de . Puisque, pour chaque i, et se correspondent, il existe pour tout i une base (numérotée) de telle que et se correspondent via cette base.
Pour tout r dans {1, ... , n}, désignons par la r-ième injection canonique . Désignons par B le -uplet

.

De façon plus précise,la s-ième composante du -uplet B est

,

désigne l'élément de {1, 2, ... , n} défini par

.

Alors B est une base (numérotée) de et on vérifie que la -représentation matricielle de G correspondant à la -représentations vectorielle via la base B est .

Début d’un théorème


Fin du théorème

Démonstration. Conséquence immédiate de l'associativité de la somme directe des matrices.

Début d’un théorème


Fin du théorème

Démonstration. Soient et les degrés respectifs de et . L'énoncé 10 fournit une certaine matrice (de permutation) , ne dépendant que de et de , telle que, pour tout élément g de G,

.

D'après la définition de la somme directe de deux représentations matricielles, cela peut s'écrire

.

Puisque P ne dépend pas de g, cela prouve que les -représentations matricielles et sont équivalentes.

Début d’un théorème


Fin du théorème

Démonstration. Pour tout i dans {1, ... , n}, désignons par le degré de et de . Puisque la représentation et la représentation sont équivalentes, il existe pour chaque i une matrice telle que, pour tout g dans G,

.

D'après l'énoncé 12, nous avons, pour tout g dans G,

,

désigne la somme directe de deux matrices.
D'après la définition de la somme directe de représentations matricielles, cela peut s'écrire

,

et désignent des sommes directes de représentations.
Puisque la matrice ne dépend pas de g, cela prouve que les représentations matricielles et sont équivalentes.

Début d’un théorème


Fin du théorème

Démonstration. D'après l'énoncé 16, on peut définir correctement la somme directe de deux classes d'équivalence de -représentations matricielles de G en prenant la somme directe de deux représentantes respectives de ces deux classes et en passant à la classe d'équivalence.
D'après les énoncés 14 et 15, la somme directe ainsi définie est une loi de composition associative et commutative dans l'ensemble des classes d'équivalence de -représentations matricielles de G. L'énoncé traduit dès lors une propriété connue des lois de composition à la fois associatives et commutatives.

Décomposition d'une représentation en somme directe de représentations irréductibles[modifier | modifier le wikicode]

Début d’un théorème


Fin du théorème

Démonstration. Soit V l'espace de la représentation T. Puisque la caractéristique du corps est nulle, elle ne divise pas l'ordre du sous-groupe T(G) de GL(V), donc, d'après le Théorème de Maschke, il existe des sous--espaces de V invariants par le groupe linéaire T(G) tels que V soit somme directe interne de la famille et que, pour tout i dans {1, ... , n}, le sous-groupe de GL(Vi) formé par les birestrictions à des éléments de T(G) soit irréductible.
Pour tout i dans {1, ... , n}, pour tout g dans G, pour tout v dans , posons

.

On vérifie que cela définit une représentation vectorielle irréductible de G dans .
Prouvons que la représentation T est équivalente à la somme directe S = .
Notons la somme directe externe de la famille de -espaces vectoriels.
Puisque V est somme directe interne des , il existe un (et un seul) -isomorphisme de sur V qui, pour tout élément de , applique cet élément sur .
On vérifie que, pour tout g dans G,

,

ce qui prouve que T est équivalente à S, d'où l'énoncé.

Début d’un théorème


Fin du théorème

Démonstration. Soit d le degré de U. Choisissons un -espace vectoriel V de dimension d et une base numérotée B de V. (On peut par exemple prendre pour V l'espace et pour B la base canonique de .)
Désignons par T la -représentation vectorielle de G dans V correspondant à U via la base B de V.
D'après le théorème 18, T est équivalente à une somme directe

de -représentations vectorielles irréductibles de G.
D'après la définition des -représentations matricielles irréductibles, correspond, pour tout i, à une -représentation matricielle irréductible de G.
D'après l'énoncé 13, la -représentation vectorielle correspond à la -représentation matricielle .
Récapitulons : U correspond à T, T est équivalente à et correspond à .
D'après l'énoncé 1, il en résulte que U est équivalente à , d'où la thèse.

Notes et références[modifier | modifier le wikicode]

  1. Conforme à N. Bourbaki, Algèbre, Chapitres 1 à 3, Paris, 1970, p. II.151.
  2. Cette définition est conforme à Jean Dazord, « Une propriété extrémale de la diagonale d'une matrice », Linear Algebra and its Applications 254, 67-77 (1997), p. 67, consultable en ligne.