Leçons de niveau 14

Théorie des groupes/Représentations complexes des groupes finis, 1

Une page de Wikiversité.
Aller à : navigation, rechercher
Début de la boite de navigation du chapitre
Représentations complexes des groupes finis, 1
Icône de la faculté
Chapitre no 36
Leçon : Théorie des groupes
Chap. préc. : Théorème de Maschke

Exercices :

Représentations complexes des groupes finis, 1
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « Théorie des groupes : Représentations complexes des groupes finis, 1
Théorie des groupes/Représentations complexes des groupes finis, 1
 », n'a pu être restituée correctement ci-dessus.

Dans ce chapitre, on va donner les premiers éléments sur les représentations complexes des groupes finis.

Le chapitre est un peu long pour son contenu, car on a voulu expliciter des choses sur lesquelles les auteurs passent rapidement. On a donné très peu de démonstrations, car elles ne sont pas difficiles, même si une rédaction rigoureuse demande parfois un effort de concentration. On ne conseille d'ailleurs pas au lecteur de s'astreindre à rédiger les démonstrations de tous les énoncés, mais plutôt de réserver son attention aux énoncés qualifiés de théorèmes.

On utilisera parfois une notation inhabituelle de la somme d'une famille finie d'éléments d'un monoïde commutatif (noté additivement) :
par , on désignera la somme de la famille , où E désigne l'ensemble des u possédant la propriété P(u). Cette notation a sur la notation courante

l'avantage de montrer clairement que la variable de sommation est u.

En ce qui concerne les matrices, on suivra les mêmes conventions qu'au chapitre Simplicité des groupes linéaires spéciaux projectifs. Au lieu de « matrice à coefficients dans  » (où désigne le corps des nombres complexes), on dira parfois « -matrice ».

Notion de représentation[modifier | modifier le wikicode]

On désignera par le corps des nombres complexes.
Si V est un -espace vectoriel, on désignera par GL(V) le groupe formé par les -automorphismes de V, la loi de groupe étant la composition de droite à gauche (Cette composition est dite de droite à gauche parce qu'on prend d'abord la valeur par g, qui est écrite à droite, puis la valeur du résultat par f, qui est écrite à gauche.)
Pour un nombre naturel n, on désignera par GL(n, ) le groupe multiplicatif formé par les matrices inversibles à coefficients dans , le produit de deux matrices étant défini comme au chapitre Simplicité des groupes linéaires spéciaux projectifs.



Remarques.

  1. Si on convient d'incorporer les espaces vectoriels de départ et d'arrivée dans la notion d'un homomorphisme d'espaces vectoriels, alors V est déterminé par GL(V), et même par n'importe quel élément de GL(V). Si, de plus, on convient d'incorporer les groupes de départ et d'arrivée dans la notion d'un homomorphisme de groupes, alors GL(V), et donc aussi V d'après ce qu'on vient de noter, est déterminé par T, de sorte que parler de (V, T) est redondant. Donc, si on adopte les conventions en question, on peut se contenter de définir une -représentation vectorielle de G comme un homomorphisme de groupes T de G dans GL(V) pour un certain -espace vectoriel V de dimension finie.
  2. Même sans adopter ces conventions, on identifie couramment la représentation (V, T) et l'homomorphisme T.
  3. Une -représentation (vectorielle) de G dans V peut être considérée comme un cas particulier d'action (à gauche) du groupe G sur l'ensemble (sous-jacent de) V, et même comme un cas particulier d'action de G sur le groupe additif V, + par automorphismes (voir chapitre Produit semi-direct).



Remarques.

  1. On peut définir une F-représentation (vectorielle ou matricielle) de G pour tout corps commutatif F, ce qui donne lieu à des développements théoriques importants, mais on ne s'intéressera dans ce cours qu'au cas où .
  2. Comme le groupe GL(1, ) est canoniquement isomorphe au groupe multiplicatif du corps , une représentation matricielle de degré 1 d'un groupe fini G peut être assimilée à un homomorphisme de G dans .




Puisque les isomorphismes et sont réciproques l'un de l'autre, nous avons défini une bijection (dépendant de B) entre l'ensemble des -représentations vectorielles de G dans V et l'ensemble des -représentations de degré n de G.

Soit G un groupe fini. Nous dirons qu'une -représentation vectorielle T de G et une -représentation matricielle U de G se correspondent s'il existe une base numérotée B de l'espace V de T telle que U soit la -représentation matricielle de G correspondant à T via B (ou, ce qui revient au même, telle que T soit la -représentation vectorielle de G correspondant à U via B).

Puisque tout espace vectoriel admet une base, toute représentation vectorielle de G correspond à une représentation matricielle de G et réciproquement.

Il est clair qu'une représentation vectorielle et une représentation matricielle qui se correspondent sont ensemble fidèles ou non (puisqu'on passe de la représentation vectorielle à la représentation matricielle en faisant suivre la représentation vectorielle par un certain isomorphisme de groupes).

De même, une représentation vectorielle et une représentation matricielle qui se correspondent sont ensemble triviales ou non.

Exemples de représentations[modifier | modifier le wikicode]

1. Les représentations triviales, dont il a été question, fournissent un premier exemple (trivial) de -représentations vectorielles et matricielles.

2. Soit G un groupe cyclique d'ordren, noté multiplicativement, soit x un élément de G qui engendre G, soit une racine primitive d'ordre n de 1 dans . Soit U l'unique homomorphisme de G dans GL(1, ) qui applique x sur la matrice dont l'unique coefficient est . (Pour tout entier rationnel r, on a donc .) Alors U est une -représentation fidèle de degré 1 du groupe cyclique G.

3. Soit G un sous-groupe du groupe symétrique . Donc tout élément de G est une permutation de l'ensemble {1, 2, ... , n}. Si à l'élément de G, on fait correspondre la -matrice de la permutation , c'est-à-dire la matrice

est
,
autrement dit,
, symbole de Kronecker dans ,
on définit une -représentation matricielle fidèle de degré n de G.

4. Représentation régulière gauche. Soit G un groupe fini. Rappelons que le -espace vectoriel libre construit sur l'ensemble G est par définition l'ensemble des applications de G dans , muni d'une addition et d'une loi externe définies « point par point ».
Cet espace vectoriel est noté ou .
Si, pour tout élément g de G, on désigne par l'application de G dans qui vaut 1 en g et 0 partout ailleurs, les éléments de de la forme forment une base de .
L'application de G dans est injective, ce qui amène à identifier l'élément de à l'élément g de G et donc à écrire g au lieu de . Avec cette identification, G est une base de . (En faisant des remplacements convenables dans , on pourrait d'ailleurs obtenir un -espace vectoriel ayant l'ensemble G pour base en toute rigueur des termes, mais cela n'en vaut pas la peine.)
La structure de monoïde de G permet de munir le -espace vectoriel d'une structure de -algèbre associative unifère. (Pour la définition d'une telle algèbre, voir le chapitre Théorème de Maschke.) Pour cela, on définit une multiplication dans en posant, pour toute famille et toute famille de nombres complexes,

,

ce qui peut encore s'écrire

,

. Cette multiplication dans coïncide dans la partie G de avec la loi de groupe de G.
Pour tout élément g de G, désignons par la transformation de , où gx est calculé selon la multiplication qu'on vient de définir dans . On vérifie facilement que est un automorphisme du -espace vectoriel et que définit un homomorphisme de groupes de G dans , autrement dit une -représentation (vectorielle) de G dans l'espace . Cette représentation, qui joue un rôle dans la théorie, est appelée la -représentation régulière gauche de G.
En considérant la transformation de , on définira de même une -représentation de G, dite -représentation régulière droite de G. (Noter qu'ici, il faut inverser g pour obtenir une représentation conforme à notre définition des représentations.)
Il nous arrivera de dire « représentation régulière » tout court pour « représentation régulière gauche ».

Représentations équivalentes[modifier | modifier le wikicode]


Remarques.

  1. On vérifie facilement que l'équivalence entre -représentations vectorielles de G est une relation d'équivalence.
  2. L'équivalence définie ici est évidemment plus forte que l'équivalence entre les actions de G sur les ensembles V1 et V2, puisqu'on demande que f soit non seulement une bijection mais un isomorphisme de -espaces vectoriels.
  3. Si deux -représentations vectorielles de G sont équivalentes, elles ont le même degré (puisque deux espaces vectoriels isomorphes ont la même dimension).



Ici encore, on vérifie facilement que l'équivalence entre -représentations matricielles de G est une relation d'équivalence.

Début d’un théorème
Fin du théorème

Démonstration. Laissée au lecteur.

Représentations irréductibles[modifier | modifier le wikicode]


Dire qu'une -représentation vectorielle est irréductible revient donc à dire que les conditions suivantes sont satisfaites : l'espace V de T n'est pas nul et il n'existe pas de sous--espace vectoriel W de V tel que 0 < W < V et que, pour tout g dans G et tout w dans W, (T(g)) (w) appartienne à W.
Ces conditions peuvent encore s'exprimer comme suit : l'espace V de T n'est pas nul et il n'existe pas de sous--espace vectoriel W de V tel que 0 < W < V et que, pour tout g dans G, (T(g)) (W) = W.
Il est clair que toute représentation de degré 1 est irréductible.

Début d’un théorème
Fin du théorème

Démonstration. Laissée au lecteur.

Soient G un groupe fini et U une -représentation matricielle de G. D'après les énoncés 1 et 2, les deux conditions suivantes sont équivalentes :

  1. il existe une -représentation vectorielle de G qui correspond à U et qui est irréductible;
  2. toute -représentation vectorielle de G qui correspond à U est irréductible.



Remarque. Pour définir une représentation matricielle irréductible, on a dû passer par une représentation vectorielle. Il y a donc une certaine dissymétrie entre représentations vectorielles et représentations matricielles.

Début d’un théorème
Fin du théorème

Démonstration. Cela se déduit facilement de l'énoncé 2.

Somme directe de représentations vectorielles[modifier | modifier le wikicode]

Si est une famille finie de -espaces vectoriels, si est une famille telle que pour tout élément i de I, soit un -endomorphisme de , alors définit un -endomorphisme de l'espace (somme directe des espaces ). Nous désignerons (abusivement) cet endomorphisme comme la somme directe des et nous le noterons (abusivement) . Si les sont des -automorphismes, est lui aussi un -automorphisme.

Soit G un groupe fini, soit une famille finie de -représentations vectorielles de G. Pour chaque i dans I, notons l'espace de la représentation . Soit g un élément de G. Dans la terminologie et les notations de l'alinéa précédent, est un -automorphisme de et définit un homomorphisme de groupes de G dans , autrement dit une -représentation (vectorielle) de G dans .



Début d’un théorème
Fin du théorème

Démonstration. Laissée au lecteur.

Début d’un théorème
Fin du théorème

Démonstration. Laissée au lecteur.

Quelques faits concernant les matrices[modifier | modifier le wikicode]

Pour définir sans ambiguïté la somme directe d'un multiplet de -représentations matricielles d'un groupe fini et pour mettre cette définition en rapport avec celle de la somme directe de représentations vectorielles, on aura besoin de quelques notions sur les matrices. Comme il s'agit de théorie des matrices plutôt que de théorie des groupes, on sera avare de démonstrations.

Rappelons que, A étant un anneau, désigne l'anneau des matrices carrées à coefficients dans A.

M et N étant deux matrices (non forcément carrées) à coefficients dans un anneau A, définissons de façon informelle la somme directe de M et N comme la matrice obtenue en plaçant diagonalement le tableau de N à droite et en dessous du tableau de M et en complétant le nouveau tableau en mettant à chaque place libre le zéro de l'anneau A. (La somme directe ainsi définie dépend donc de l'anneau A.)

Dans la terminologie des blocs, la somme directe de M et N (par rapport à l'anneau A) est la matrice diagonale par blocs dont les blocs diagonaux sont respectivement M et N[1].

Par exemple, si

et ,

alors la somme directe de M et N est

De façon formelle :



Nous noterons la somme directe des matrices M et M'. Comme déjà noté, dépend de A, ce que la notation ne montre pas.

Début d’un théorème
Fin du théorème

Démonstration. La définition informelle de la somme directe de deux matrices comme mise bout à bout diagonalement de ces deux matrices rend l'énoncé évident. De façon formelle, on peut dire que les matrices et sont toutes deux égales à la matrice


Soient des matrices à coefficients dans l'anneau A. Puisque la somme directe des matrices à coefficients dans l'anneau A est associative, on peut écrire

sans parenthèses.

On peut d'ailleurs expliciter de la façon suivante :

Début d’un théorème
Fin du théorème


Début d’un théorème
Fin du théorème


Revenons aux matrices de permutation, que nous avons déjà rencontrées dans les premiers exemples de représentations. Rappelons cette définition[2] :



Si l'anneau A est non nul, toute ligne et toute colonne d'une matrice de permutation (relativement à l'anneau A) a donc un et un seul coefficient non nul et ce coefficient est égal à 1.

Début d’un théorème
Fin du théorème


Début d’un théorème
Fin du théorème

Remarque. La première partie de l'énoncé est plus forte que la seconde, car elle montre qu'on obtient la matrice en conjuguant M par une matrice indépendante des coefficients de M. Cela servira dans la suite.

Début d’un théorème
Fin du théorème


Remarque. La première partie de l'énoncé est plus forte que la seconde, car elle montre qu'on obtient la matrice en conjuguant par une matrice indépendante des coefficients de M et de N. Cela servira dans la suite.

Début d’un théorème
Fin du théorème


Début d’un théorème
Fin du théorème


Somme directe de représentations matricielles[modifier | modifier le wikicode]

Remarque. Pour le fait que U est un homomorphisme de groupes de G dans voir l'énoncé 12.

Début d’un théorème
Fin du théorème

Esquisse de démonstration. Pour tout i dans {1, ... , n}, désignons par l'espace de la représentation vectorielle et par le degré de , autrement dit la dimension de . Puisque, pour chaque i, et se correspondent, il existe pour tout i une base (numérotée) de telle que et se correspondent via cette base.
Pour tout r dans {1, ... , n}, désignons par la r-ième injection canonique . Désignons par B le -uplet

.

De façon plus précise,la s-ième composante du -uplet B est

,

désigne l'élément de {1, 2, ... , n} défini par

.

Alors B est une base (numérotée) de et on vérifie que la -représentation matricielle de G correspondant à la -représentations vectorielle via la base B est .

Début d’un théorème
Fin du théorème

Démonstration. Conséquence immédiate de l'associativité de la somme directe des matrices.

Début d’un théorème
Fin du théorème

Démonstration. Soient et les degrés respectifs de et . L'énoncé 11 fournit une certaine matrice (de permutation) , ne dépendant que de et de , telle que, pour tout élément g de G,

.

D'après la définition de la somme directe de deux représentations matricielles, cela peut s'écrire

.

Puisque P ne dépend pas de g, cela prouve que les -représentations matricielles et sont équivalentes.

Début d’un théorème
Fin du théorème

Démonstration. Pour tout i dans {1, ... , n}, désignons par le degré de et de . Puisque la représentation et la représentation sont équivalentes, il existe pour chaque i une matrice telle que, pour tout g dans G,

.

D'après l'énoncé 13, nous avons, pour tout g dans G,

,

désigne la somme directe de deux matrices.
D'après la définition de la somme directe de représentations matricielles, cela peut s'écrire

,

et désignent des sommes directes de représentations.
Puisque la matrice ne dépend pas de g, cela prouve que les représentations matricielles et sont équivalentes.

Début d’un théorème
Fin du théorème

Démonstration. On pourrait considérer pour chaque -représentation matricielle U de G l'ensemble des -représentations matricielles de G équivalentes à U (cet ensemble existe), qu'on appellerait la classe d'équivalence de U. D'après l'énoncé 17, on pourrait définir correctement la somme directe de deux classes d'équivalence (de -représentations matricielles de G) en prenant la somme directe de deux représentantes respectives de ces deux classes et en passant à la classe d'équivalence.
D'après les énoncés 15 et 16, la somme directe ainsi définie serait une loi de composition associative et commutative dans l'ensemble des classes d'équivalence de -représentations matricielles de G (cet ensemble existe). L'énoncé traduirait alors une propriété connue des lois de composition à la fois associatives et commutatives.

Décomposition d'une représentation en somme directe de représentations irréductibles[modifier | modifier le wikicode]

Début d’un théorème
Fin du théorème

Démonstration. Soit V l'espace de la représentation T. Puisque la caractéristique du corps est nulle, elle ne divise pas l'ordre du sous-groupe T(G) de GL(V), donc, d'après le Théorème de Maschke, il existe des sous--espaces de V invariants par le groupe linéaire T(G) tels que V soit somme directe interne de la famille et que, pour tout i dans {1, ... , n}, le sous-groupe de GL(Vi) formé par les birestrictions à des éléments de T(G) soit irréductible.
Pour tout i dans I, pour tout g dans G, pour tout v dans , posons

.

On vérifie que cela définit une représentation vectorielle irréductible de G dans .
Prouvons que la représentation T est équivalente à la somme directe S = .
Notons la somme directe externe de la famille de -espaces vectoriels.
Puisque V est somme directe interne des , il existe un (et un seul) -isomorphisme de sur V qui, pour tout élément de , applique cet élément sur .
On vérifie que, pour tout g dans G,

,

ce qui prouve que T est équivalente à S, d'où l'énoncé.

Début d’un théorème
Fin du théorème

Démonstration. Soit d le degré de U. Choisissons un -espace vectoriel V de dimension d et une base numérotée B de V. (On peut par exemple prendre pour V l'espace et pour B la base canonique de .)
Désignons par T la -représentation vectorielle de G dans V correspondant à U via la base B de V.
D'après le théorème 19, T est équivalente à une somme directe

de -représentations vectorielles irréductibles de G. D'après la définition des -représentations matricielles irréductibles, correspond, pour tout i, à une -représentation matricielle irréductible de G.
D'après l'énoncé 14, la -représentation vectorielle correspond à la -représentation matricielle .
Récapitulons : U correspond à T, T est équivalente à et correspond à .
D'après l'énoncé 1, il en résulte que U est équivalente à , d'où la thèse.

Commutant d'une représentation[modifier | modifier le wikicode]

Rappelons que si A est un anneau et X une partie de A, on définit le commutant de X (dans A) comme l'ensemble des éléments de A qui commutent avec tout élément de X pour la multiplication dans A. Le commutant de X dans A est un sous-anneau de A.

Rappelons aussi que si V est un -espace vectoriel, l'ensemble End(V) des -endomorphismes de V, muni de l'addition point par point et de la composition des endomorphismes, est un anneau. Si V est de dimension finie d, End(V) est isomorphe à l'anneau de matrices . Plus précisément, si B désigne une base numérotée de V, l'application de End(V) sur qui à tout élément u de End(V) fait correspondre la matrice de u dans la base B est un isomorphisme d'anneaux.




Remarque. Soit G un groupe fini, soit T une -représentation vectorielle de G, d'espace V, soit U une -représentation matricielle de G. On suppose que T et U se correspondent via une base numérotée B de V. Désignons par d le degré de T et de U, autrement dit la dimension de V. Si désigne l'isomorphisme d'anneaux de End(V) sur qui à tout élément u de End(V) fait correspondre la matrice de u dans la base B, on montre facilement que le commutant de U est égal à .

Début d’un théorème
Fin du théorème

Démonstration. Supposons f non nul. Il s'agit donc de prouver que

(thèse 1) f est un isomorphisme d'espaces vectoriels.

Pour tout élément v de Ker(f) (noyau de f) et tout élément g de G,

f(S(g)(v)) = T(g) (f(v)) = T(g) (0) = 0,

donc S(g)(v) appartient à ker(f), ce qui montre que ker(f) est un sous-espace de V invariant par S(G). Ce sous-espace n'est pas V tout entier (puisque f est supposé non nul), donc, puisque S est supposée irréductible, ker(f) est nul, c'est-à-dire que

(2) f est injectif.

Prouvons maintenant que f est surjectif. Soit w un élément de Im(f) (image de f). Il existe donc un élément u de V tel que w = f(u). Pour tout élément g de G, nous avons

,

donc appartient à Im(f), ce qui montre que le sous-espace Im(f) de W est invariant par T(G). Puisque la représentation T est supposée irréductible, Im(f) est donc nul ou égal à W tout entier. Mais il n'est pas nul (puisque f est supposé non nul), donc il est égal à W, ce qui signifie que f est surjectif. Joint à (2), cela prouve la thèse (1).

Pour un espace vectoriel V, on définira une homothétie de V comme un -endomorphisme f de V possédant la propriété suivante : il existe un scalaire tel que, pour tout v dans V, . On n'exclut pas la valeur , donc l'endomorphisme nul est une homothétie. Les homothéties de V forment un sous-anneau de End(V). Si V est non nul, ce sous-anneau est un corps isomorphe à .

Début d’un théorème
Fin du théorème

Démonstration (de routine). Choisissons des -espaces vectoriels V et W de dimensions s et t respectivement, choisissons des bases et de V et W respectivement.
Désignons par S la -représentation vectorielle de G dans V correspondant à la -représentation matricielle via la base de V. Donc S fait correspondre à l'élément g de G le -automorphisme de V ayant pour matrice dans la base de V.
De même, désignons par T la -représentation vectorielle de G dans W correspondant à la -représentation matricielle via la base de W. Donc T fait correspondre à l'élément g de G le -automorphisme de W ayant pour matrice dans la base de W.
Désignons par A le -homomorphisme de V dans W qui admet pour matrice dans les bases et de V et W.
De l'hypothèse

,

on tire, en passant aux matrices dans les bases et ,

A S(g) = T(g) A

pour tout g dans G.
Donc, d'après le théorème 21, le -homomorphisme A de V dans W est nul ou est un isomorphisme. Donc la matrice est nulle ou est une matrice carrée inversible; dans le second cas, la relation

,

vraie pour tout g dans G, montre que les -représentations matricielles et sont équivalentes.

Début d’un théorème
Fin du théorème

Démonstration. On vérifie facilement que toute homothétie de V commute (pour la composition) avec tout élément de End(V) et en particulier avec tout élément de T(G), donc toute homothétie de V appartient au commutant de T.
Réciproquement, soit f un élément du commutant de T et prouvons que f est une homothétie.
Puisque la représentation T est supposée irréductible, V est non nul, ce qui nous dispensera de certaines précautions de langage. Puisque le corps est algébriquement clos, f admet au moins une valeur propre. Choisissons-en une, soit . Puisque f et (où I désigne l'endomorphisme identité de V) appartiennent au commutant de T, appartient lui aussi au commutant de T. Mais en appliquant le théorème 21 au cas où S et T sont une même -représentation vectorielle irréductible de G, nous trouvons que tout élément du commutant de T est nul ou inversible, donc est nul ou inversible. Il n'est pas inversible, puisque est une valeur propre de f, donc il est nul, ce qui revient à dire que f est égal à l'homothétie .

Début d’un théorème
Fin du théorème

Considérer une représentation vectorielle correspondant à U. Les détails sont laissés au lecteur.

Début d’un théorème
Fin du théorème

Démonstration. Il suffit de le démontrer dans le cas où T est une représentation vectorielle (puisqu'une représentation matricielle et une représentation vectorielle qui se correspondent ont le même degré et sont ensemble irréductibles ou non). Soit alors V l'espace de la représentation T. Puisque G est abélien, T(G) l'est aussi, donc T(G) est contenu dans son commutant (dans End(V)), c'est-à-dire dans le commutant de T. Compte tenu du théorème 22, ce commutant est formé des homothéties, donc pour tout élément g de G, T(g) est une homothétie. Il en résulte que tout sous-espace W de V est invariant par T(G). Puisque T est irréductible, ce n'est possible que si V est de dimension 1, donc T est de degré 1.

Notes et références[modifier | modifier le wikicode]

  1. Cette définition est conforme à Jean Dazord, « Une propriété extrémale de la diagonale d'une matrice », Linear Algebra and its Applications 254, 67-77 (1997), p. 67, consultable en ligne.
  2. Conforme à N. Bourbaki, Algèbre, Chapitres 1 à 3, Paris, 1970, p. II.151.