Les notions hors programme sont à travailler en priorité par les candidats visant les trois Parisiennes. Cet article te propose de découvrir les principales propriétés de la matrice ᵗAA, qui apparaît très fréquemment dans les sujets de concours, pour mieux t’aider à les comprendre si tu te trouves face à ce type de questions. Il te permettra aussi de généraliser certaines propriétés, notamment grâce à la formule liant le spectre d’un produit de matrices dans un sens et dans l’autre.
Introduction
Soit \(A = (a_{i,j})\) une matrice quelconque de taille \((n,p)\) à coefficients réels, où \(n\) et \(p\) deux entiers naturels non nuls.
L’utilisation de matrices qui ne sont pas carrées est très fréquente, notamment en sciences des données. Concrètement, si on rentre des statistiques dans un tableau Excel avec les individus interrogés en lignes et les variables étudiées en colonnes, il n’y a aucune raison qu’on ait autant de lignes que de colonnes. Si c’était le cas, ce serait une pure coïncidence.
Cependant, les matrices carrées ont parfois des propriétés extrêmement pratiques. Elles sont parfois diagonalisables, parfois inversibles… On aimerait bien pouvoir se ramener à l’étude d’une matrice carrée qui ait de telles propriétés au lieu d’étudier \(A\).
C’est donc assez naturellement qu’intervient la matrice \({}^tAA\) (transposée de \(A\) fois \(A\)).
Soit dit en passant, \({}^tAA\) est une grande célébrité aux concours des écoles de commerce. Voici une petite liste (non exhaustive) de sujets de concours dans lesquels elle intervient au moins dans quelques questions :
- HEC/ESSEC 2024 : norme de Frobenius \(A\mapsto\sqrt{\text{Tr}({}^tAA)}\) et utilisation pour établir une CNS pour que \(A\) soit une matrice orthogonale/de Hadamard
- emlyon 2022 : noyau, rang et signe des valeurs propres de \({}^tAA\) ; utilisation des valeurs propres de \({}^tAA\) pour calculer la décomposition en valeurs singulières de \(A\) et sa matrice pseudo-inverse
- emlyon 2020 : symétrie, signe des valeurs propres de \({}^tAA\)
- HEC/ESSEC 2019 : une bonne moitié de l’épreuve porte sur les propriétés de \({}^tAA\) (symétrie, noyau, rang…)
- HEC 2016 : utilisation pour le calcul de l’inverse de Moore-Penrose
- ESSEC 2014 : solutions de l’équation \({}^tAA=A{}^tA\)
- emlyon 2013 : produit scalaire de Frobenius et symétrie de \({}^tAA\)
- ESSEC 2012 : décomposition spectrale de \({}^tAA\)
- Maths II 2012 : utilisation dans le problème des moindres carrés
- HEC 2008 : symétrie, signe des valeurs propres et rang de \({}^tAA\), égalité \(\text{Sp}({}^tAA)=\text{Sp}(A{}^tA)\) ; utilisation des valeurs propres de \({}^tAA\) pour calculer la décomposition en valeurs singulières de \(A\)
- Ecricome 2007 : produit scalaire de Frobenius, symétrie et signe des valeurs propres de \({}^tAA\)
- HEC 2003 : symétrie et signe des valeurs propres de \({}^tAA\)
Premières propriétés immédiates de ᵗAA
Tout d’abord, remarquons que \({}^tAA\) est une matrice carrée. En effet, \({}^tA\) est de taille \((p,n)\), donc par produit, \({}^tAA\) est de taille \((p,p)\).
Elle est symétrique : en effet, la formule de transposée d’un produit nous donne
\[{}^t({}^tAA) = {}^tA\times{}^t({}^tA) = {}^tAA\]
Autre curiosité à propos de cette matrice : calculer sa trace revient à calculer la somme des carrés des coefficients de \(A\). Il suffit pour le voir d’appliquer la définition de la trace, puis celle du produit matriciel :
\[\text{Tr}({}^tAA) = \sum_{j=1}^p[{}^tAA]_{j,j} = \sum_{j=1}^p \sum_{i=1}^n a_{i,j}^2\]
Valeurs propres de ᵗAA
Nous allons démontrer un résultat qui apparaît très fréquemment dans les sujets de concours, écrits comme oraux : toutes les valeurs propres de \({}^tAA\) sont positives ou nulles.
Avant de le prouver, commençons par remarquer que, puisque \({}^tAA\) est symétrique réelle, elle admet bien au moins une valeur propre.
Soit donc \(\lambda\) une valeur propre de \({}^tAA\). Montrons que \(\lambda\geq 0\).
Par définition, il existe un vecteur \(X\) de taille \((p,1)\), non nul, tel que \({}^tAAX = \lambda X\).
L’idée qui débloque tout est de penser à multiplier par \({}^tX\) à gauche. On obtient : \({}^tX{}^tAAX = \lambda {}^tXX\).
Autrement dit, \(\|AX\|^2 = \lambda \|X\|^2\).
Or, puisque \(X\) est non nul, \(\|X\|\ne 0\).
D’où : \(\lambda = \frac{\|AX\|^2}{\|X\|^2} \geq 0\).
Ainsi, toutes les valeurs propres de \({}^tAA\) sont positives ou nulles.
On peut aussi formuler cette propriété d’une autre façon : la matrice \({}^tAA\) est « symétrique positive » (voir cet article si tu n’es pas à l’aise avec cette notion, certes hors programme mais archi-fréquente aux concours). En effet, pour tout vecteur \(X\) de taille \((p,1)\), on a \({}^tX({}^tAA)X=\|AX\|^2\geq 0\), ce qui équivaut à dire que les valeurs propres de \({}^tAA\) sont positives ou nulles.
Noyau, rang et image de ᵗAA
Dans la même veine, le noyau, le rang et l’image de \({}^tAA\) sont des énormes classiques des concours.
On commence par montrer que \({}^tAA\) a le même noyau que \(A\), et par le théorème du rang, on en déduit que \({}^tAA\) et \(A\) ont aussi le même rang. L’égalité de rang peut être vue comme une égalité de dimensions, ce qui facilite alors les calculs pour déterminer l’image de \({}^tAA\).
Montrons que \(\text{Ker}({}^tAA) = \text{Ker}(A)\).
D’abord, il est clair que si \(AX=0\), alors \({}^tAAX=0\), ce qui se traduit en termes de noyaux par \(\text{Ker}(A) \subset \text{Ker}({}^tAA)\).
Montrons l’inclusion réciproque.
Soit \(X\in\text{Ker}({}^tAA)\). On a \({}^tAAX=0\).
À nouveau, l’astuce pour s’en sortir est de penser à multiplier par \({}^tX\) à gauche.
Il vient alors \({}^tX{}^tAAX=0\), soit encore \(\|AX\|^2=0\), d’où \(AX=0\), c’est-à-dire \(X\in\text{Ker}(A)\).
Ainsi, \(\text{Ker}({}^tAA) = \text{Ker}(A)\).
Montrons désormais que \(\text{rg}({}^tAA) = \text{rg}(A)\).
Pour cela, on applique le théorème du rang deux fois.
D’abord, en l’appliquant à la matrice \({}^tAA\), qui est de taille \((p,p)\), on obtient :
\[p = \dim(\text{Ker}({}^tAA)) + \text{rg}({}^tAA) \qquad (1)\]
On peut aussi l’appliquer à \(A\).
⚠️ Attention : pour les matrices qui ne sont pas carrées, ne pas se tromper pour le nombre à gauche dans l’égalité du théorème du rang : il s’agit bien du nombre de colonnes !
En effet, le théorème du rang pour une application linéaire \(f:E\to F\) où \(E\) et \(F\) sont de dimensions finies nous dit que \(\dim(E) = \dim(\text{Ker}(f)) + \text{rg}(f)\). Or, lorsqu’on écrit la matrice de \(f\), le nombre de colonnes est égal au nombre d’éléments \(f(e_1),\dots,f(e_p)\) si \((e_1,\dots,e_p)\) est une base de \(E\)… autrement dit, c’est la dimension de \(E\).
Le théorème du rang appliqué à \(A\) donne donc :
\[p = \dim(\text{Ker}(A)) + \text{rg}(A) \qquad (2)\]
Mais comme les noyaux de \(A\) et \({}^tAA\) sont égaux, en particulier ils ont la même dimension.
Donc, en soustrayant les égalités (1) et (2), on obtient \(0 = \text{rg}({}^tAA) – \text{rg}(A)\), c’est-à-dire, \(\text{rg}({}^tAA) = \text{rg}(A)\).
Enfin, montrons que \(\text{Im}({}^tAA) = \text{Im}({}^tA)\).
Remarquons d’abord que ces deux ensembles ont la même dimension : en effet, par ce qui précède, \(\text{rg}({}^tAA) = \text{rg}(A)\), or d’après le cours \(\text{rg}(A) = \text{rg}({}^tA)\).
Il nous suffit donc de montrer une seule inclusion. Montrons que \(\text{Im}({}^tAA) \subset \text{Im}({}^tA)\).
Soit \(Y\in\text{Im}({}^tAA)\). Il existe \(X\) un vecteur de taille \((p,1)\) tel que \(Y = {}^tAAX\).
Donc, \(Y = {}^tA(AX)\), ainsi \(Y\in \text{Im}({}^tA)\).
Ainsi, \(\text{Im}({}^tAA) = \text{Im}({}^tA)\).
Noyau et image supplémentaires orthogonaux
Le noyau et l’image de \({}^tAA\) sont supplémentaires orthogonaux, c’est-à-dire :
\[\text{Ker}({}^tAA) = \text{Im}({}^tAA)^\perp\]
Par ce qui précède, cette égalité se reformule en un résultat qui a une « tête » plus générale, même si on dit la même chose :
\[\text{Ker}(A) = \text{Im}({}^tA)^\perp\]
Montrons cette dernière égalité.
Soient \(X\in\text{Ker}(A)\) et \(Z\in\text{Im}({}^tA)\). Il existe donc \(Y\) un vecteur de taille \((p,1)\) tel que \(Z={}^tAY\).
D’où :
\[\langle X,Z\rangle=\langle X,{}^tAY\rangle={}^tX{}^tAY={}^t(AX)Y=0\]
Donc, \(\text{Ker}(A)\subset\text{Im}({}^tA)^\perp\).
De plus, d’après le théorème du rang :
\[\dim(\text{Ker}(A))=p-\text{rg}(A)=p-\text{rg}({}^tA)=\dim(\text{Im}({}^tA)^\perp)\]
Ainsi : \(\text{Ker}({}^tAA)=\text{Im}({}^tAA)^\perp\).
Condition nécessaire d’inversibilité
On a l’implication suivante : si \({}^tAA\) est inversible, alors \(n\geq p\).
Preuve : par contraposée, supposons que \(n<p\). On sait que \(\text{rg} A\leq\min\{n,p\}=n<p\) donc d’après ce qui précède, \(\text{rg}({}^tAA)<p\). Ainsi, puisque \({}^tAA\) est de taille \(p\), elle n’est pas inversible.
Lien avec la matrice AᵗA
Comme souvent en maths, on aime bien inverser deux objets et voir ce que cela change. A-t-on les mêmes propriétés pour \(A{}^tA\) ? Réponse : certaines propriétés sont conservées, d’autres sont légèrement modifiées.
\(A{}^tA\) est également une matrice carrée mais de taille \(n\) cette fois, toujours symétrique, et la propriété \(\text{Tr}(AB) = \text{Tr}(BA)\) nous informe que la trace de \(A{}^tA\) peut se calculer de la même façon que celle de \({}^tAA\). Les égalités pour les noyaux et images sont modifiées : en appliquant nos résultats à la matrice \({}^tA\), on obtient \(\text{Ker}(A{}^tA)=\text{Ker}({}^tA)\) et \(\text{Im}(A{}^tA)=\text{Im}(A)\). Par conséquent l’égalité de rang pour \(A{}^tA\) est toujours valide. La condition nécessaire d’inversibilité devient : \(A{}^tA\) inversible \(\Longrightarrow n\leq p\).
Plus intéressant : non seulement les valeurs propres de \(A{}^tA\) restent positives ou nulles, mais en plus si \(A\) est carrée, \({}^tAA\) et \(A{}^tA\) ont les mêmes valeurs propres ! En effet plus généralement, si \(M\) et \(N\) sont carrées de même taille, \(\text{Sp}(MN)=\text{Sp}(NM)\). Prouvons-le !
Par symétrie, il suffit de montrer \(\text{Sp}(MN)\subset\text{Sp}(NM)\). Soient \(\lambda\in\text{Sp}(MN)\) et \(X\) un vecteur propre associé : \(MNX=\lambda X\).
- Si \(NX\ne 0\) : \(NMNX=\lambda NX\) d’où \(\lambda\in\text{Sp}(NM)\).
- Si \(NX=0\) : alors \(0=\lambda X\) avec \(X\ne0\) d’où \(\lambda=0\). Ainsi \(0\in\text{Sp}(MN)\) donc \(MN\) n’est pas inversible. Par l’absurde supposons \(NM\) inversible, posons \(Q=(NM)^{-1}\), on a \(QNM=NMQ=I\), donc \(M\) et \(N\) inversibles, donc \(MN\) inversible, ce qui est faux. Donc \(NM\) n’est pas inversible. Donc \(\lambda=0\in\text{Sp}(NM)\).
En particulier lorsque \(A\) est carrée :
\[\text{Sp}({}^tAA)=\text{Sp}(A{}^tA)\]
Conclusion
Les démonstrations faites dans cet article sont ultra-classiques et je t’encourage vivement à les refaire. Si tu veux t’entraîner sur ces thèmes, je te recommande de faire des sujets parmi la liste en début d’article, et notamment HEC/ESSEC 2019.
N’hésite pas à consulter toutes nos ressources mathématiques.