Soit $u$ un endomorphisme d’un K-espace vectoriel $E$ de dimension finie (ou $A$ une matrice carrée).
- Polynôme d’endomorphisme : Pour tout polynôme $P(X) = \sum a_k X^k$, on peut l’évaluer en $u$ pour obtenir un nouvel endomorphisme $P(u) = \sum a_k u^k$.
- Polynôme caractéristique : Le polynôme caractéristique de $u$, noté $\chi_u(X)$, est défini par $\chi_u(X) = \det(X \cdot Id_E – u)$. C’est un polynôme dont les racines sont les valeurs propres de $u$.
Le théorème de Cayley-Hamilton affirme qu’il existe une relation très spéciale entre un endomorphisme et son propre polynôme caractéristique : l’endomorphisme est une « racine » de ce polynôme.
Tout endomorphisme d’un espace vectoriel de dimension finie annule son propre polynôme caractéristique.
Autrement dit, si $u$ est un endomorphisme et $\chi_u$ est son polynôme caractéristique, alors l’endomorphisme $\chi_u(u)$ est l’endomorphisme nul : $$ \chi_u(u) = 0 $$ De même, pour toute matrice carrée $A$, on a $\chi_A(A) = 0$.
Esquisse de la Démonstration (par la comatrice)
La démonstration est subtile. Une erreur commune serait de remplacer directement $X$ par $A$ dans la définition $\det(X \cdot I – A)$, ce qui donnerait $\det(A \cdot I – A) = \det(0) = 0$. Ce raisonnement est incorrect car les règles de substitution ne s’appliquent pas de cette manière aux matrices. La preuve correcte est plus formelle.
- Matrice des cofacteurs : Soit $B(X) = \text{com}(X \cdot I – A)$ la comatrice de la matrice $X \cdot I – A$. Les coefficients de $B(X)$ sont des polynômes en $X$ de degré au plus $n-1$. On peut donc écrire $B(X)$ comme un polynôme à coefficients matriciels : $B(X) = \sum_{k=0}^{n-1} B_k X^k$.
- Relation fondamentale : On utilise la relation fondamentale entre une matrice et sa transposée de la comatrice (sa matrice adjointe) : $$ (X \cdot I – A) \cdot {}^t\text{com}(X \cdot I – A) = \det(X \cdot I – A) \cdot I $$ Ce qui s’écrit (en notant $\tilde{B}(X)$ la transposée de la comatrice) : $$ (X \cdot I – A) \cdot \tilde{B}(X) = \chi_A(X) \cdot I $$
- Évaluation : Cette égalité est une égalité entre matrices dont les coefficients sont des polynômes. On peut l’évaluer en la matrice $A$. En faisant cela, on montre que le membre de gauche s’annule, ce qui implique que le membre de droite, $\chi_A(A)$, doit être la matrice nulle. Une manière plus formelle est d’écrire $\chi_A(X) = \sum c_k X^k$ et de développer les deux côtés de l’équation pour identifier les puissances de $X$. On obtient un système de relations entre les matrices $B_k$ et les coefficients $c_k$ qui, en se télescopant, mène à $\sum c_k A^k = 0$.
Implications et Utilisation
- Relation entre polynômes : Le théorème de Cayley-Hamilton implique que le polynôme minimal d’un endomorphisme divise toujours son polynôme caractéristique.
- Calcul de l’inverse d’une matrice : Si $A$ est une matrice inversible et $\chi_A(X) = X^n + c_{n-1}X^{n-1} + \dots + c_0$, alors $\chi_A(A) = A^n + \dots + c_1 A + c_0 I = 0$. En multipliant par $A^{-1}$, on obtient $A^{n-1} + \dots + c_1 I + c_0 A^{-1} = 0$. On peut alors isoler $A^{-1}$ : $$ A^{-1} = -\frac{1}{c_0}(A^{n-1} + c_{n-1}A^{n-2} + \dots + c_1 I) $$ (Notez que $c_0 = (-1)^n \det(A)$, qui est non nul si $A$ est inversible). Cela montre que l’inverse d’une matrice est toujours un polynôme en cette matrice.
- Calcul des puissances d’une matrice : Le théorème fournit une relation de récurrence linéaire pour les puissances de $A$. Par exemple, si $A$ est une matrice 2×2, on a $A^2 – \text{tr}(A)A + \det(A)I = 0$. On peut donc exprimer $A^2$ en fonction de $A$ et $I$. En multipliant par $A$, on peut exprimer $A^3$, et ainsi de suite. Toute puissance de $A$ peut être exprimée comme une combinaison linéaire de $A$ et $I$.