Diagonalisation d’une matrice symétrique réelle : la méthode

Diagonalisation d’une Matrice Symétrique Réelle : la Méthode

Les matrices symétriques réelles sont au cœur de nombreux domaines des mathématiques et de la physique. Leur grande force vient d’une propriété remarquable garantie par le Théorème Spectral : elles sont toujours diagonalisables, et ce, dans une base orthonormale. La méthode pour y parvenir est systématique.

La Méthode Étape par Étape
  1. Calculer le polynôme caractéristique et trouver les valeurs propres. Pour une matrice symétrique réelle, elles seront toutes réelles.
  2. Trouver une base pour chaque sous-espace propre. Pour des valeurs propres distinctes, les sous-espaces propres associés sont automatiquement orthogonaux entre eux.
  3. Orthonormaliser chaque base de sous-espace propre. Si un sous-espace propre est de dimension 1, il suffit de normaliser le vecteur. S’il est de dimension supérieure à 1, on utilise le procédé de Gram-Schmidt pour obtenir une base orthonormale de cet espace.
  4. Construire la matrice de passage P. On concatène les bases orthonormales de tous les sous-espaces propres. Les vecteurs obtenus forment une base orthonormale de l’espace entier. La matrice $P$ dont les colonnes sont ces vecteurs est une matrice orthogonale (c’est-à-dire que $P^{-1} = P^T$).
  5. Écrire la relation de diagonalisation. La matrice diagonale $D$ contient les valeurs propres sur sa diagonale. On a la relation $A = PDP^T$ (ou $D = P^T A P$).

Exemple 1 : Matrice 2×2 avec valeurs propres distinctes

Soit $A = \begin{pmatrix} 6 & -2 \\ -2 & 9 \end{pmatrix}$. C’est une matrice symétrique.

1. Valeurs propres : $\chi_A(X) = X^2 – 15X + 50 = (X-5)(X-10)$. Les valeurs propres sont $\lambda_1=5$ et $\lambda_2=10$.

2. Vecteurs propres :
– Pour $\lambda_1=5$, $E_5 = \text{Ker}(A-5I) = \text{Ker}\begin{pmatrix} 1 & -2 \\ -2 & 4 \end{pmatrix} = \text{Vect}((2,1))$.
– Pour $\lambda_2=10$, $E_{10} = \text{Ker}(A-10I) = \text{Ker}\begin{pmatrix} -4 & -2 \\ -2 & -1 \end{pmatrix} = \text{Vect}((1,-2))$.

3. Orthonormalisation : On normalise chaque vecteur.
– $v_1 = \frac{1}{\sqrt{5}}(2,1)$.
– $v_2 = \frac{1}{\sqrt{5}}(1,-2)$.
(On peut vérifier que $\langle v_1, v_2 \rangle = 0$, comme attendu).

4. Matrices P et D :
$P = \frac{1}{\sqrt{5}}\begin{pmatrix} 2 & 1 \\ 1 & -2 \end{pmatrix}$ et $D = \begin{pmatrix} 5 & 0 \\ 0 & 10 \end{pmatrix}$.

Exemple 2 : Matrice 3×3 avec une valeur propre double

Soit $A = \begin{pmatrix} 2 & -1 & -1 \\ -1 & 2 & -1 \\ -1 & -1 & 2 \end{pmatrix}$.

1. Valeurs propres : On a déjà vu que $\chi_A(X) = -(X-3)^2(X-0)$. Les valeurs propres sont $\lambda_1=3$ (double) et $\lambda_2=0$ (simple).

2. Sous-espaces propres :
– Pour $\lambda_2=0$, $E_0 = \text{Ker}(A) = \text{Vect}((1,1,1))$.
– Pour $\lambda_1=3$, $E_3 = \text{Ker}(A-3I)$ est le plan d’équation $x+y+z=0$. Une base est par exemple $(u_1, u_2)$ avec $u_1=(1,-1,0)$ et $u_2=(1,0,-1)$.

3. Orthonormalisation :
– Pour $E_0$, on normalise le vecteur : $v_1 = \frac{1}{\sqrt{3}}(1,1,1)$.
– Pour $E_3$, la base $(u_1, u_2)$ n’est pas orthogonale. On applique Gram-Schmidt :
$w_1 = u_1 = (1,-1,0)$.
$w_2 = u_2 – \frac{\langle u_2, w_1 \rangle}{\|w_1\|^2}w_1 = (1,0,-1) – \frac{1}{2}(1,-1,0) = (\frac{1}{2}, \frac{1}{2}, -1)$.
On normalise $w_1$ et $w_2$ :
$v_2 = \frac{1}{\sqrt{2}}(1,-1,0)$ et $v_3 = \frac{1}{\sqrt{3/2}}(\frac{1}{2}, \frac{1}{2}, -1) = \frac{1}{\sqrt{6}}(1,1,-2)$.

4. Matrices P et D :
$P = \begin{pmatrix} 1/\sqrt{3} & 1/\sqrt{2} & 1/\sqrt{6} \\ 1/\sqrt{3} & -1/\sqrt{2} & 1/\sqrt{6} \\ 1/\sqrt{3} & 0 & -2/\sqrt{6} \end{pmatrix}$ et $D = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$.

Exemple 3 : Matrice 3×3 avec valeurs propres distinctes

Soit $A = \begin{pmatrix} 1 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix}$.

1. Valeurs propres : $\chi_A(X) = (X-1)(X-2)(X+1)$. Les valeurs propres sont $\lambda_1=1, \lambda_2=2, \lambda_3=-1$.

2. Vecteurs propres :
– $E_1 = \text{Vect}((1,0,-1))$.
– $E_2 = \text{Vect}((1,1,1))$.
– $E_{-1} = \text{Vect}((1,-2,1))$.

3. Orthonormalisation : Les sous-espaces sont de dimension 1, on normalise juste chaque vecteur.
$v_1 = \frac{1}{\sqrt{2}}(1,0,-1)$, $v_2 = \frac{1}{\sqrt{3}}(1,1,1)$, $v_3 = \frac{1}{\sqrt{6}}(1,-2,1)$.

4. Matrices P et D :
$P = \begin{pmatrix} 1/\sqrt{2} & 1/\sqrt{3} & 1/\sqrt{6} \\ 0 & 1/\sqrt{3} & -2/\sqrt{6} \\ -1/\sqrt{2} & 1/\sqrt{3} & 1/\sqrt{6} \end{pmatrix}$ et $D = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & -1 \end{pmatrix}$.