Décomposition Polaire
On note $S_n^+(\mathbb{R})$ l’ensemble des matrices réelles symétriques positives, et $S_n^{++}(\mathbb{R})$ celui des matrices réelles symétriques définies positives.
Soit $A$ une matrice de $\mathcal{M}_n(\mathbb{R})$. Les propositions suivantes sont équivalentes :
- $A$ est une matrice symétrique positive.
- Il existe une matrice $M \in \mathcal{M}_n(\mathbb{R})$ telle que $A = {}^tMM$.
- Il existe une unique matrice $B \in S_n^+(\mathbb{R})$, appelée racine carrée de $A$, telle que $A=B^2$.
Pour toute matrice inversible $A \in GL_n(\mathbb{R})$, il existe un unique couple $(\Omega, S)$ de matrices de $\mathcal{M}_n(\mathbb{R})$ tel que :
- $\Omega$ est une matrice orthogonale.
- $S$ est une matrice symétrique définie positive.
- $A = \Omega S$.
Démonstration
Existence : Soit $A \in GL_n(\mathbb{R})$. La matrice ${}^tAA$ est symétrique. Pour tout vecteur $X \neq 0$, ${}^tX({}^tAA)X = \|AX\|^2 > 0$ car $A$ est inversible. Donc ${}^tAA$ est symétrique définie positive. D’après la proposition précédente, il existe une unique matrice $S \in S_n^{++}(\mathbb{R})$ telle que $S^2 = {}^tAA$.
Posons $\Omega = AS^{-1}$. Montrons que $\Omega$ est orthogonale : $$ {}^t\Omega\Omega = {}^t(AS^{-1})(AS^{-1}) = {}^tS^{-1}({}^tAA)S^{-1} = S^{-1}(S^2)S^{-1} = I_n $$ (On a utilisé le fait que $S$, étant symétrique, est égale à sa transposée, et donc $S^{-1}$ aussi). On a bien trouvé une décomposition $A = \Omega S$ avec les propriétés requises.
Unicité : Supposons qu’il existe un autre couple $(\Omega’, S’)$ tel que $A = \Omega’S’$. Alors ${}^tAA = {}^t(\Omega’S’)(\Omega’S’) = {}^tS'({}^t\Omega’\Omega’)S’ = {}^tS'(I_n)S’ = (S’)^2$. Par unicité de la racine carrée d’une matrice symétrique définie positive, on a $S=S’$. Ensuite, comme $S$ est inversible, $\Omega S = \Omega’ S$ implique $\Omega = \Omega’$.
Décomposition QR
Pour toute matrice inversible $A \in GL_n(\mathbb{R})$, il existe un unique couple de matrices $(Q, R)$ dans $\mathcal{M}_n(\mathbb{R})$ tel que :
- $Q$ est une matrice orthogonale.
- $R$ est une matrice triangulaire supérieure dont les coefficients diagonaux sont strictement positifs.
- $A = QR$.
Démonstration
Soient $(v_1, \dots, v_n)$ les vecteurs colonnes de la matrice $A$. Comme $A$ est inversible, cette famille forme une base de $\mathbb{R}^n$.
Appliquons le procédé d’orthonormalisation de Gram-Schmidt à cette base pour obtenir une base orthonormale $(e_1, \dots, e_n)$. Soit $Q$ la matrice dont les colonnes sont les vecteurs $e_i$. Comme ses colonnes forment une base orthonormale, $Q$ est une matrice orthogonale.
Par construction du procédé de Gram-Schmidt, chaque vecteur $v_j$ est une combinaison linéaire des vecteurs $e_1, \dots, e_j$, et le coefficient de $e_j$ dans la décomposition de $v_j$ est $\langle v_j, e_j \rangle$, qui est strictement positif.
La relation entre les familles de vecteurs s’écrit matriciellement $A = QR$, où $R$ est la matrice de passage de la base $(e_i)$ à la base $(v_j)$. D’après la remarque précédente, $R$ est une matrice triangulaire supérieure avec des coefficients diagonaux strictement positifs.
Unicité : Supposons $A = Q_1 R_1 = Q_2 R_2$. Alors $Q_2^{-1}Q_1 = R_2 R_1^{-1}$. La matrice $Q_2^{-1}Q_1$ est orthogonale (produit de deux matrices orthogonales). La matrice $R_2 R_1^{-1}$ est triangulaire supérieure à coefficients diagonaux positifs (produit de deux telles matrices). Une matrice qui est à la fois orthogonale et triangulaire supérieure à diagonale positive est nécessairement la matrice identité $I_n$. Donc $Q_2^{-1}Q_1=I_n \implies Q_1=Q_2$, et par suite $R_1=R_2$.