Soient $E$ un espace préhilbertien, et $u, v: E \to E$ deux applications telles que $\forall x, y \in E, \langle u(x), y \rangle = \langle x, v(y) \rangle$. Montrer que $u$ et $v$ sont des endomorphismes linéaires et que $v=u^*$.
Pour montrer la linéarité de $u$, on calcule $\langle u(x_1+\lambda x_2) – u(x_1) – \lambda u(x_2), y \rangle$. En utilisant la relation donnée et la linéarité du produit scalaire, on montre que cette expression est nulle pour tout $y$. Comme le produit scalaire est non dégénéré, on conclut que $u(x_1+\lambda x_2) – u(x_1) – \lambda u(x_2) = 0$. On procède de même pour $v$. Une fois la linéarité établie, la relation $\langle u(x), y \rangle = \langle x, v(y) \rangle$ est la définition même de $v=u^*$.
Soit $E$ un espace euclidien orienté de dimension 3, $a \in E$ et $u$ l’endomorphisme défini par $u(x) = a \land (a \land x)$.
- Déterminer l’adjoint $u^*$. $u$ est-il symétrique ?
- Déterminer les valeurs et vecteurs propres de $u$.
1. En utilisant les propriétés du produit mixte, on montre que $\langle u(x), y \rangle = \langle x, u(y) \rangle$. L’endomorphisme est donc symétrique, $u^*=u$.
2. On utilise la formule du double produit vectoriel : $u(x) = \langle a,x \rangle a – \|a\|^2 x$.
Si $x$ est colinéaire à $a$, $x=ka$, alors $u(x) = \langle a,ka \rangle a – \|a\|^2 (ka) = 0$. Donc $0$ est une valeur propre, et le sous-espace propre associé est la droite $Vect(a)$.
Si $x$ est orthogonal à $a$, $\langle a,x \rangle = 0$, alors $u(x) = -\|a\|^2 x$. Donc $-\|a\|^2$ est une valeur propre, et le sous-espace propre associé est l’hyperplan $a^\perp$.
Soit $A \in \mathcal{M}_n(\mathbb{R})$ une matrice symétrique. Montrer que s’il existe $p \in \mathbb{N}^*$ tel que $A^p=I$, alors $A^2=I$.
Comme $A$ est symétrique, elle est diagonalisable sur $\mathbb{R}$. Soient $\lambda_1, \dots, \lambda_n$ ses valeurs propres réelles. L’équation $A^p=I$ implique que pour chaque valeur propre, $\lambda_i^p=1$. Comme les $\lambda_i$ sont réels, les seules possibilités sont $\lambda_i=1$ ou (si p est pair) $\lambda_i=-1$. Dans tous les cas, $\lambda_i^2=1$ pour toutes les valeurs propres. Puisque $A$ est semblable à une matrice diagonale $D$ dont les éléments sont les $\lambda_i$, on a $A^2$ semblable à $D^2$. Or $D^2=I$, donc $A^2=P I P^{-1}=I$.
1. Montrer que si $u$ est un endomorphisme inversible d’un espace euclidien $E$, il existe une base orthonormale $(e_i)$ de $E$ telle que $(u(e_i))$ soit une base orthogonale.
2. En déduire que pour toute matrice $A \in GL_n(\mathbb{R})$, il existe deux matrices orthogonales $P$ et $Q$ telles que $PAQ$ soit diagonale (Décomposition en valeurs singulières).
1. L’endomorphisme $u^*u$ est symétrique défini positif. Il admet donc une base orthonormale $(e_i)$ de vecteurs propres, avec des valeurs propres $\lambda_i > 0$. Pour $i \neq j$, on a $\langle u(e_i), u(e_j) \rangle = \langle e_i, u^*u(e_j) \rangle = \langle e_i, \lambda_j e_j \rangle = \lambda_j \langle e_i, e_j \rangle = 0$. La famille $(u(e_i))$ est donc orthogonale.
2. Soit $A \in GL_n(\mathbb{R})$ et $u$ l’endomorphisme associé. D’après 1., il existe une base orthonormale $\beta=(e_i)$ telle que la famille $\gamma’=(u(e_i))$ soit orthogonale. On peut la normaliser pour obtenir une base orthonormale $\beta’=(f_i)$. La matrice de $u$ de la base $\beta$ à la base $\beta’$ est diagonale, notons la $D$. Soit $P$ la matrice de passage de la base canonique à $\beta’$ et $Q^{-1}$ celle de la base canonique à $\beta$. $P$ et $Q$ sont orthogonales. La formule de changement de base donne $D = P^{-1}AQ$, d’où $A=PDQ^{-1}$. Comme $Q$ est orthogonale, $Q^{-1}={}^tQ$. On a bien une décomposition de la forme voulue.
Soit $u$ un endomorphisme de trace nulle d’un espace euclidien $E$. Montrer qu’il existe une base orthonormale dans laquelle tous les coefficients diagonaux de la matrice de $u$ sont nuls.
On procède par récurrence sur $n=\dim(E)$. Le cas $n=1$ est trivial. Pour l’hérédité, on sait que $tr(u) = \sum \langle u(e_i), e_i \rangle = 0$. Si tous les termes sont nuls, c’est fini. Sinon, il existe $e_i$ et $e_j$ tels que $\langle u(e_i), e_i \rangle > 0$ et $\langle u(e_j), e_j \rangle < 0$. La fonction continue $\theta \mapsto \langle u(\cos\theta e_i + \sin\theta e_j), \cos\theta e_i + \sin\theta e_j \rangle$ prend des valeurs de signes opposés, donc elle s'annule pour un certain $\theta_0$. On a trouvé un vecteur unitaire $v_1$ tel que $\langle u(v_1), v_1 \rangle = 0$. On se place sur l'hyperplan $v_1^\perp$, on considère la projection de $u$ et on applique l'hypothèse de récurrence.
Soit $A \in \mathcal{M}_n(\mathbb{R})$ une matrice symétrique non nulle. Montrer que $(tr(A))^2 \le rg(A) tr(A^2)$.
Soit $r=rg(A)$. $A$ étant symétrique, elle est diagonalisable et ses valeurs propres $\lambda_1, \dots, \lambda_r$ sont réelles (les autres étant nulles). On a $tr(A) = \sum_{i=1}^r \lambda_i$ et $tr(A^2) = \sum_{i=1}^r \lambda_i^2$. L’inégalité de Cauchy-Schwarz appliquée aux vecteurs $(\lambda_1, \dots, \lambda_r)$ et $(1, \dots, 1)$ dans $\mathbb{R}^r$ donne :
$(\sum_{i=1}^r \lambda_i \cdot 1)^2 \le (\sum_{i=1}^r \lambda_i^2)(\sum_{i=1}^r 1^2)$, ce qui se traduit par $(tr(A))^2 \le tr(A^2) \cdot r$.
Soient $\alpha_1, \dots, \alpha_n$ des réels tels que $\sum_{k=1}^n \alpha_k^2 = 1$. Soit $A$ la matrice définie par $a_{ij} = \alpha_i \alpha_j$. Montrer que $A$ est la matrice d’une projection orthogonale.
Il faut montrer que $A$ est symétrique et que $A^2=A$. La symétrie est évidente car $a_{ij} = \alpha_i \alpha_j = \alpha_j \alpha_i = a_{ji}$. Pour le carré, calculons le coefficient $(i,j)$ de $A^2$ :
$(A^2)_{ij} = \sum_{k=1}^n a_{ik} a_{kj} = \sum_{k=1}^n (\alpha_i \alpha_k)(\alpha_k \alpha_j) = \alpha_i \alpha_j \left(\sum_{k=1}^n \alpha_k^2\right)$.
Comme $\sum \alpha_k^2 = 1$, on a $(A^2)_{ij} = \alpha_i \alpha_j = a_{ij}$. Donc $A^2=A$. Une matrice symétrique qui est un projecteur représente une projection orthogonale.