Les Symétries orthogonales constituent une classe fondamentale d’isométries vectorielles dans les espaces euclidiens, définies par la réflexion des vecteurs à travers un sous-espace directeur selon la direction de son supplémentaire orthogonal. Ces transformations linéaires sont caractérisées par leur involutivité et la conservation stricte du produit scalaire.

Définition formelle et décomposition canonique

Soit $E$ un espace euclidien de dimension finie muni d’un produit scalaire $\langle \cdot, \cdot \rangle$. Soit $F$ un sous-espace vectoriel de $E$. D’après le théorème de la projection orthogonale, tout vecteur $x \in E$ admet une décomposition unique :

$$ x = p_F(x) + p_{F^\perp}(x) $$

Où $p_F(x) \in F$ et $p_{F^\perp}(x) \in F^\perp$. La symétrie orthogonale par rapport au sous-espace $F$ (et parallèlement à $F^\perp$) est l’endomorphisme $s_F : E \to E$ défini par :

$$ s_F(x) = p_F(x) – p_{F^\perp}(x) $$

Géométriquement, cette application conserve la composante du vecteur dans $F$ et inverse sa composante orthogonale. Si $F$ est une droite, on parle de réflexion axiale ; si $F$ est un hyperplan, on parle de réflexion hyperplane ou miroir.

Expression en fonction de la projection

Puisque $p_{F^\perp}(x) = x – p_F(x)$, nous pouvons réécrire la définition de la symétrie uniquement en fonction de la projection orthogonale sur $F$ :

$$ s_F(x) = p_F(x) – (x – p_F(x)) = 2p_F(x) – x $$

Cette relation linéaire montre que la connaissance de la projection orthogonale suffit à construire la symétrie associée. Elle met également en évidence que $s_F$ est une combinaison linéaire de l’identité et de la projection.

Propriétés algébriques fondamentales

Les Symétries orthogonales possèdent des propriétés structurelles fortes qui les distinguent des symétries obliques générales. Elles appartiennent au groupe orthogonal $O(E)$.

Involutivité et diagonalisation

Toute symétrie orthogonale est une involution, c’est-à-dire que son carré est l’identité. Pour tout $x \in E$ :

$$ s_F(s_F(x)) = x \implies s_F^2 = \text{Id}_E $$

Preuve : Appliquons la définition deux fois. Soit $x = u + v$ avec $u \in F, v \in F^\perp$. Alors $s_F(x) = u – v$. En réappliquant $s_F$ :

$$ s_F(u – v) = s_F(u) + s_F(-v) = u – (-v) = u + v = x $$

La dernière égalité utilise la linéarité et le fait que $u \in F$ est invariant tandis que $v \in F^\perp$ est changé de signe. $\blacksquare$

Cette propriété implique que les seules valeurs propres possibles de $s_F$ sont $1$ et $-1$. L’espace propre associé à $1$ est exactement $F$, et celui associé à $-1$ est $F^\perp$. Comme $E = F \oplus F^\perp$, l’endomorphisme est diagonalisable.

Conservation du produit scalaire

Une symétrie orthogonale est une isométrie vectorielle. Elle conserve le produit scalaire, et donc la norme et les angles. Pour tous $x, y \in E$ :

$$ \langle s_F(x), s_F(y) \rangle = \langle x, y \rangle $$

Démonstration : Décomposons $x = u + v$ et $y = u’ + v’$ selon $F \oplus F^\perp$. Alors $s_F(x) = u – v$ et $s_F(y) = u’ – v’$.

Calculons le produit scalaire image en utilisant l’orthogonalité de $F$ et $F^\perp$ (les termes croisés $\langle u, v’ \rangle$ et $\langle v, u’ \rangle$ sont nuls) :

$$ \begin{aligned} \langle u-v, u’-v’ \rangle &= \langle u, u’ \rangle – \langle u, v’ \rangle – \langle v, u’ \rangle + \langle v, v’ \rangle \\ &= \langle u, u’ \rangle + \langle v, v’ \rangle \end{aligned} $$

De même, le produit scalaire initial vaut :

$$ \langle u+v, u’+v’ \rangle = \langle u, u’ \rangle + \langle v, v’ \rangle $$

Les deux expressions sont identiques. La symétrie conserve donc la structure métrique de l’espace. $\blacksquare$

Théorèmes de caractérisation

Il est possible de caractériser les Symétries orthogonales parmi l’ensemble des endomorphismes ou des isométries par des conditions nécessaires et suffisantes précises.

Caractérisation parmi les endomorphismes

Théorème : Un endomorphisme $s$ d’un espace euclidien $E$ est une symétrie orthogonale si et seulement si il vérifie simultanément :

  1. $s$ est une involution : $s^2 = \text{Id}_E$.
  2. $s$ est auto-adjoint (symétrique) : $\forall x,y \in E, \langle s(x), y \rangle = \langle x, s(y) \rangle$.

Preuve : Nous savons déjà qu’une symétrie orthogonale vérifie ces deux conditions (l’auto-adjonction découle de la conservation du produit scalaire et de l’involutivité : $\langle s(x), y \rangle = \langle s^2(x), s(y) \rangle = \langle x, s(y) \rangle$).

Réciproquement, supposons $s^2=\text{Id}$ et $s=s^*$. Posons $F = \text{Ker}(s – \text{Id})$ (vecteurs invariants) et $G = \text{Ker}(s + \text{Id})$ (vecteurs renversés). Puisque $s^2=\text{Id}$, le polynôme $X^2-1$ est annulateur, scindé à racines simples, donc $E = F \oplus G$.

Montrons que $G = F^\perp$. Soit $u \in F$ et $v \in G$. Alors $s(u)=u$ et $s(v)=-v$. Utilisons la symétrie de $s$ :

$$ \langle u, v \rangle = \langle s(u), v \rangle = \langle u, s^*(v) \rangle = \langle u, s(v) \rangle = \langle u, -v \rangle = -\langle u, v \rangle $$

Cela implique $2\langle u, v \rangle = 0$, donc $\langle u, v \rangle = 0$. Ainsi $G \subseteq F^\perp$. Par égalité des dimensions, $G=F^\perp$. Donc $s$ est bien la symétrie orthogonale par rapport à $F$. $\blacksquare$

Caractérisation parmi les isométries

Une isométrie vectorielle $u \in O(E)$ est une symétrie orthogonale si et seulement si elle est involutive ($u^2 = \text{Id}$) et distincte de l’identité et de l’antidentité (sauf cas triviaux).

Plus généralement, toute isométrie involutive est une symétrie orthogonale. En effet, si $u$ conserve la norme et $u^2=\text{Id}$, alors $u$ est automatiquement auto-adjoint.

Réflexions hyperplanes et déterminant

Un cas particulier crucial des Symétries orthogonales est celui où le sous-espace $F$ est un hyperplan (dimension $n-1$). On appelle alors $s_F$ une réflexion.

Déterminant et orientation

Dans une base orthonormée adaptée à la décomposition $E = F \oplus F^\perp$, la matrice de la symétrie $s_F$ est diagonale. Si $\dim(F)=k$ et $\dim(E)=n$, la matrice s’écrit :

$$ \text{Mat}(s_F) = \begin{pmatrix} I_k & 0 \\ 0 & -I_{n-k} \end{pmatrix} $$

Le déterminant de cette matrice est donc :

$$ \det(s_F) = (-1)^{n-k} = (-1)^{\dim(F^\perp)} $$

Pour une réflexion hyperplane, $\dim(F^\perp) = 1$. Le déterminant vaut alors $-1$. Cela signifie que les réflexions inversent l’orientation de l’espace.

Réciproquement, toute isométrie de déterminant $-1$ en dimension 2 est une réflexion. En dimension supérieure, une isométrie de déterminant $-1$ est la composée d’une réflexion et d’une rotation.

Formule de la réflexion hyperplane

Si $H$ est un hyperplan orthogonal à un vecteur unitaire $n$ (vecteur normal), alors pour tout $x \in E$, la réflexion $s_H(x)$ s’exprime simplement par :

$$ s_H(x) = x – 2\langle x, n \rangle n $$

Démonstration : La projection de $x$ sur la droite dirigée par $n$ est $p_{\mathbb{R}n}(x) = \langle x, n \rangle n$. La projection sur l’hyperplan est $p_H(x) = x – \langle x, n \rangle n$.

La symétrie vaut $s_H(x) = p_H(x) – p_{\mathbb{R}n}(x) = (x – \langle x, n \rangle n) – \langle x, n \rangle n = x – 2\langle x, n \rangle n$. $\blacksquare$

Cette formule est largement utilisée en infographie pour le calcul des rayons réfléchis et en algèbre pour les algorithmes de Householder.

Exemples concrets et calculs matriciels

Illustrons la théorie des Symétries orthogonales par des exemples explicites en dimensions 2 et 3.

Exemple 1 : Réflexion dans le plan euclidien

Considérons le plan $\mathbb{R}^2$ muni de sa base canonique. Soit $D$ la droite passant par l’origine et faisant un angle $\theta$ avec l’axe des abscisses. Un vecteur directeur unitaire de $D$ est $u = (\cos \theta, \sin \theta)$.

La symétrie orthogonale $s_D$ par rapport à $D$ a pour matrice dans la base canonique :

$$ M = \begin{pmatrix} \cos(2\theta) & \sin(2\theta) \\ \sin(2\theta) & -\cos(2\theta) \end{pmatrix} $$

Vérifions avec la formule vectorielle. Pour $x=(1,0)$, $\langle x, u \rangle = \cos \theta$. Alors $s_D(x) = 2(\cos \theta)u – x = (2\cos^2\theta – 1, 2\sin\theta\cos\theta) = (\cos 2\theta, \sin 2\theta)$. Ceci correspond bien à la première colonne de $M$.

Le déterminant vaut $\cos^2(2\theta) – \sin^2(2\theta) \times (-1)$ ? Non, $\det = -\cos^2 – \sin^2 = -1$. C’est bien une réflexion.

Exemple 2 : Symétrie par rapport à un plan dans $\mathbb{R}^3$

Soit $P$ le plan d’équation $x + y + z = 0$ dans $\mathbb{R}^3$. Un vecteur normal est $n = (1, 1, 1)$. Normalisons-le : $u = \frac{1}{\sqrt{3}}(1, 1, 1)$.

La symétrie orthogonale $s_P$ est donnée par $s_P(x) = x – 2\langle x, u \rangle u$. Calculons l’image du vecteur $e_1 = (1, 0, 0)$ :

$$ \langle e_1, u \rangle = \frac{1}{\sqrt{3}} $$ $$ s_P(e_1) = (1, 0, 0) – 2\left(\frac{1}{\sqrt{3}}\right)\frac{1}{\sqrt{3}}(1, 1, 1) = (1, 0, 0) – \frac{2}{3}(1, 1, 1) = \left(\frac{1}{3}, -\frac{2}{3}, -\frac{2}{3}\right) $$

En procédant de même pour $e_2$ et $e_3$, on obtient la matrice de la symétrie :

$$ M = \frac{1}{3} \begin{pmatrix} 1 & -2 & -2 \\ -2 & 1 & -2 \\ -2 & -2 & 1 \end{pmatrix} $$

Cette matrice est symétrique et orthogonale ($M^T M = I$), confirmant la nature de la transformation.

Contre-exemple : Symétrie non orthogonale

Considérons dans $\mathbb{R}^2$ la symétrie par rapport à l’axe $(Ox)$ parallèlement à la droite $y=x$. À un point $(x,y)$, on associe $(x-y, 0)$.

La matrice est $S = \begin{pmatrix} 1 & -1 \\ 0 & 0 \end{pmatrix}$. Bien que $S^2=I$, cette matrice n’est pas symétrique ($S \neq S^T$). Elle ne conserve pas le produit scalaire canonique.

Par exemple, prenons $u=(0,1)$ et $v=(1,0)$. $\langle u, v \rangle = 0$. Leurs images sont $S(u)=(-1,0)$ et $S(v)=(1,0)$. Leur produit scalaire image est $-1 \neq 0$. L’orthogonalité n’est pas conservée : ce n’est pas une symétrie orthogonale.

Applications en algèbre et analyse numérique

Les Symétries orthogonales, et particulièrement les réflexions hyperplanes, sont des outils computationnels puissants.

Transformations de Householder

En algèbre linéaire numérique, les matrices de Householder sont des réflexions orthogonales utilisées pour annuler sélectivement des coefficients d’un vecteur ou d’une matrice.

Elles permettent de réduire une matrice quelconque sous forme triangulaire (décomposition QR) ou tridiagonale (pour le calcul des valeurs propres) avec une excellente stabilité numérique, contrairement aux rotations de Givens qui sont plus coûteuses pour les réductions globales.

Génération du groupe orthogonal

Un théorème fondamental (théorème de Cartan-Dieudonné en dimension finie) affirme que toute isométrie vectorielle d’un espace euclidien de dimension $n$ peut s’écrire comme la composée d’au plus $n$ réflexions hyperplanes.

Cela signifie que les Symétries orthogonales par rapport aux hyperplans engendrent tout le groupe orthogonal $O(n)$. Les rotations, par exemple, sont des composées de deux réflexions.

Conclusion synthétique

Les Symétries orthogonales sont des endomorphismes involutifs et auto-adjoints qui jouent un rôle central dans la géométrie euclidienne. Définies par la décomposition orthogonale de l’espace, elles conservent strictement les distances et les angles tout en inversant l’orientation si la codimension du sous-espace fixe est impaire.

Leur maîtrise est indispensable tant pour la compréhension théorique des isométries (via le théorème de Cartan-Dieudonné) que pour les applications pratiques en calcul scientifique, où elles constituent la brique de base des algorithmes de réduction matricielle les plus robustes.