Les Projections orthogonales constituent l’outil fondamental de la meilleure approximation dans les espaces euclidiens, permettant de projeter un vecteur sur un sous-espace selon la direction perpendiculaire. Cette opération linéaire minimise la distance entre un point et un sous-espace affine ou vectoriel donné.

Définition formelle et théorème de la projection

Soit $E$ un espace euclidien muni d’un produit scalaire $\langle \cdot, \cdot \rangle$ et de la norme associée $\|\cdot\|$. Soit $F$ un sous-espace vectoriel de $E$. Le théorème de la projection orthogonale affirme que tout vecteur $x \in E$ s’écrit de manière unique comme la somme :

$$ x = p_F(x) + q $$

Où $p_F(x) \in F$ et $q \in F^\perp$, le supplémentaire orthogonal de $F$. L’application $p_F : E \to F$ ainsi définie est appelée projection orthogonale sur $F$.

Le vecteur $p_F(x)$ est l’unique élément de $F$ tel que le vecteur erreur $x – p_F(x)$ soit orthogonal à tout vecteur de $F$ :

$$ \forall y \in F, \quad \langle x – p_F(x), y \rangle = 0 $$

Cette condition caractérise entièrement la projection. Elle implique que le noyau de l’application $p_F$ est exactement $F^\perp$ et que son image est $F$.

Propriété de minimisation de la distance

La projection orthogonale résout le problème d’optimisation suivant : trouver le point de $F$ le plus proche de $x$. Pour tout $y \in F$, l’inégalité suivante est vérifiée :

$$ \|x – p_F(x)\| \leq \|x – y\| $$

L’égalité a lieu si et seulement si $y = p_F(x)$. Ce résultat découle directement du théorème de Pythagore appliqué au triangle rectangle formé par $x$, $p_F(x)$ et $y$.

En effet, puisque $x – p_F(x) \in F^\perp$ et $p_F(x) – y \in F$, ces deux vecteurs sont orthogonaux. On a donc :

$$ \|x – y\|^2 = \|(x – p_F(x)) + (p_F(x) – y)\|^2 = \|x – p_F(x)\|^2 + \|p_F(x) – y\|^2 $$

Le terme $\|p_F(x) – y\|^2$ étant positif ou nul, la norme est minimale lorsque ce terme s’annule, c’est-à-dire lorsque $y = p_F(x)$.

Caractérisation algébrique et matrices

Dans le cas où l’espace $E$ est de dimension finie, les Projections orthogonales admettent des représentations matricielles explicites dépendant de la base choisie.

Formule dans une base orthonormée de F

Soit $(e_1, e_2, \dots, e_k)$ une base orthonormée du sous-espace $F$. La projection orthogonale d’un vecteur $x \in E$ sur $F$ s’exprime simplement par la somme des projections sur chaque vecteur de la base :

$$ p_F(x) = \sum_{i=1}^k \langle x, e_i \rangle e_i $$

Cette formule montre que les coordonnées de $p_F(x)$ dans la base orthonormée de $F$ sont précisément les produits scalaires $\langle x, e_i \rangle$. C’est la généralisation de la décomposition en série de Fourier dans les espaces de dimension infinie.

Matrice de projection dans une base orthonormée globale

Si $(e_1, \dots, e_n)$ est une base orthonormée de $E$ telle que les $k$ premiers vecteurs forment une base de $F$, alors la matrice de $p_F$ dans cette base est diagonale par blocs :

$$ \text{Mat}(p_F) = \begin{pmatrix} I_k & 0 \\ 0 & 0 \end{pmatrix} $$

Où $I_k$ est la matrice identité de taille $k$. Cette matrice est symétrique et idempotente ($P^2 = P$). Réciproquement, toute matrice symétrique idempotente représente une projection orthogonale dans une base orthonormée.

Formule générale avec une base quelconque

Si $(u_1, \dots, u_k)$ est une base quelconque (non nécessairement orthonormée) de $F$, notons $U$ la matrice de taille $n \times k$ dont les colonnes sont les vecteurs $u_i$. La matrice de projection $P$ sur l’image de $U$ est donnée par :

$$ P = U (U^T U)^{-1} U^T $$

La matrice $G = U^T U$ est la matrice de Gram des vecteurs de la base. Elle est inversible car les vecteurs sont linéairement indépendants. Cette formule est cruciale pour les calculs numériques lorsque l’orthonormalisation n’a pas été effectuée préalablement.

Théorèmes fondamentaux et démonstrations

L’étude des Projections orthogonales repose sur des propriétés structurelles fortes liées à la géométrie euclidienne et à l’algèbre linéaire.

Théorème de caractérisation des projecteurs orthogonaux

Énoncé : Un endomorphisme $p$ d’un espace euclidien $E$ est une projection orthogonale si et seulement si il est idempotent ($p^2 = p$) et symétrique ($\langle p(x), y \rangle = \langle x, p(y) \rangle$ pour tout $x, y$).

Preuve : Supposons que $p$ est la projection orthogonale sur $F = \text{Im}(p)$. Alors $p^2=p$ car projeter un vecteur déjà dans $F$ ne le change pas. De plus, pour tout $x, y \in E$, décomposons $x = x_F + x_\perp$ et $y = y_F + y_\perp$.

On a $p(x) = x_F$ et $p(y) = y_F$. Calculons les produits scalaires :

$$ \langle p(x), y \rangle = \langle x_F, y_F + y_\perp \rangle = \langle x_F, y_F \rangle + \langle x_F, y_\perp \rangle = \langle x_F, y_F \rangle $$

De même, $\langle x, p(y) \rangle = \langle x_F + x_\perp, y_F \rangle = \langle x_F, y_F \rangle$. Les deux quantités sont égales, donc $p$ est symétrique.

Réciproquement, si $p^2=p$ et $p$ est symétrique, posons $F = \text{Im}(p)$ et $G = \text{Ker}(p)$. On sait que $E = F \oplus G$. Montrons que $G = F^\perp$.

Soit $u \in F$ et $v \in G$. Il existe $x$ tel que $u=p(x)$. Alors $\langle u, v \rangle = \langle p(x), v \rangle = \langle x, p(v) \rangle = \langle x, 0 \rangle = 0$. Donc $G \subseteq F^\perp$. Par égalité des dimensions, $G=F^\perp$. Ainsi, $p$ est bien la projection orthogonale sur $F$. $\blacksquare$

Inégalité de Bessel

Soit $(e_1, \dots, e_k)$ une famille orthonormée de $E$ (non nécessairement une base). Pour tout $x \in E$, la somme des carrés des coefficients de Fourier est majorée par le carré de la norme de $x$ :

$$ \sum_{i=1}^k |\langle x, e_i \rangle|^2 \leq \|x\|^2 $$

Cette inégalité découle directement de la propriété de minimisation. La quantité $\sum \langle x, e_i \rangle e_i$ est la projection de $x$ sur le sous-espace engendré par la famille. La norme de cette projection est inférieure ou égale à la norme de $x$.

L’égalité a lieu si et seulement si $x$ appartient au sous-espace engendré par la famille, auquel cas on obtient l’égalité de Parseval.

Exemples concrets et applications

Illustrons la théorie des Projections orthogonales par des exemples analytiques et des applications en approximation numérique.

Exemple 1 : Projection sur une droite vectorielle

Soit $E = \mathbb{R}^3$ muni du produit scalaire canonique. Soit $D$ la droite vectorielle engendrée par le vecteur non nul $u = (1, 1, 1)$. Cherchons la projection orthogonale d’un vecteur $x = (x_1, x_2, x_3)$ sur $D$.

Normalisons $u$ ou utilisons la formule générale avec un seul vecteur. La projection est donnée par :

$$ p_D(x) = \frac{\langle x, u \rangle}{\|u\|^2} u $$

Calculons les termes : $\langle x, u \rangle = x_1 + x_2 + x_3$ et $\|u\|^2 = 1^2 + 1^2 + 1^2 = 3$.

Ainsi :

$$ p_D(x) = \frac{x_1 + x_2 + x_3}{3} \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix} = \begin{pmatrix} \frac{x_1+x_2+x_3}{3} \\ \frac{x_1+x_2+x_3}{3} \\ \frac{x_1+x_2+x_3}{3} \end{pmatrix} $$

Chaque composante du projeté est la moyenne arithmétique des composantes de $x$. La matrice de cette projection est une matrice $3 \times 3$ dont tous les coefficients valent $1/3$.

Exemple 2 : Moindres carrés ordinaires

Considérons un système linéaire surdéterminé $Ax = b$ où $A$ est une matrice $m \times n$ ($m > n$) de rang $n$, et $b \in \mathbb{R}^m$. Ce système n’a généralement pas de solution exacte car $b \notin \text{Im}(A)$.

Le problème des moindres carrés consiste à trouver $x$ qui minimise $\|Ax – b\|$. Géométriquement, cela revient à chercher le vecteur $Ax$ dans $\text{Im}(A)$ le plus proche de $b$.

Ce vecteur optimal est exactement la projection orthogonale de $b$ sur $\text{Im}(A)$, notée $p_{\text{Im}(A)}(b)$. La condition d’orthogonalité impose que le résidu $b – Ax$ soit orthogonal à $\text{Im}(A)$ :

$$ A^T (b – Ax) = 0 \implies A^T A x = A^T b $$

Ces équations sont appelées équations normales. La solution unique est $x = (A^T A)^{-1} A^T b$. C’est l’application directe de la formule matricielle de projection vue précédemment.

Contre-exemple : Projection oblique

Il ne faut pas confondre projection orthogonale et projection oblique. Une projection oblique $p$ satisfait $p^2=p$ mais n’est pas symétrique.

Par exemple, dans $\mathbb{R}^2$, la projection sur l’axe des abscisses parallèlement à la droite $y=x$ associe à $(x,y)$ le point $(x-y, 0)$. Sa matrice est $\begin{pmatrix} 1 & -1 \\ 0 & 0 \end{pmatrix}$.

Cette matrice n’est pas symétrique. Le vecteur erreur $(x,y) – (x-y, 0) = (y, y)$ n’est pas orthogonal à l’axe des abscisses (sauf si $y=0$). La distance minimisée n’est pas la distance euclidienne usuelle.

Applications en analyse fonctionnelle

Le concept de Projections orthogonales s’étend aux espaces de Hilbert de dimension infinie, jouant un rôle central en analyse fonctionnelle et en traitement du signal.

Projection sur un convexe fermé

Dans un espace de Hilbert $H$, le théorème de la projection s’étend aux parties convexes fermées non vides $C$. Pour tout $x \in H$, il existe un unique $y \in C$ minimisant la distance $\|x – y\|$.

Ce point $y = P_C(x)$ est caractérisé par l’inégalité variationnelle :

$$ \forall z \in C, \quad \langle x – P_C(x), z – P_C(x) \rangle \leq 0 $$

Si $C$ est un sous-espace vectoriel fermé, cette inégalité devient une égalité nulle, retrouvant la définition classique. Cette généralisation est fondamentale pour les méthodes d’optimisation convexe.

Séries de Fourier comme projection

Dans l’espace $L^2([-\pi, \pi])$, la série de Fourier partielle d’ordre $N$ d’une fonction $f$ est la projection orthogonale de $f$ sur le sous-espace engendré par $\{1, \cos(t), \sin(t), \dots, \cos(Nt), \sin(Nt)\}$.

Cela explique pourquoi la somme partielle de Fourier est la meilleure approximation trigonométrique de $f$ au sens de la norme $L^2$ (énergie du signal). L’erreur d’approximation tend vers zéro lorsque $N \to \infty$ (théorème de convergence en moyenne quadratique).

Conclusion synthétique

Les Projections orthogonales offrent le cadre mathématique rigoureux pour résoudre les problèmes de minimisation de distance dans les espaces euclidiens et hilbertiens. Leur caractérisation par l’idempotence et la symétrie garantit leur unicité et leur stabilité numérique.

De la résolution des systèmes surdéterminés par moindres carrés à l’analyse spectrale des signaux, en passant par l’optimisation convexe, la maîtrise de cet outil est indispensable pour l’ingénieur et le mathématicien appliquant la géométrie à des problèmes complexes.