Théorème Spectral pour les Opérateurs Compacts
Contexte : De la Diagonalisation à la Décomposition Spectrale

En algèbre linéaire, un résultat fondamental stipule que toute matrice symétrique (ou hermitienne) $A$ peut être diagonalisée : il existe une base de vecteurs propres orthogonaux. Dans cette base, l’action de $A$ se résume à une multiplication par les valeurs propres.

Le théorème spectral étend cette idée aux espaces de Hilbert de dimension infinie (comme les espaces de fonctions $L^2$). Pour cela, il faut remplacer les matrices par des opérateurs et imposer des conditions de régularité.

  • Un espace de Hilbert est un espace vectoriel complet muni d’un produit scalaire.
  • Un opérateur $T$ est auto-adjoint (ou hermitien) s’il est égal à son adjoint, $\langle Tx, y \rangle = \langle x, Ty \rangle$. C’est l’analogue des matrices symétriques.
  • Un opérateur $T$ est compact s’il transforme les ensembles bornés en ensembles « presque compacts ». Intuitivement, ce sont des opérateurs qui « régularisent » et se comportent un peu comme des opérateurs en dimension finie.
Théorème Spectral (pour les opérateurs compacts auto-adjoints)

Soit $H$ un espace de Hilbert et $T: H \to H$ un opérateur compact et auto-adjoint.

Alors il existe une base hilbertienne de $H$ (une base orthonormée) constituée de vecteurs propres de $T$.

Plus précisément, il existe une suite (finie ou infinie) de valeurs propres réelles $(\lambda_n)$ et une base orthonormée $(e_n)$ de $H$ telles que $T(e_n) = \lambda_n e_n$ pour tout $n$. De plus, si la suite de valeurs propres est infinie, alors $\lambda_n \to 0$.

Cela signifie que tout vecteur $x \in H$ peut se décomposer de manière unique comme : $$ x = \sum_{n=1}^\infty \langle x, e_n \rangle e_n \quad \text{et} \quad T(x) = \sum_{n=1}^\infty \lambda_n \langle x, e_n \rangle e_n $$

Idée de la Démonstration

La preuve est constructive et se fait par un argument itératif.

  1. Existence d’une première valeur propre : On montre que la norme de l’opérateur, $\|T\|$, est soit une valeur propre, soit l’opposé d’une valeur propre. C’est l’étape la plus technique, qui repose sur la compacité de $T$ pour extraire une sous-suite convergente.
  2. Argument par récurrence : Soit $(\lambda_1, e_1)$ ce premier couple propre. L’opérateur $T$ laisse stable l’orthogonal de $e_1$, noté $\{e_1\}^\perp$. La restriction de $T$ à cet sous-espace est encore un opérateur compact et auto-adjoint.
  3. On peut donc répéter le premier argument sur ce sous-espace plus petit pour trouver un deuxième couple propre $(\lambda_2, e_2)$, et ainsi de suite.
  4. On construit ainsi une famille orthonormée de vecteurs propres. On montre enfin que cette famille est totale, c’est-à-dire qu’elle engendre bien tout l’espace $H$.

Applications Fondamentales

  • « Diagonalisation » en dimension infinie : Ce théorème est la justification ultime de l’idée de diagonaliser un opérateur. Il transforme un opérateur potentiellement complexe en une simple suite de multiplications.
  • Alternative de Fredholm : Il est au cœur de la résolution des équations intégrales. L’alternative de Fredholm, qui donne des conditions d’existence et d’unicité pour les solutions de $x – \lambda Tx = y$, est une conséquence directe.
  • Mécanique Quantique : C’est un pilier de la mécanique quantique. Les « observables » (position, impulsion, énergie) sont modélisées par des opérateurs auto-adjoints. Leurs valeurs propres représentent les valeurs mesurables de ces quantités, et leurs vecteurs propres les états stables du système (par exemple, les niveaux d’énergie d’un atome).
  • Analyse en Composantes Principales (ACP) : En statistiques, l’ACP cherche les axes de plus grande variance dans un nuage de points. Ces axes sont les vecteurs propres de la matrice de covariance, qui est un opérateur compact et auto-adjoint.