Équivalence des Normes en $\mathbb{R}^n$
Nous avons vu qu’il existe plusieurs manières de définir une norme sur $\mathbb{R}^n$. Une question naturelle se pose : les notions d’analyse (convergence, continuité…) dépendent-elles de la norme que l’on choisit ? La réponse, remarquablement, est non. Ce résultat puissant est formalisé par le théorème d’équivalence des normes en dimension finie.
1. Définition de l’Équivalence
Intuitivement, deux normes sont équivalentes si elles donnent la même notion de « proximité ». Un point qui est petit pour une norme doit aussi l’être pour l’autre, et vice-versa.
Soient $\| \cdot \|_a$ et $\| \cdot \|_b$ deux normes sur l’espace vectoriel $\mathbb{R}^n$. On dit qu’elles sont équivalentes s’il existe deux constantes réelles strictement positives, $\alpha$ et $\beta$, telles que pour tout vecteur $x \in \mathbb{R}^n$ : $$ \alpha \|x\|_a \le \|x\|_b \le \beta \|x\|_a $$
Cette double inégalité garantit que les deux normes sont contrôlées l’une par l’autre. Si $\|x\|_a$ tend vers 0, alors $\|x\|_b$ doit aussi tendre vers 0, et réciproquement.
2. Le Théorème Fondamental
Le résultat central est que cette propriété d’équivalence n’est pas une exception, mais la règle absolue en dimension finie.
Sur un espace vectoriel de dimension finie, comme $\mathbb{R}^n$, toutes les normes sont équivalentes.
Démonstration
La relation d’équivalence étant transitive, il suffit de montrer que n’importe quelle norme $\| \cdot \|$ est équivalente à une norme de référence, que l’on choisit typiquement comme étant la norme infinie $\| \cdot \|_\infty$ pour sa simplicité.
Soit $(e_1, \dots, e_n)$ la base canonique de $\mathbb{R}^n$. Tout vecteur $x$ s’écrit $x = \sum_{i=1}^n x_i e_i$.
En utilisant l’inégalité triangulaire et l’homogénéité de la norme $\| \cdot \|$ : $$ \|x\| = \left\| \sum_{i=1}^n x_i e_i \right\| \le \sum_{i=1}^n \|x_i e_i\| = \sum_{i=1}^n |x_i| \|e_i\| $$ Comme $|x_i| \le \max_{j} |x_j| = \|x\|_\infty$ pour tout $i$, on a : $$ \|x\| \le \sum_{i=1}^n \|x\|_\infty \|e_i\| = \|x\|_\infty \left( \sum_{i=1}^n \|e_i\| \right) $$ Le terme $\beta = \sum_{i=1}^n \|e_i\|$ est une constante positive qui ne dépend que de la norme $\| \cdot \|$ et de la base choisie. On a donc bien la deuxième partie de l’inégalité : $$ \|x\| \le \beta \|x\|_\infty $$
Cette partie repose sur un argument de compacité.
- Continuité de la norme : Montrons que l’application $f(x) = \|x\|$ est continue sur $(\mathbb{R}^n, \| \cdot \|_\infty)$. Grâce à l’inégalité triangulaire inverse et au résultat de la partie 1, pour tous $x, y \in \mathbb{R}^n$ : $$ | \|x\| – \|y\| | \le \|x – y\| \le \beta \|x-y\|_\infty $$ Cette inégalité montre que l’application $f$ est $\beta$-lipschitzienne, et donc continue sur $(\mathbb{R}^n, \| \cdot \|_\infty)$.
- Argument de compacité : Considérons la sphère unité pour la norme infinie : $$ S_\infty = \{ x \in \mathbb{R}^n \mid \|x\|_\infty = 1 \} $$ Cet ensemble est fermé et borné dans $(\mathbb{R}^n, \| \cdot \|_\infty)$, donc d’après le théorème de Bolzano-Weierstrass, il est compact.
- Théorème des bornes atteintes : L’application $f(x)=\|x\|$, qui est continue, atteint son minimum sur l’ensemble compact $S_\infty$. Soit $\alpha$ ce minimum : $$ \alpha = \min_{x \in S_\infty} \|x\| $$ Comme tout $x \in S_\infty$ est non nul, on a $\|x\| > 0$, et donc $\alpha > 0$.
- Généralisation : Pour tout vecteur non nul $y \in \mathbb{R}^n$, on peut construire le vecteur $x = \frac{y}{\|y\|_\infty}$. Ce vecteur $x$ appartient à la sphère $S_\infty$. On a donc : $$ \|x\| \ge \alpha \implies \left\| \frac{y}{\|y\|_\infty} \right\| \ge \alpha \implies \frac{1}{\|y\|_\infty}\|y\| \ge \alpha $$ Ce qui nous donne la minoration recherchée : $$ \|y\| \ge \alpha \|y\|_\infty $$ Cette inégalité est trivialement vraie si $y=0$.
Nous avons donc montré l’existence de $\alpha > 0$ et $\beta > 0$ tels que $\alpha \|x\|_\infty \le \|x\| \le \beta \|x\|_\infty$. Toute norme est donc équivalente à la norme infinie, et par conséquent, toutes les normes sont équivalentes entre elles.
3. Conséquences Fondamentales
Ce théorème a des implications profondes en analyse :
- Topologie unique : Toutes les normes sur $\mathbb{R}^n$ définissent la même topologie (les mêmes ensembles ouverts et fermés).
- Convergence des suites : Une suite $(u_k)$ de $\mathbb{R}^n$ converge vers une limite $L$ pour une norme si et seulement si elle converge vers $L$ pour n’importe quelle autre norme.
- Continuité des fonctions : Une fonction $f : \mathbb{R}^n \to \mathbb{R}^m$ est continue si et seulement si elle l’est pour n’importe quel choix de normes sur les espaces de départ et d’arrivée.
En résumé, en dimension finie, le choix de la norme est une question de convenance pratique pour les calculs, mais il ne change en rien les propriétés topologiques fondamentales de l’espace.
4. Contre-exemple en Dimension Infinie
Attention : Ce théorème est spécifique à la dimension finie. En dimension infinie, il est faux. Par exemple, sur l’espace $C([0, 1])$ des fonctions continues sur $[0, 1]$, les normes $\|f\|_\infty = \sup_{t \in [0,1]} |f(t)|$ et $\|f\|_1 = \int_0^1 |f(t)| dt$ ne sont pas équivalentes.