Distance Induite par une Norme

Distance Induite par une Norme

Toute norme définie sur un espace vectoriel permet de construire de manière très naturelle une distance sur ce même espace. Cette construction est fondamentale car elle fait de tout espace vectoriel normé (EVN) un cas particulier d’espace métrique. On hérite ainsi de toutes les notions topologiques associées (boules, ouverts, convergence, etc.).

Définition : Distance Induite

Soit $(E, \| \cdot \|)$ un espace vectoriel normé. L’application $d: E \times E \to \mathbb{R}_+$ définie par : $$ d(x, y) = \|x – y\| $$ est une distance sur $E$, appelée la distance induite par la norme $\| \cdot \|$.

Proposition : Vérification des Axiomes

L’application $d(x, y) = \|x – y\|$ est bien une distance. En effet, les axiomes de la norme impliquent directement les axiomes de la distance :

  1. Séparation : $d(x, y) = 0 \iff \|x – y\| = 0 \iff x – y = 0_E \iff x = y$.
  2. Symétrie : $d(x, y) = \|x – y\| = \|(-1)(y – x)\| = |-1| \cdot \|y – x\| = d(y, x)$.
  3. Inégalité triangulaire : Pour tous $x, y, z \in E$, on a :
    $d(x, z) = \|x – z\| = \|(x – y) + (y – z)\| \le \|x – y\| + \|y – z\| = d(x, y) + d(y, z)$.

Exemples

Les distances usuelles sur $\mathbb{R}^n$ sont toutes induites par les normes correspondantes :

  • La distance euclidienne $d_2(x, y) = \sqrt{\sum (x_i – y_i)^2}$ est induite par la norme euclidienne $\|x – y\|_2$.
  • La distance de Manhattan $d_1(x, y) = \sum |x_i – y_i|$ est induite par la norme 1 $\|x – y\|_1$.
  • La distance de Tchebychev $d_\infty(x, y) = \max |x_i – y_i|$ est induite par la norme infinie $\|x – y\|_\infty$.