Les champs de vecteurs sont des objets centraux en analyse向量ielle et en géométrie différentielle. Ils permettent de modéliser des phénomènes où une quantité vectorielle est attachée à chaque point d’un espace.

Définition formelle d’un champ de vecteurs

Définition sur un ouvert de $\mathbb{R}^n$

Soit $\Omega$ un ouvert de $\mathbb{R}^n$. Un champ de vecteurs sur $\Omega$ est une application $\mathbf{F} : \Omega \to \mathbb{R}^n$.

Pour tout point $\mathbf{x} = (x_1, \dots, x_n) \in \Omega$, on note $\mathbf{F}(\mathbf{x}) = (F_1(\mathbf{x}), \dots, F_n(\mathbf{x}))$, où chaque $F_i$ est une fonction à valeurs réelles.

Exemple fondamental

Considérons $\Omega = \mathbb{R}^2 \setminus \{(0,0)\}$ et le champ $\mathbf{F}(x,y) = \left( \frac{-y}{x^2+y^2}, \frac{x}{x^2+y^2} \right)$. Ce champ est classique.

Opérations algébriques sur les champs de vecteurs

Addition et multiplication par un scalaire

Soient $\mathbf{F}$ et $\mathbf{G}$ deux champs de vecteurs sur $\Omega$, et $\lambda \in \mathbb{R}$. On définit :

$$(\mathbf{F} + \mathbf{G})(\mathbf{x}) = \mathbf{F}(\mathbf{x}) + \mathbf{G}(\mathbf{x}), \quad (\lambda \mathbf{F})(\mathbf{x}) = \lambda \mathbf{F}(\mathbf{x}).$$

Théorème : Structure d’espace vectoriel

L’ensemble des champs de vecteurs sur $\Omega$ forme un espace vectoriel sur $\mathbb{R}$ pour les opérations ci-dessus.

Preuve : Il suffit de vérifier les axiomes. Par exemple, l’addition est associative car pour tout $\mathbf{x}$, $(\mathbf{F}+\mathbf{G})+\mathbf{H}(\mathbf{x}) = \mathbf{F}(\mathbf{x})+\mathbf{G}(\mathbf{x})+\mathbf{H}(\mathbf{x}) = \mathbf{F}(\mathbf{x})+(\mathbf{G}+\mathbf{H})(\mathbf{x})$. Les autres axiomes se vérifient de manière similaire, en utilisant les propriétés de $\mathbb{R}^n$. $lacksquare$

Différentielle d’un champ de vecteurs

Définition de la différentielle

Supposons chaque composante $F_i$ différentiable en $\mathbf{a} \in \Omega$. La différentielle de $\mathbf{F}$ en $\mathbf{a}$ est l’application linéaire $d\mathbf{F}_\mathbf{a} : \mathbb{R}^n \to \mathbb{R}^n$ définie par :

$$d\mathbf{F}_\mathbf{a}(\mathbf{h}) = \left( \sum_{j=1}^n \frac{\partial F_1}{\partial x_j}(\mathbf{a}) h_j, \dots, \sum_{j=1}^n \frac{\partial F_n}{\partial x_j}(\mathbf{a}) h_j \right).$$

Théorème : Matrice jacobienne

La différentielle $d\mathbf{F}_\mathbf{a}$ est représentée, dans les bases canoniques, par la matrice jacobienne $\mathbf{J}_{\mathbf{F}}(\mathbf{a})$ de taille $n \times n$ :

$$\mathbf{J}_{\mathbf{F}}(\mathbf{a}) = \begin{pmatrix}
\frac{\partial F_1}{\partial x_1}(\mathbf{a}) & \cdots & \frac{\partial F_1}{\partial x_n}(\mathbf{a}) \\
\vdots & \ddots & \vdots \\
\frac{\partial F_n}{\partial x_1}(\mathbf{a}) & \cdots & \frac{\partial F_n}{\partial x_n}(\mathbf{a})
\end{pmatrix}.$$

Preuve : Par définition, la différentielle de la composante $F_i$ en $\mathbf{a}$ est $dF_{i,\mathbf{a}}(\mathbf{h}) = \nabla F_i(\mathbf{a}) \cdot \mathbf{h}$. Le vecteur $d\mathbf{F}_\mathbf{a}(\mathbf{h})$ a pour $i$-ème coordonnée cette quantité. L’application linéaire $\mathbf{h} \mapsto \mathbf{J}_{\mathbf{F}}(\mathbf{a}) \mathbf{h}$ donne exactement le même résultat. $lacksquare$

Exemple de calcul

Pour $\mathbf{F}(x,y) = (x^2y, e^{x+y})$ sur $\mathbb{R}^2$, la matrice jacobienne est :

$$\mathbf{J}_{\mathbf{F}}(x,y) = \begin{pmatrix}
2xy & x^2 \\
e^{x+y} & e^{x+y}
\end{pmatrix}.$$

Champs de vecteurs gradients

Définition

Soit $f : \Omega \to \mathbb{R}$ une fonction différentiable. Le champ gradient de $f$ est le champ de vecteurs $\nabla f$ défini par :

$$\nabla f(\mathbf{x}) = \left( \frac{\partial f}{\partial x_1}(\mathbf{x}), \dots, \frac{\partial f}{\partial x_n}(\mathbf{x}) \right).$$

Théorème : Caractérisation des champs gradients

Un champ de vecteurs $\mathbf{F}$ sur un ouvert simplement connexe $\Omega$ est un champ gradient (c’est-à-dire $\mathbf{F} = \nabla f$ pour une certaine fonction $f$) si et seulement si sa rotationnel est nulle : $\nabla \times \mathbf{F} = \mathbf{0}$.

Preuve (esquisse) : Si $\mathbf{F} = \nabla f$, alors $\frac{\partial F_i}{\partial x_j} = \frac{\partial^2 f}{\partial x_j \partial x_i} = \frac{\partial F_j}{\partial x_i}$ par le théorème de Schwarz, donc le rotationnel s’annule. Réciproquement, sous l’hypothèse de simple connexité, on peut définir $f(\mathbf{x}) = \int_{\mathbf{a}}^{\mathbf{x}} \mathbf{F} \cdot d\mathbf{l}$ ; ce chemin-intégrale est indépendant du chemin car $\nabla \times \mathbf{F}=0$, et sa différentielle vaut $\mathbf{F}$. $lacksquare$

Contre-exemple重要

Sur $\Omega = \mathbb{R}^2 \setminus \{(0,0)\}$, le champ $\mathbf{F}(x,y) = \left( \frac{-y}{x^2+y^2}, \frac{x}{x^2+y^2} \right)$ a un rotationnel nul. Cependant, il n’est pas un gradient sur tout $\Omega$ car $\Omega$ n’est pas simplement connexe. Le long d’un cercle centred à l’origine, $\oint \mathbf{F} \cdot d\mathbf{l} = 2\pi \neq 0$.

Pour approfondir ces notions, consultez les cours et exercices de mathématiques supérieur, licence, prépa sur KeepMath. La rubrique supérieur de Culture Math propose également des ressources complémentaires.