Pour chaque entier $n \ge 1$, on considère l’espace $\mathbb{R}_n[X]$ des polynômes de degré au plus $n$. Soit $\varphi$ l’application définie par $\varphi(P) = \int_0^1 P(t)dt$.
- Montrer que $\varphi$ est une forme linéaire sur $\mathbb{R}_n[X]$.
- Pour chaque $i \in \{0, \dots, n\}$, soit $\varphi_i(P) = P(\frac{i}{n})$. Montrer que $(\varphi_0, \dots, \varphi_n)$ est une base de l’espace dual $(\mathbb{R}_n[X])^*$.
- En déduire l’existence de réels $a_0, \dots, a_n$ tels que pour tout $P \in \mathbb{R}_n[X]$, on ait $\int_0^1 P(t)dt = \sum_{i=0}^n a_i P(\frac{i}{n})$.
1. La linéarité de l’intégrale assure que $\varphi$ est une forme linéaire.
2. L’espace $(\mathbb{R}_n[X])^*$ a pour dimension $n+1$. Il suffit de montrer que la famille $(\varphi_0, \dots, \varphi_n)$ est libre. Soit $\sum_{i=0}^n \alpha_i \varphi_i = 0$. On utilise les polynômes d’interpolation de Lagrange $L_j$ associés aux points $\frac{i}{n}$, qui vérifient $L_j(\frac{i}{n}) = \delta_{ij}$. En appliquant la combinaison linéaire à $L_j$, on obtient $\sum_{i=0}^n \alpha_i L_j(\frac{i}{n}) = \alpha_j = 0$. Ceci étant vrai pour tout $j$, la famille est libre.
3. Puisque $\varphi$ est une forme linéaire et $(\varphi_i)$ est une base du dual, $\varphi$ se décompose de manière unique dans cette base : $\varphi = \sum_{i=0}^n a_i \varphi_i$. En appliquant cette égalité à un polynôme $P$, on obtient la formule d’intégration numérique recherchée.
Soit $E = \mathbb{R}_3[X]$ et $F$ le sous-ensemble des polynômes $P \in E$ tels que $P(1)=0$ et $P »(0)=0$.
a) Vérifier que $F$ est un sous-espace vectoriel de $E$ et en déterminer une base.
b) Caractériser l’orthogonal $F^\perp$ de $F$.
a) Soit $P(X) = a+bX+cX^2+dX^3$. Les conditions se traduisent par le système linéaire $a+b+c+d=0$ et $2c=0$. On en déduit $c=0$ et $d=-a-b$. Donc $P(X) = a(1-X^3) + b(X-X^3)$. Une base de $F$ est donc $(1-X^3, X-X^3)$.
b) $F = Vect(1-X^3, X-X^3)$. Une forme linéaire $\varphi$ est dans $F^\perp$ si et seulement si elle s’annule sur les vecteurs de cette base, c’est-à-dire $\varphi(1-X^3)=0$ et $\varphi(X-X^3)=0$. Cela équivaut à $\varphi(1) = \varphi(X^3)$ et $\varphi(X) = \varphi(X^3)$. En utilisant la base duale $(e_0^*, \dots, e_3^*)$, on a $\varphi(X^k) = \langle \varphi, e_k \rangle$. La condition devient donc $\varphi \in F^\perp \iff \langle \varphi, e_0 \rangle = \langle \varphi, e_3 \rangle$ et $\langle \varphi, e_1 \rangle = \langle \varphi, e_3 \rangle$.
On considère les formes linéaires $\varphi_0, \varphi_1, \varphi_2, \varphi_3$ sur $\mathbb{R}_3[X]$ définies par $\varphi_0(P)=P(0)$, $\varphi_1(P)=P(1)$, $\varphi_2(P)=P'(0)$ et $\varphi_3(P)=P'(1)$.
a) Montrer que $\gamma = (\varphi_0, \varphi_1, \varphi_2, \varphi_3)$ est une base de $(\mathbb{R}_3[X])^*$.
b) Déterminer la base préduale de $\gamma$.
c) Déterminer les composantes de $\varphi(P) = \int_0^1 P(t)dt$ dans la base $\gamma$.
a) On montre que la famille est libre. Si $\sum \alpha_i \varphi_i = 0$, on teste sur des polynômes bien choisis (polynômes d’Hermite) pour montrer que tous les $\alpha_i$ sont nuls. Comme la famille a 4 éléments dans un espace de dimension 4, c’est une base.
b) On cherche une base $(P_0, P_1, P_2, P_3)$ de $\mathbb{R}_3[X]$ telle que $\varphi_i(P_j)=\delta_{ij}$. Par exemple, pour $P_0$, on doit avoir $P_0(0)=1, P_0(1)=0, P_0′(0)=0, P_0′(1)=0$. On trouve $P_0(X) = 2X^3 – 3X^2 + 1$. On procède de même pour les autres.
c) On cherche $\alpha_i$ tels que $\varphi = \sum \alpha_i \varphi_i$. On a $\alpha_j = \varphi(P_j) = \int_0^1 P_j(t)dt$. On calcule ces intégrales. On trouve $\varphi = \frac{1}{2}\varphi_0 + \frac{1}{2}\varphi_1 + \frac{1}{12}\varphi_2 – \frac{1}{12}\varphi_3$.
Soient $a, b, c$ trois complexes distincts. On pose $P_1=(X-b)(X-c)$, $P_2=(X-a)(X-c)$ et $P_3=(X-a)(X-b)$. Montrer que $(P_1, P_2, P_3)$ est une base de $\mathbb{C}_2[X]$ et trouver sa base duale.
C’est une famille de 3 polynômes dans un espace de dimension 3. On montre qu’elle est libre. Une combinaison linéaire nulle $\alpha_1 P_1 + \alpha_2 P_2 + \alpha_3 P_3 = 0$, évaluée en $a$, donne $\alpha_1(a-b)(a-c)=0$, donc $\alpha_1=0$. De même en $b$ et $c$, on trouve $\alpha_2=\alpha_3=0$. C’est donc une base.
La base duale $(P_1^*, P_2^*, P_3^*)$ est liée aux formes linéaires d’évaluation. On a $P_1^*(P) = \frac{P(a)}{(a-b)(a-c)}$, $P_2^*(P) = \frac{P(b)}{(b-a)(b-c)}$, et $P_3^*(P) = \frac{P(c)}{(c-a)(c-b)}$.
Soit $E=\mathbb{K}_n[X]$ et $\varphi$ une forme linéaire sur $E$. On suppose qu’il existe $a \in \mathbb{K}$ tel que pour tout $P \in E$, $\varphi((X-a)P)=0$. Montrer qu’il existe $\alpha \in \mathbb{K}$ tel que $\varphi(P)=\alpha P(a)$ pour tout $P \in E$.
La condition $\varphi((X-a)P)=0$ signifie que l’idéal $(X-a)$ est inclus dans $Ker(\varphi)$. Soit $\psi_a$ la forme linéaire d’évaluation en $a$, $\psi_a(P)=P(a)$. Son noyau est $Ker(\psi_a) = (X-a)$. On a donc $Ker(\psi_a) \subseteq Ker(\varphi)$. Comme $Ker(\psi_a)$ est un hyperplan, soit $Ker(\varphi)=Ker(\psi_a)$, soit $Ker(\varphi)=E$. Si $Ker(\varphi)=E$, $\varphi=0$ et on peut prendre $\alpha=0$. Sinon, les noyaux sont égaux. D’après une proposition du cours, deux formes linéaires non nulles ayant le même noyau sont proportionnelles. Il existe donc $\alpha \in \mathbb{K}$ tel que $\varphi = \alpha \psi_a$.
Soient $E$ un K-espace vectoriel de dimension finie, $\varphi$ et $\psi$ deux formes linéaires non nulles. Montrer qu’il existe un vecteur $x \in E$ tel que $\varphi(x) \neq 0$ et $\psi(x) \neq 0$.
On raisonne par l’absurde. Supposons que pour tout $x \in E$, on ait $\varphi(x)=0$ ou $\psi(x)=0$. Cela signifie que $E = Ker(\varphi) \cup Ker(\psi)$. Comme $E$ est un espace vectoriel, et que $Ker(\varphi)$ et $Ker(\psi)$ sont des sous-espaces, cette union ne peut être égale à $E$ que si l’un des sous-espaces est inclus dans l’autre. Supposons $Ker(\varphi) \subseteq Ker(\psi)$. Comme ce sont des hyperplans (car $\varphi, \psi$ non nulles), on a $Ker(\varphi)=Ker(\psi)$. Mais cela ne contredit pas l’énoncé. L’erreur est de conclure trop vite. Si $E = Ker(\varphi) \cup Ker(\psi)$, alors $E=Ker(\varphi)$ ou $E=Ker(\psi)$. Cela impliquerait que $\varphi=0$ ou $\psi=0$, ce qui est contraire à l’hypothèse. Donc un tel $x$ doit exister.
Soit $E$ un K-espace vectoriel de dimension finie $n$. Soit $(e_1, \dots, e_n)$ un système de vecteurs. Montrer que c’est une base si et seulement si pour toute forme linéaire $\varphi \in E^*$, $[\forall i, \varphi(e_i)=0] \implies [\varphi=0]$.
($\implies$) Si $(e_i)$ est une base et $\varphi(e_i)=0$ pour tout $i$, alors par linéarité, $\varphi$ s’annule sur tout vecteur de $E$, donc $\varphi=0$.
($\impliedby$) Supposons la condition vérifiée. Soit $F=Vect(e_1, \dots, e_n)$. On veut montrer que $F=E$. Par l’absurde, si $F \neq E$, alors $F$ est un sous-espace strict. On peut alors construire une forme linéaire $\varphi$ non nulle telle que $F \subseteq Ker(\varphi)$. Pour cette forme, on aurait $\varphi(e_i)=0$ pour tout $i$, mais $\varphi \neq 0$, ce qui contredit l’hypothèse. Donc $F=E$ et la famille est génératrice. Comme elle a $n$ éléments dans un espace de dimension $n$, c’est une base.
Soit $E$ un K-espace vectoriel de dimension infinie. Montrer que si $\varphi_1, \dots, \varphi_n$ sont des formes linéaires sur $E$, alors leur intersection de noyaux $\bigcap_{i=1}^n Ker(\varphi_i)$ n’est pas réduite à $\{0\}$.
Considérons l’application linéaire $\Phi: E \to K^n$ définie par $\Phi(x) = (\varphi_1(x), \dots, \varphi_n(x))$. Le noyau de $\Phi$ est exactement $\bigcap_{i=1}^n Ker(\varphi_i)$. D’après le théorème du rang, $\dim(E) = \dim(Ker(\Phi)) + \dim(Im(\Phi))$. Comme $E$ est de dimension infinie et que $Im(\Phi)$ est un sous-espace de $K^n$ (donc de dimension finie $\le n$), le noyau $Ker(\Phi)$ doit nécessairement être de dimension infinie. En particulier, il n’est pas réduit à $\{0\}$.
Soit $E$ un K-espace vectoriel et $p$ un entier $\ge 1$. On suppose qu’il existe $p$ formes linéaires $\varphi_1, \dots, \varphi_p$ telles que pour tout $x \in E$, $[\varphi_1(x) = \dots = \varphi_p(x) = 0] \implies [x=0]$. Montrer que $E$ est de dimension finie et que $\dim(E) \le p$.
Considérons à nouveau l’application linéaire $\Phi: E \to K^p$ définie par $\Phi(x) = (\varphi_1(x), \dots, \varphi_p(x))$. L’hypothèse de l’énoncé signifie que le noyau de $\Phi$ est réduit à $\{0\}$, c’est-à-dire que $\Phi$ est injective. Si $\Phi$ est injective, elle établit un isomorphisme entre $E$ et son image $Im(\Phi)$. Comme $Im(\Phi)$ est un sous-espace de $K^p$, sa dimension est finie et inférieure ou égale à $p$. Par isomorphisme, $E$ est donc de dimension finie et $\dim(E) = \dim(Im(\Phi)) \le p$.
Soit $E$ un K-espace vectoriel, $V$ un sous-espace de $E$ et $f: E \to F$ une application linéaire. Montrer que $f(V)^\perp = ({}^t f)^{-1}(V^\perp)$.
Soit $\varphi \in F^*$. On a les équivalences suivantes :
$\varphi \in f(V)^\perp \iff \forall y \in f(V), \langle y, \varphi \rangle = 0$
$\iff \forall x \in V, \langle f(x), \varphi \rangle = 0$
$\iff \forall x \in V, \langle x, {}^t f(\varphi) \rangle = 0$
$\iff {}^t f(\varphi) \in V^\perp$
$\iff \varphi \in ({}^t f)^{-1}(V^\perp)$.
D’où l’égalité.