Soit $E$ un K-espace vectoriel de dimension finie $n$, $\beta = (e_1, \dots, e_n)$ une base de $E$, et $u$ un endomorphisme de $E$. La valeur du déterminant de l’image de la base $\beta$ par $u$, calculée par rapport à cette même base $\beta$, est une constante qui ne dépend pas du choix de la base $\beta$. $$ \frac{\det_\beta(u(e_1), \dots, u(e_n))}{\det_\beta(e_1, \dots, e_n)} \quad \text{est indépendant de } \beta $$ Puisque $\det_\beta(e_1, \dots, e_n) = 1$, cette valeur est simplement $\det_\beta(u(e_1), \dots, u(e_n))$.
Démonstration
Soit $\gamma = (v_1, \dots, v_n)$ une autre base de $E$. Nous devons montrer que $\det_\gamma(u(v_1), \dots, u(v_n)) = \det_\beta(u(e_1), \dots, u(e_n))$.
Considérons l’application $f: E^n \to K$ définie par $f(x_1, \dots, x_n) = \det_\beta(u(x_1), \dots, u(x_n))$. Il est clair que $f$ est une forme n-linéaire alternée. Par conséquent, elle est proportionnelle à la forme déterminant dans la base $\gamma$, $\det_\gamma$. Le coefficient de proportionnalité est $f(v_1, \dots, v_n)$.
On a donc : $f(x_1, \dots, x_n) = f(v_1, \dots, v_n) \times \det_\gamma(x_1, \dots, x_n)$. En appliquant cette relation à la base $\beta = (e_1, \dots, e_n)$, on obtient : $$ f(e_1, \dots, e_n) = f(v_1, \dots, v_n) \times \det_\gamma(\beta) $$ Ce qui se traduit par : $$ \det_\beta(u(e_1), \dots, u(e_n)) = \det_\beta(u(v_1), \dots, u(v_n)) \times \det_\gamma(\beta) $$ Or, on sait que $\det_\beta(u(v_1), \dots, u(v_n)) = \det_\beta(\gamma) \times \det_\gamma(u(v_1), \dots, u(v_n))$. En utilisant la relation de Chasles $\det_\beta(\gamma) \times \det_\gamma(\beta) = 1$, on aboutit bien à l’égalité souhaitée.
Soit $u$ un endomorphisme d’un K-espace vectoriel $E$ de dimension finie $n$. On appelle déterminant de u, noté $\det(u)$, le scalaire constant défini pour n’importe quelle base $\beta = (e_1, \dots, e_n)$ de $E$ par : $$ \det(u) = \det_\beta(u(e_1), \dots, u(e_n)) $$
Remarque
Si la décomposition des images des vecteurs de base est $u(e_j) = \sum_{i=1}^n a_{ij}e_i$, alors la formule de Leibniz nous donne : $$ \det(u) = \sum_{\sigma \in S_n} \varepsilon(\sigma) a_{\sigma(1),1} a_{\sigma(2),2} \dots a_{\sigma(n),n} $$
Soit $E$ un K-espace vectoriel de dimension finie.
- $\det(Id_E) = 1$.
- Le déterminant est multiplicatif : $\forall u, v \in L(E), \quad \det(u \circ v) = \det(u) \det(v)$.
- Un endomorphisme $u$ est inversible (est un automorphisme) si et seulement si son déterminant est non nul.
- Si $u$ est inversible, alors $\det(u^{-1}) = (\det(u))^{-1}$.