Soit $K$ un corps commutatif et $\mathcal{H} = Vect(\{AB-BA \mid (A,B) \in (\mathcal{M}_n(K))^2\})$.
- Montrer que pour tous $i \neq j$, la matrice élémentaire $E_{ij}$ appartient à $\mathcal{H}$.
- Montrer que pour tout $i \in \{1, \dots, n\}$, la matrice $E_{ii} – E_{nn}$ appartient à $\mathcal{H}$.
- En déduire que $\mathcal{H}$ est un hyperplan de $\mathcal{M}_n(K)$ et que $\mathcal{H} = Ker(tr)$.
1. Pour $i \neq j$, on choisit $A=E_{ik}$ et $B=E_{kj}$ avec $k \neq i, j$. Alors $AB-BA = E_{ij} – 0 = E_{ij}$. Donc $E_{ij} \in \mathcal{H}$.
2. On choisit $A=E_{in}$ et $B=E_{ni}$. Alors $AB-BA = E_{ii} – E_{nn}$. Donc $E_{ii} – E_{nn} \in \mathcal{H}$.
3. D’après 1 et 2, $\mathcal{H}$ contient toutes les matrices $E_{ij}$ pour $i \neq j$ et les matrices $E_{ii}-E_{nn}$. Ces $n^2-1$ matrices forment une famille libre. Donc $\dim(\mathcal{H}) \ge n^2-1$. De plus, la trace d’un commutateur $AB-BA$ est toujours nulle : $tr(AB-BA) = tr(AB)-tr(BA)=0$. Donc $\mathcal{H} \subseteq Ker(tr)$. Comme $tr$ est une forme linéaire non nulle, $Ker(tr)$ est un hyperplan de dimension $n^2-1$. On conclut que $\mathcal{H} = Ker(tr)$ et que c’est un hyperplan.
Soit $A = (a_{ij})$ une matrice de $\mathcal{M}_n(\mathbb{C})$ telle que pour tout $i \in \{1, \dots, n\}$, on ait $\sum_{j \neq i} |a_{ij}| < |a_{ii}|$. (On dit que $A$ est à diagonale strictement dominante). Montrer que $A$ est inversible.
On raisonne par l’absurde. Supposons que $A$ n’est pas inversible. Alors son noyau n’est pas réduit à $\{0\}$. Il existe donc un vecteur colonne non nul $X=(x_1, \dots, x_n)$ tel que $AX=0$. Soit $i_0$ un indice tel que $|x_{i_0}|$ soit maximal parmi tous les $|x_j|$. Comme $X \neq 0$, on a $|x_{i_0}| > 0$.
La $i_0$-ème ligne de l’équation $AX=0$ s’écrit $\sum_{j=1}^n a_{i_0 j} x_j = 0$. On peut isoler le terme diagonal : $a_{i_0 i_0} x_{i_0} = – \sum_{j \neq i_0} a_{i_0 j} x_j$.
En passant aux modules et en utilisant l’inégalité triangulaire :
$|a_{i_0 i_0}| |x_{i_0}| = |\sum_{j \neq i_0} a_{i_0 j} x_j| \le \sum_{j \neq i_0} |a_{i_0 j}| |x_j|$.
Puisque $|x_j| \le |x_{i_0}|$ pour tout $j$, on a :
$|a_{i_0 i_0}| |x_{i_0}| \le |x_{i_0}| \sum_{j \neq i_0} |a_{i_0 j}|$.
Comme $|x_{i_0}| > 0$, on peut simplifier pour obtenir $|a_{i_0 i_0}| \le \sum_{j \neq i_0} |a_{i_0 j}|$. Ceci contredit l’hypothèse que $A$ est à diagonale strictement dominante. Donc $A$ doit être inversible.
Une matrice $A=(a_{ij}) \in \mathcal{M}_n(\mathbb{R})$ est dite stochastique si tous ses coefficients sont positifs ou nuls ($a_{ij} \ge 0$) et si la somme des coefficients de chaque ligne vaut 1 ($\forall i, \sum_j a_{ij} = 1$).
- Montrer que l’ensemble $S$ des matrices stochastiques est stable par multiplication.
- Déterminer les matrices $A \in S$ qui sont inversibles et dont l’inverse $A^{-1}$ est aussi dans $S$.
1. Soient $A, B \in S$. Posons $C=AB$. Le coefficient $c_{ij} = \sum_k a_{ik}b_{kj}$. Comme tous les $a_{ik}$ et $b_{kj}$ sont positifs, $c_{ij} \ge 0$. La somme des coefficients de la ligne $i$ de $C$ est $\sum_j c_{ij} = \sum_j \sum_k a_{ik}b_{kj} = \sum_k a_{ik} (\sum_j b_{kj})$. Comme $B$ est stochastique, $\sum_j b_{kj}=1$. La somme devient $\sum_k a_{ik} = 1$, car $A$ est stochastique. Donc $C \in S$.
2. Soit $A \in S$ inversible avec $A^{-1} \in S$. Soit $X$ le vecteur colonne dont toutes les composantes valent 1. Comme $A$ est stochastique, $AX=X$. En multipliant par $A^{-1}$, on obtient $X = A^{-1}X$. Cela signifie que $A^{-1}$ est aussi stochastique. Si une ligne de $A$ contient un coefficient égal à 1, tous les autres coefficients de cette ligne sont nuls. Si $a_{ij}=1$, alors pour que $A$ soit inversible, il faut qu’elle soit une matrice de permutation. Si $A$ est une matrice de permutation, $A^{-1} = {}^tA$, qui est aussi une matrice de permutation et donc stochastique. Les matrices recherchées sont les matrices de permutation.
Soit $A \in \mathcal{M}_n(\mathbb{C})$ avec $tr(A) \neq 0$. On définit $f: \mathcal{M}_n(\mathbb{C}) \to \mathcal{M}_n(\mathbb{C})$ par $f(M) = tr(A)M – tr(M)A$.
1. Montrer que $f$ est un endomorphisme.
2. Déterminer $Ker(f)$ et $Im(f)$.
1. La linéarité de la trace assure que $f$ est un endomorphisme de $\mathcal{M}_n(\mathbb{C})$.
2. Noyau : $M \in Ker(f) \iff tr(A)M = tr(M)A$. Si $M$ est proportionnelle à $A$, $M=\lambda A$, alors $tr(A)(\lambda A) = tr(\lambda A)A \implies \lambda tr(A)A = \lambda tr(A)A$, donc $Vect(A) \subseteq Ker(f)$. Réciproquement, si $tr(A)M = tr(M)A$, alors $M$ est proportionnelle à $A$. Donc $Ker(f) = Vect(A)$. $\dim(Ker(f))=1$.
Image : D’après le théorème du rang, $\dim(Im(f)) = n^2-1$. On remarque que pour toute matrice $M$, $tr(f(M)) = tr(tr(A)M – tr(M)A) = tr(A)tr(M) – tr(M)tr(A) = 0$. Donc $Im(f) \subseteq Ker(tr)$. Comme $Ker(tr)$ est un hyperplan de dimension $n^2-1$, on a l’égalité : $Im(f) = Ker(tr)$.
Soit $f: \mathcal{M}_n(\mathbb{C}) \to \mathbb{C}$ une application linéaire non constante telle que $f(AB)=f(A)f(B)$ pour toutes matrices $A, B$.
1. Montrer que $f(I)=1$ et $f(0)=0$.
2. Montrer que si $A$ n’est pas inversible, alors $f(A)=0$.
1. $f(I) = f(I \cdot I) = f(I)f(I)$, donc $f(I)$ vaut 0 ou 1. Si $f(I)=0$, alors pour toute matrice $A$, $f(A)=f(AI)=f(A)f(I)=0$, ce qui contredit le fait que $f$ n’est pas constante. Donc $f(I)=1$. La linéarité impose $f(0)=0$.
2. Si $A$ n’est pas inversible, son rang $r$ est strictement inférieur à $n$. $A$ est équivalente à une matrice $J_r$ qui est diagonale avec $r$ fois 1 et $n-r$ fois 0. On peut montrer que $f(E_{ij})=0$ pour $i \neq j$ et $f(E_{ii})$ vaut 1 ou 0. L’hypothèse $f(AB)=f(A)f(B)$ force $f$ à être nulle sur toutes les matrices non inversibles. Une démonstration plus rigoureuse montre que $f$ doit être la fonction déterminant, mais l’exercice suggère une voie plus simple : si $A$ n’est pas inversible, il existe $P, Q$ inversibles telles que $A=PJ_rQ$ avec $r