$$ \DeclareMathOperator{\vect}{vect} \DeclareMathOperator{\Ima}{Im} \DeclareMathOperator{\card}{card} \DeclareMathOperator{\Mat}{Mat} \DeclareMathOperator{\GL}{GL} \DeclareMathOperator{\rg}{rg} \DeclareMathOperator{\tr}{tr} \DeclareMathOperator{\Id}{Id} \DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh} \DeclareMathOperator{\xhookrightarrow}{\raisebox{\depth}{\rotatebox{180}{\reflectbox{$\hookrightarrow$}}}} \renewcommand{\th}{\text{th}} \DeclareMathOperator{\argth}{argth} \DeclareMathOperator{\Arg}{Arg} \newcommand\Isom{\mathcal{I}\text{som}} \newcommand{\DL}[1]{développement limité à l'ordre $#1$ en zéro}$$
LMPrépa

Chapitre 19 : Matrices (II)

Questions de cours 1

Questions de cours 2

1. Donner la définition de deux matrices équivalentes.

Définition :
On dit que deux matrices sont équivalentes lorsqu'il existe des matrices inversible $P\in \text{GL}_p(K)$ et $Q \in \text{GL}_q(K)$ tq $$A = PBQ$$ On note $A \mathscr{E}_q B$

2. A quelle matrice simple est équivalente une matrice de rang $r$ ?

Théorème :
Soient $A\in M_n(K)$, de rang $r\in [\![ 1;n]\!]$
Alors $A \mathscr{E}_q J_r$ i.e. il existe $P$ et $Q$ dans $\text{GL}_n(K)$ tq $A = PJ_rQ$

3. Énocer le théorème de clasification selon le rang.

Corollaire : classification selon le rang
Deux matrices sont équivalentes ssi elles ont le même rang

4. Donner la définition et les propriétés élémentaires de la transposée d'une matrice (involution, linéarité, transposée du produit et de l'inverse dans le cas inversible).

Définition :
Soit $A\in M_{pq}(K)$, on note $\displaystyle{} A = (a_{ij})_{\stackrel{1\leq i\leq p}{1\leq j\leq q}}$
On appelle transposé de $A$ la matrice notée ${}^tA\in M_{qp}(K)$ de terme général $b_{ij} = a_{ji}$
Théorème : Propriété
1. ${}^t({}^tA) = A$
2. ${}^t(A+B) = {}^tA + {}^tB$ \hspace{20pt} ${}^t(\lambda A) = \lambda {}^tA$
3. ${}^t(AB) = {}^tB \times {}^tA$
4. Si $A\in\text{GL}_n(K)$ alors ${}^tA \in \text{GL}_n(K)$ et $({}^tA)^{-1} = {}^t(A^{-1})$

5. SAVOIR REFAIRE : soit $A\in M_n(K)$. Montrer que $\text{rg}(A) = \text{rg}({}^tA)$. Comment interpréter cela en termes de lignes/colonnes ?

Théorème :
Soit $A\in M_{pq}(K)$
Alors $\text{rg}({}^tA) = \text{rg}(A)$
Corollaire :
Sur une matrice quelconque, le rang des ligne et égal au rang des colonnes.
Preuve :
[théorème] - Si $rg(A) = 0$, alors $A = 0$ et ${}^tA = 0$
- Si $\text{rg}(A)= r \geq 1$, alors on a vu que $A\mathscr{E}_q J_r$, d'où $P$ et $Q$ dans $\text{GL}_n(K)$ tq $A = PJ_rQ$
Donc ${}^tA = {}^t[(PJ_r)Q] = {}^tQ{}^t(PJ_r) = {}^tQ{}^tJ_r{}^tP$
Or ${}^tJ_r = J_r$ car $J_r$ est diagonale.
Ainsi ${}^tA = {}^tQJ_r{}^tP$ où ${}^tQ$ et ${}^tP$ sont inversible.\ Donc ${}^tA \mathscr{E}_q J_r$
Ainsi $rg({}^tA) = r = \text{rg}(A)$

6. Définition d'une matrice symétrique/antisymétrique.

Définition :
$A\in M_n(K)$ est dite symétrique lorsque ${}^tA = A$
$A\in M_n(K)$ est dite antisymétrique lorsque ${}^tA = -A$

7. SAVOIR REFAIRE : Montrer que $M_n(K) = \mathcal{S}_n(K) \oplus \mathcal{A}_n(K)$.

Théorème :
1. $\mathscr{S}_n(K)$ et $\mathscr{A}_n(K)$ sont des sous-espace vecotirel de $M_n(K)$
2. $M_n(K) = \mathscr{S}_n(K) \oplus \mathscr{A}_n(K)$
3. $\dim(\mathscr{S}_n(K)) = \frac{n(n+1)}{2}$ et $\dim(\mathscr{A}_n(K)) = \frac{n(n-1)}{2}$
Preuve :
1. Montrons que $\mathscr{A}_n(K)$ est un sous-esapce vectoriel de $M_n(K) = E$
La matrice nulle est bien asymétrique ${}^t0_E = -0_E$
Soient $A$ et $B$ asymétrique dans $E$, $\lambda$ et $\mu$ dans $E$
On pose $C = \lambda A \mu B$
\begin{eqnarray*} {}^tC &=& {}^t(\lambda A + \mu B)\\ &=& \lambda{}^tA + \mu{}^tB \hspace{20pt} \text{la transposition est linéaire}\\ &=& \lambda(-A)+\mu(-B)\\ &=& -C \end{eqnarray*} Donc $C\in \mathscr{A}_n(K)$

Conclusion $\mathscr{A}_n(K)$ est un sous-espace vectoriel de $M_n(K)$
De même pour $\mathscr{S}_n(K)$

2. Montrons que $\mathscr{S}_n(K) \cap \mathscr{A}_n(K) = \{0_E\}$
Soit $A\in \mathscr{S}_n(K) \cap \mathscr{A}_n(K)$ i.e. ${}^tA = A$ et ${}^tA = -A$ donc $A = -A$ i.e. $2A = 0_E$ donc $A = 0_E$

Montrons que $A\in M_n(K) \subset \mathscr{S}_n(K) + \mathscr{A}_n(K) = \{0_E\}$
Soit $A\in M_n(K)$, $\displaystyle{} A = \underbrace{\frac{1}{2}(A+{}^tA)}_{\text{noté }U} + \underbrace{\frac{1}{2}(A-{}^tA)}_{\text{noté }V}$ $${}^tU = {}^t\left( \frac{1}{2}(A+{}^tA) \right) = \frac{1}{2}({}^tA + {}^t({}^tA)) = \frac{1}{2}({}^tA + A) = U$$ Donc $U \in \mathscr{S}_n(K)$ $${}^tV = {}^t\left( \frac{1}{2}(A-{}^tA) \right) = \frac{1}{2} ({}^tA - {}^t({}^tA)) = \frac{1}{2}({}^tA -A)) = -\frac{1}{2}(A - {}^tA) = -V$$ Donc $V\in \mathscr{A}_n(K)$
Donc $A = U+V$ avec $U$ symétrique et $V$ antisymétrique.

Conclusion : $\mathscr{A}_n(K)$ et $\mathscr{S}_n(K)$ sont supplémentaire dans $E$

8. SAVOIR REFAIRE : Donner la dimension de $\mathcal{S}_n(K)$ et $\mathcal{A}_n(K)$ (expliquer moralement, puis donner idée de la démarche pour une preuve rigoureuse)?

Théorème :
$$\dim(\mathscr{S}_n(K)) = \frac{(n+1)}{2}\hspace{40pt}\dim(\mathscr{A}_n(K) = \frac{(n-1)}{2})$$
On commence par $\mathscr{S}_n(K)$ :
Moralement, soit $A\in\mathscr{S}_n(K)$ $$A = \begin{pmatrix} . & \star & \star\\ \vdots & \ddots & \star \\ . & \cdots & . \end{pmatrix}$$ $\star$ est obtenu par symétrie par rapport à la diagonale. Donc pour connaitre $A\in\mathscr{S}_n(K)$, il suffit de se donner des termes diagonaux et sous diagonaux.

Comptons les : $\begin{array}{c c} \begin{array}{c} 1 \\ 2 \\ 3 \\ \vdots \\ n \end{array}\hspace{-1em} & \left( \begin{array}{@{} c c c c c @{}} a_{11} \\ a_{21} & a_{22} \\ a_{31} & a_{32} & a_{33} \\ \vdots & \vdots & & \ddots \\ a_{n1} & a_{n2} & \cdots & \cdots & a_{nn} \end{array} \right) \\ \end{array}$\\ Total : $\displaystyle{}1+2+...+n = \sum_{k=1}^n k = \frac{n(n+1)}{2}$

Rigoureusement : Si $i<j$ on a $S_{ij} = E_{ij}+E_{ji}$.
On pose $\beta = (S_{ij})_{1\leq i < j \leq n}\cup \{E_{ii}/i\in[\![ 1;n]\!]\}$
$\beta$ est génératrice car si $A\in\mathscr{S}_n(K)$ $$A = \sum_{1\leq i < j \leq n}a_{ij}S_{ij} + \sum_{i=1}^na_{ii}E_{ii}$$ $\beta$ est libre car si $A = 0_E$, alors tous les $a_{ij}$ sont nuls.

$\beta$ est une base de $\mathscr{S}_n(K)$ \begin{eqnarray*} \text{card}(\beta) &=& \text{card}\{(i,j)\in[\![ A;n]\!]/i<j\} + \text{card}\{E_{ii}/i\in[\![ 1;n]\!]\}\\ &=& \frac{n(n-1)}{2}+n\\ &=& \frac{n(n+1)}{2} \end{eqnarray*} Grassman : \begin{eqnarray*} \dim(M_n(K)) &=& \dim(\mathscr{S}_n(K))+\dim(\mathscr{A}_n(K))\\ n^2 &=& \frac{n(n+1)}{2} + \dim(\mathscr{A}_n(K)) \end{eqnarray*} Donc \begin{eqnarray*} \dim(\mathscr{A}_n(K)) &=& n^2 - \frac{n(n+1)}{2}\\ &=& n^2 - \frac{n^2}{2} - \frac{n}{2}\\ &=& \frac{n^2}{2}-\frac{n}{2}\\ &=&\frac{n(n-1)}{2} \end{eqnarray*}

9. Soient $E$ un $K$-espace vectoriel de dimension fini, $\beta$ et $\beta'$ des base de $E$. Définir la matrice de passage de $\beta$ à $\beta'$ et donner le rapport avec l'application $\text{Id}_E$.

Définition :
Soient $E$ un $K$-espace vectoriel de dimension fini, $\beta$ et $\beta'$ des bases de $E$.
On appelle matrice de passage de $\beta$ à $\beta'$ la matrice noté $$P_{\beta \to \beta'} = \text{Mat}_{\beta}(\beta') = \begin{array}{c c} & \begin{array} {@{} c c c @{}} & \beta' & \end{array} \\ \begin{array}{c} \beta \end{array}\hspace{-1em} & \left( \begin{array}{@{} c c c @{}} & & \\ & & \end{array} \right) \\ \end{array}$$
lemme :
1. $P_{\beta\to\beta'} = [\text{Id}_E]_{\beta\beta'}$
2. $P_{\beta\to\beta'}$ est inversible et $(P_{\beta\to\beta'})^{-1} = P_{\beta'\to\beta}$

10. Formule de passage : Soient $E$ un $K$-espace vectoriel, $\beta$ et $\beta'$ des base de $E$. Soient $f\in\mathscr{L}(E)$, $x\in E$. On note $X = [x]_{\beta}$, $X' = [x]_{\beta'}$, $A = [f]_{\beta}$ et $A' = [f]_{\beta'}$. Donner les relations entre $X$ et $X'$, puis $A$ et $A'$ en fonction d'une matrice de passage que l'on précisera.

Théorème :
Soient $E$ un $K$-espace vectoriel de dimension finie égale à $n$, $\beta$ et $\beta'$ des base de $E$.
1. Soit $x\in E$
On pose $X = [x]_{\beta}$ et $X' = [x]_{beta'}$
Alors $X = P_{\beta\to\beta'}X'$
2. Soit $f\in\mathscr{L}(E)$, on note $P = P_{\beta\to\beta'}$, $1 = [f]_{\beta}$ et $A' = [f]_{\beta'}$
Alors $A' = P^{-1}AP$

11. Donner la définition de deux matrices semblables $A$ et $B$. Donner une interprétation en termes d'application linéaires et de bases.

Définition :
On dit que deux matrices $A$ et $B$ de $M_n(K)$ sont semblable lorsqu'il existe $P\in\text{GL}_n(K)$ tq $B = P^{-1}AP$

12. Donner la relation entre matrices semblables et équivalentes. Fournir un contre-exemple.

Théorème :
$(A\sim B)\Rightarrow (A\mathscr{E}_q B)$ mais $(A\mathscr{E}_q B) \nRightarrow (A\sim B)$
Contre exemple :
$A = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} = E_{2,1}$ et $B = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} = E_{1,1}$
$A\mathscr{E}_q B$ car $\text{rg}(A) = \text{rg}(B) = 1$
$A\not\sim B$ en effet $A^2 = 0$ mais $B^2 = B \neq 0$

13. SAVOIR REFAIRE : On suppose que $A\sim B$. Montrer que $\forall k\in \mathbb{N}, A^k\sim B^k$. Préciser

lemme :
Si $A\sim B$ i.e. $B=P^{-1}AP$ où $P\in\text{GL}_n(K)$
Alors $\forall k\in \mathbb{N}$, $A^k\sim B^k$ avec $B^k = P^{-1}A^kP$
Preuve :
Par récurrence sur $k\in\mathbb{N}$ 1. Initialisation : $B^0 = I_n$ et $P^{-1}A^0P = P^-1I_nP = I_n = B^0$
2. Héréditer : soit $k\in\mathbb{N}$ tel que $B^k = P^{-1}A^kP$ \begin{eqnarray*} B^{k+1} &=& B\times B^k\\ &=& (P^{-1}A^kP)\times(P^{-1}AP)\\ &=& P^{-1}A^k\times A P\\ &=& P^{-1}A^{k+1}P \end{eqnarray*} Ce qui achève la récurrence.

14. Définir la trace d'une matrice carré $A = (a_{ij})$.

Définition :
Soit $A\in M_n(K)$. On appele trace de $A$ la source de ses termes diagonaux.
Si $A = (a_{ij})$ alors $\text{tr}(A) = \sum_{i=1}^n a_{ii}$

15. SAVOIR REFAIRE : Énoncé et preuve des propriétés de la trace.

Théorème : Propriété
1.
$\begin{array}{lccll} T_r : & M_n(K) & \to & K & \text{ (forme linéaire)}\\ & A & \mapsto & \text{tr}(A) \end{array}$
i.e. $\text{tr}(A+B) = \text{tr}(A)+\text{tr}(B)$ et $\text{tr}(\lambda A) = \lambda\text{tr}(A)$
2. $\forall(A,B)\in M_n(K), \text{tr}(AB) = \text{tr}(BA)$
3. Si $A\sim B$, alors $\text{tr}(A) = \text{tr}(B)$
4. $\text{tr}({}^tA) = \text{tr}(A)$
Preuve :
On note $A = (a_{ij})$ et $B = (b_{ij})$
1. \begin{eqnarray*} \text{tr}(A+B) = \sum_{i=1}^n (a_{ii}+b{ii})\\ &=& \left( \sum_{i=1}^n a^{ii} \right) + \left( \sum_{i=1}^n b_{ii} \right)\\ &=& \text{tr}(A) + \text{tr}(B) \end{eqnarray*} \begin{eqnarray*} \text{tr}(\lambda A) &=& \sum_{i=1}^,\lambda a_{ii}\\ &=& \lambda \sum_{i=1}^n a_{ii}\\ &=& \lambda\text{tr}(A) \end{eqnarray*} 2. On note $AB = (C_{ij}) \rightarrow C_{ij} = \sum_{k=1}^n a_{ik}b_{kj}$ $$\text{tr}(AB) = \sum_{i=1}^n c_{ii} = \sum_{i=1}^n\sum_{k=1}^n a_{ik}b_{ki}$$ \begin{eqnarray*} \text{tr}(BA) &=& \sum_{k=1}^nd_{kk}\\ &=& \sum_{k=1}^n\sum_{p=1}^n b_{kp}a_{pk}\\ &=& \sum_{k=1}^n\sum_{i=1}^n a_{ik}b_{ki}\\ &=& \sum_{i=1}^n\sum_{k=1}^n a_{ik}b_{ki}\\ \text{tr}(AB) \end{eqnarray*} 3. On suppose $A\sim B$
D'où $P\in\text{GL}_n(K)$ tel que $B = P^{-1}AP$ \begin{eqnarray*} \text{tr}(B) &=& \text{tr}(P^{-1}AP)\\ &=& \text{tr}((AP)P^{-1})\\ &=& \text{tr}(A) \end{eqnarray*} 4. $A$ et ${}^tA$ on les même termes diagonaux donc la même trace.

16. Définir la trace d'un endomorphisme en dimension finie.

Définition :
Soient $E$ un $K$-espace vectoriel de dimension fini et $f\in \mathscr{L}(E)$
On appelle trace d'un de ses endomorphisme une quelconque base $\beta$ de $E$ $$\text{tr}(f) = \text{tr}\left( \left[ f \right]_{\beta} \right)$$

17. SAVOIR REFAIRE : Pour un projecteur en dimension finie, la trace est égale au rang.

Théorème :
Pour un projecteur en dimension fini, la trace est égale au rang.
Preuve :
Soit $E$ un $K-$espace vectoriel de dimension fini égale à $n\in\mathbb{N}^*$.
Soit $p\in\mathscr{L}(E)$ un projecteur i.e. $p\circ p = p$
Montrons que $\text{tr}(p) = \text{rg}(p)$
On note $r = \text{rg}(p) = \dim(\text{Im}(p))$ ($\star$)
D'après $p = P_{F,G}$ projection de $F$ parallèlement à $G$ où $F = \text{Im}(p)$ et $G = \ker(p)$.
On choisit une base $\beta$ adapté à $p$ pour calculer sa trace.
Or $E = F\oplus G$ et $\dim(F) = r$ selon ($\star$)
On choisit $\varepsilon_1,...,\varepsilon_r$ une base de $F$, $\varepsilon_{r+1},...,\varepsilon_{n}$ une base de $G$
Par recollement $\beta = (\varepsilon_1,...,\varepsilon_r,\varepsilon_{r+1,...,\varepsilon_n})$ est une base de $E$. $$[p]_{\beta} = \begin{array}{c c} & \begin{array} {@{} c c c c c c @{}} p(\varepsilon_1) & \cdots & p(\varepsilon_r) & p(\varepsilon_{r+1}) & \cdots & p(\varepsilon_n) \end{array} \\ \begin{array}{c} \varepsilon_1 \\ \vdots \\ \varepsilon_r \\ \varepsilon_{r+1} \\ \vdots \\ \varepsilon_n \end{array}\hspace{-1em} & \left( \begin{array}{@{} c c c c c c @{}} 1_K & 0 & 0 & 0 & 0 & 0 \\ 0 & 1_K & 0 & 0 & 0 & 0 \\ 0 & 0 & 1_K & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 \\ \hspace{0.9em} 0 \hspace{0.9em} & \hspace{0.9em} 0 \hspace{0.9em} & \hspace{0.9em} 0 \hspace{0.9em} & \hspace{0.9em} 0 \hspace{0.9em} & \hspace{0.9em} 0 \hspace{0.9em} & \hspace{0.9em} 0 \hspace{0.9em} \end{array} \right) \\ \end{array} = J_r$$ $p(\varepsilon_1) = \varepsilon_1,...,p(\varepsilon_r) = \varepsilon_r, p(\varepsilon_{r+1}) = 0,...,p(\varepsilon_n)=0$ car $\varepsilon_1,...,\varepsilon_r$ sont dans $\text{Im}(p) = F$
Ainsi $\text{tr}(p) = \underbrace{1_K + ... + 1_k}_{r\text{ fois}} = r = \text{rg}(p)$
Page précédente :
QC 19 : Matrices (I)
Page suivante :
QC 20 : OELC - Systèmes linéaires