$$ \DeclareMathOperator{\vect}{vect} \DeclareMathOperator{\Ima}{Im} \DeclareMathOperator{\card}{card} \DeclareMathOperator{\Mat}{Mat} \DeclareMathOperator{\GL}{GL} \DeclareMathOperator{\rg}{rg} \DeclareMathOperator{\tr}{tr} \DeclareMathOperator{\Id}{Id} \DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh} \DeclareMathOperator{\xhookrightarrow}{\raisebox{\depth}{\rotatebox{180}{\reflectbox{$\hookrightarrow$}}}} \renewcommand{\th}{\text{th}} \DeclareMathOperator{\argth}{argth} \DeclareMathOperator{\Arg}{Arg} \newcommand\Isom{\mathcal{I}\text{som}} \newcommand{\DL}[1]{développement limité à l'ordre $#1$ en zéro}$$
LMPrépa

Chapitre 19 : Matrices (I)

Questions de cours 1

Questions de cours 2

1. Donner la définition rigoureuse d'une matrice.

Définition :
Soient $K$ un corps commutatif, $p$ et $q$ dans $\mathbb{N}^*$
$\begin{array}{lccl} \text{On appelle matrice de taille }p\times q\text{ (ou }(p,q)\text{) une application : }& [\![ 1,p ]\!] \times [\![ 1,q ]\!] & \to & K\\ & (i;j) & \mapsto & a_{ij} \end{array}$
On note $M_{p,q}(K)$ leur ensemble.

2. Qu'est ce qu'une matrice diagonale, scalaire, triangulaire supérieure, inférieure ?

Définition :
- Matrice diagonale : tous les termes sont nuls sauf ceux de la diagonale.
- Matrice scalaire : matrice diagonale dont tous les termes diagonaux sont égaux.
- Matrice triangulaire supérieure : matrice carrée dont tous les termes sous la diagonales sont nuls.
- Matrice triangulaire inférieure : matrice carrée dont tous les termes au dessus de la diagonales sont nuls.

3. Matrice d'une famille de vecteur : soient $E$ un $K$-espace vectoriel de dimension finie égale à $n$, $\beta = (\varepsilon _1,...,\varepsilon_n)$ une base de $E$, et $(u_1,...,u_p)$ une famille de $p$ vecteurs de $E$. Définir $\text{Mat}_{\beta}(u_1,...up)$. Quelle est la taille de cette matrice ?

Définition :
Soient $E$ un $K$-espace vectoriel de dimension finie $n\in\mathbb{N}$, $\beta = (\varepsilon_1,...,\varepsilon_n)$ une base de $E$ et $u_1,...,u_q$ des vecteurs de $E$ ($q\in\mathbb{N}^*$)
On appelle matrice de ce vecteur dans la base $\beta$ la matrice notée $$\text{Mat}_{\beta}(u_1,...,u_q) = \begin{array}{c c} & \begin{array} {@{} c c c @{}} u_1 & \cdots & u_q \end{array} \\ \begin{array}{c} e_1 \\ \vdots \\ e_n \end{array}\hspace{-1em} & \left( \begin{array}{@{} c c c @{}} u_{11} & \cdots & u_{1q} \\ \vdots & & \vdots \\ u_{n1} & \cdots & u_{nq} \end{array} \right) \\ \end{array} $$ où, si $i\in [\![ 1, n ]\!]$ $$u_i = \sum_{k=1}^n a_{ki}\varepsilon_{i}$$

4. Matrice d'une application linéaire : soient $E$ un $K$-espace vectoriel de dimension finie $n$, $\beta = (\varepsilon _1,...,\varepsilon_n)$ une base de $E$, $F$ un $K$-espace vectoriel de dimension finie $n$, de base $\beta'(e_1,...,e_n)$. Soit $f\in\mathscr{L}(E,F)$. Définir $\text{Mat}_{\beta',\beta}$(f). Quelle est la taille de cette matrice ?

Définition :
Soient $E$ un $K$-espace vectoriel de dimension finie égale à $q$, $F$ un $K$-espace vectoriel de dimension finie égale à $p$, $f\in\mathscr{L}(E,F)$, $\beta = (e_1,...,e_q)$ une base de $E$ et $\beta' = (\varepsilon_1,...,\varepsilon_p)$ une base de $F$.
On appelle matrice de $f$ relativement aux bases $\beta$ et $\beta'$ la matrice noté $$\text{Mat}_{\beta'\beta}(f) = \text{Mat}_{\beta'}(f(e_1),...,f(e_q))$$ notée aussi $\left[ f \right]_{\beta'\beta} = \begin{array}{c c} & \begin{array} {@{} c c c @{}} f(e_1) & \cdots & f(e_q) \end{array} \\ \begin{array}{c} \varepsilon_1 \\ \vdots \\ \varepsilon_p \end{array}\hspace{-1em} & \left( \begin{array}{@{} c c c @{}} & \hspace{6em} & \\ & & \\ & & \end{array} \right) \\ \end{array}$

5. Quelle est la dimension du $K$-espace vectoriel $M_{p,q}(K)$ ?

Corollaire :
$M_{pq}(K)$ est de dimension finie et $\dim(M_{pq}(K)) = p\times q$

6. Produit matriciel : soient $A = [a_{ij}]\in M_{p,q}(K)$ et $B = [b_{ij}]\in M_{q,r}(K)$. On pose $C = AB = [c_{ij}]$. Quelle est la taille de C ? Exprimer les $c_{ij}$ en fonction des $a_{ij}$ et des $b_{ij}$.

Définition :
Soient $A = (a_{ij})\in M_{pq}(K)$ et $B = (b_{ij})\in M_{qr}(K)$
Alors, $C = A \times B = (c_{ij}) \in M_{pr}(K)$ telle que : $$c_{ij} = \sum_{k=1}^qa_{ik}b_{kj}$$

7. Soit $E$ un $K$-espace vectoriel de dimension finie $n$, de base $\beta$. Que signifie que $\psi : \mathscr{L}(E)\to M_n(K)$, définie par $\psi(f) = \text{Mat}_{\beta}(f)$ est un isomorphisme d'algèbre ?

Théorème :
Si $E$ est un $K$-espace vectoriel de dimension finie égale à $n$ et de base $\beta$
$\begin{array}{lccll}\psi : & (\mathscr{L}(E),+, \bullet, \circ) & \to & (M_n(K), +, \bullet , \times) & \text{ est un isomorphisme d'algèbre}\\ & f & \mapsto & \left[f\right]_{\beta} \end{array}$

8. Matrices élémentaires : donner une famille base de $M_n(K)$. Que vaut le produit des matrices $E_{ij}\times E_{kl}$ ?

Définition :
On appelle matrice élémentaire de $M_n(K)$ une matrice dont tous les termes sont nuls sauf un qui est égal à $1_K$
Théorème :
1. $\displaystyle{}(E_{ij})_{(i,j)\in [\![ 1,n]\!]^2}$ est une famille de $M_n(K)$
2. Produit : $\displaystyle{}E_{ij}\times E_{k\ell} = \left\lbrace \begin{array}{l}0 \text{ si } j\neq k\\ E_{i\ell} \text{ si }j = k \end{array}\right.$

9. SAVOIR REFAIRE : soit $A = \left[\begin{array}{ccc} 1 & 1 & 2\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array}\right]$. Calculer $A^n$ pour $n\in \mathbb{N}$

Exemple :
Soit $A = \begin{pmatrix} 1 & 1 & 2\\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\in M_3(\mathbb{R})$

On écrit $A = I_3 + N$ où $N = \begin{pmatrix} 0 & 1 & 2 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}$
$N^2 = 0$ (nilpotent)
$N^3 = N^2 \times N = 0$, $\forall k \geq 2, N^k = 0$
Soit $\displaystyle{}n\in \mathbb{N}, A^n = (N+I_3)^n = \sum_{k=0}^n \begin{pmatrix} n\\k\end{pmatrix}N^k \times I_3^{n-k}$
On utilise le binôme de Newton car $I_3$ et $N$ commutent.
$\displaystyle{}\forall k\in[\![0,n ]\!], I_3^{n-k} = I_3$ et $\forall k\geq 2, N^k = 0$
Donc $\displaystyle{} A^n = \sum_{k=0}^1 \begin{pmatrix} n\\k\end{pmatrix} N^k = \begin{pmatrix} n\\0\end{pmatrix} N^0 + \begin{pmatrix} n\\1\end{pmatrix} N = I_3 + nN$ $$A^n = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix} + n\begin{pmatrix} 0 & 1 & 2 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} = \begin{pmatrix} 1 & n & 2n \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} $$

10. Du géométrique au numérique : soient $E$ un $K$-espace vectoriel de dimension finie, de base $\beta_E$ et $F$ un $K$-espace vectoriel de dimension finie, de base $\beta_F$. Soient $f\in \mathscr{L}(E,F)$ et $x\in E$. Exprimer $[f(x)]_{\beta_F}$ en fonction des expressions matricielles de $f$ et $x$. (règle des fractions)

Théorème :
Soient $E$ un $K$-espace vectoriel de dimension finie égale à $q$ de base $\beta_E$, $F$ un $K$-espace vectoriel de dimension finie égale à $p$ de base $\beta_F$ et $f\in \mathscr{L}(E,F)$
Soit $x\in E$
On note $A = \left[f\right]_{\beta_F\beta_E}$, $U = \left[x\right]_{\beta_E}$ et $V = \left[f(x)\right]_{\beta_F}$
Alors $V = A\times U$ i.e. $\left[f(x)\right]_{\beta_F} = \left[f\right]_{\beta_F\beta_E} \times \left[x\right]_{\beta_E}$

11. SAVOIR REFAIRE : Du numérique au géométrique : déterminer les matrices $A\in M_n(K)$ telles que $\forall M\in M_n(K), AM=MA$.

Définition :
On appelle "centre" de $M_n(K)$ d'un groupe ou d'un anneau, l'ensemble des éléments qui commutent avec tous les autres.
On le note $\mathscr{C} = \{A\in M_n(K)/\forall M\in M_n(K), AM=MA\}$
Théorème :
Le centre de $M_n(K)$ est $\mathscr{C} = \{\lambda I_n / \lambda \in K\}$ l'ensemble des matrices scalaire.
Preuve :
On à déjà vu que les matrices scalaires commutent avec les autres.
Donc $\{\lambda I_n/ \lambda\in K\}\subset \mathscr{C}$

Réciproquement, soit $A\in\mathscr{C}$.
Montrons que $A$ est une matrice scalaire.
On pose $E = K^n$ de base $\beta_n$ (base canonique).
$A$ devient $f = f_A \in \mathscr{L}(E)$, l'unique endomorphisme de $K^n$ tq $[f]_{\beta_n} = A$
$A$ commute avec tous les autres matrices signifie exactement que $f$ commute avec tout endomorphisme $g\in\mathscr{L}(E)$ i.e. $\forall g\in \mathscr{L}(E), f\circ g = g\circ f$.
Montrons que $\exists \lambda\in K, A = \lambda I_n$ i.e. $\exists \lambda\in K, [f]_{\beta_n} = \lambda I_n = \lambda [\text{Id}_E]_{\beta_n} = [\lambda \text{Id}_E]_{\beta_n}$.
Montrons que $\exists \lambda\in K$ tq $f = \lambda \text{Id}_E$ i.e. $f$ est une homothétie.

D'après le Lemme de Schur : ismq $\forall x\in E, f(x) \in Kx$
Soit $x_0\in E$, mq $f(x_0 \in Kx_0)$
Soit $F$ un supplémentaire quelconque de $Kx_0$ dans $E$
On choisit pour $g$ la projection vectorielle $p$ (sur $F$ parallèle à $Kx_0$)
Mq $f(x_0)\in \ker(p)$
or $p[f(x_0)] = f[p(x_0)]$ car $f$ et $p$ commutent.
or $p(x_0) = 0$
Donc $p[f(x_0)] = f(0_E) = 0_E$ car $f$ est linéaire.
Donc $f(x_0)\in \ker(p) = Kx_0$.
D'après le Lemme de Schur, $f$ est une homothétie.

Conclusion : $A$ est une matrice scalaire.

12. Définir le rang d'une matrice $A\in M_{p,q}(K)$ et donner ses propriétés élémentaires.

Définition :
On appelle rang de $A$, le rang de la famille de vecteur $(C_1,...,C_q)$ dans le $K$-espace vectoriel $M_{p1}(K)$ $$\text{rg}(A) = \dim(\text{vect}\{ C_1,...,C_q \})$$ Propriété immédiate :
Si $A\in M_{pq}(K)$ alors $\text{rg}(A) \leq p$ et $\text{rg}(A) \leq q$

13. Même décor que la question 10. On note $A = \text{Mat}_{\beta_F,\beta_E}(f)$. A quelle condition sur $\text{rg}(A)$ l'application $f$ est-elle injective, surjective, bijective nulle ?

Corollaire :
Soient $E$ un $K$-espace vectoriel de dimension finie égale à $q$, $F$ un $K$-espace vectoriel de dimension finie égale à $p$ et $f\in\mathscr{L}(E,F)$
On note $A = \left[f\right]_{\beta'\beta}\in M_{pq}(K)$
Alors :
1. $f$ est injective ssi $\text{rg}(A) = q$
2. $f$ est surjective ssi $\text{rg}(A) = p$
3. $f$ est bijective ssi $\text{rg}(A) = p = q$
4. $f$ est nulle ssi $\text{rg}(A) = 0$

14. SAVOIR REFAIRE : caractériser les matrices de rang 1.

Théorème :
Soit $A\in M_{pq}(K)$
Alors $A$ est de rang 1 ssi $A = C\times L$ où $C\in M_{P1}(K)$ i.e. $C=$ colonne $\neq 0$ et où $L\in M_{1q}(K)$ i.e. $L=$ ligne $\neq 0$
Preuve :
Soient $C\in M_{p1}(K)$ ($C\neq 0$) et $L\in M_{1q}(K)$ ($L\neq 0$)
On note $C = \begin{pmatrix}u_1 \\ \vdots \\ u_p\end{pmatrix}$ et $L = \begin{pmatrix} \lambda_1 \cdots \lambda_q \end{pmatrix}$
Soit $A = C\times L$ montrons que $\text{rg}(A) = 1$ \begin{eqnarray*} C\times L &=& \begin{pmatrix}u_1 \\ \vdots \\ u_p\end{pmatrix} \times \begin{pmatrix} \lambda_1 \cdots \lambda_q \end{pmatrix}\\ &=& \begin{pmatrix} u_1\lambda_1 & u_1\lambda_2 & \cdots & u_1\lambda_q\\ u_2\lambda_1 & u_1\lambda_2 & \cdots & u_2\lambda_q\\ \vdots & \vdots & & \vdots\\ u_p\lambda_2 & u_p\lambda_2 & \cdots & u_p\lambda_q \end{pmatrix}\\ &=& \begin{pmatrix} \lambda_1 C | \lambda_2 C | \cdots | \lambda_q C\end{pmatrix} \end{eqnarray*} Donc les vecteurs colonnes de $A$ sont tous proportionnels à $C$.
Donc $\text{rg}(A) = 1$ (NB : $C\neq 0$, sinon $\text{rg}(A) = 0$)

Réciproquement, soit $A$ une matrice de rang 1 i.e. toutes les colonnes de $A$ sont proportionnelles.
Supposons que $C_1\neq 0$ où $A = \begin{pmatrix} C_1 | \cdots | C_q \end{pmatrix}$
D'où $\lambda_2,..., \lambda_q$ tq $\left\lbrace \begin{array}{lcl}C_2 &=& \lambda_2 C_1\\ \vdots \\ C_q &=& \lambda_qC_1 \end{array} \right.$
On pose alors $C = C_1 \neq 0$ (par hypothèse) et $L = (1, \lambda_2,..., \lambda_q)\neq 0$ (car $1\neq 0$)

Ainsi on a bien $C\times L = A$

15. Définir $\text{GL}_n(k)$.

Définition :
L'ensemble des matrices inversibles de $M_n(K)$ s'appelle le groupe linéaire de taille $n$.
On le note $\text{GL}_n(K)$

16. Donner le théorème de Cayley-Hamilton en dimension 2.

Théorème : de Cayley-Hamilton
Si $A\in M_2(K)$, on écrit $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, on définit alors :
- son déterminant $\det(A) = ad-cb$
- sa trace $\text{tr}(A) = a+d$
Alors $$A^2 - (\text{tr}(A)A) + \det(A)I_2 = 0$$

17. A quelle condition une matrice triangulaire supérieur est-elle inversible ?


Phénomène général :
Une matrice triangulaire supérieure est inversible ssi $\forall i\in [\![ 1 ; n ]\!], a_{ii}=0_k$
Page précédente :
QC 18 : Développements limités
Page suivante :
QC 19 : Matrices (II)