$$ \DeclareMathOperator{\vect}{vect} \DeclareMathOperator{\Ima}{Im} \DeclareMathOperator{\card}{card} \DeclareMathOperator{\Mat}{Mat} \DeclareMathOperator{\GL}{GL} \DeclareMathOperator{\rg}{rg} \DeclareMathOperator{\tr}{tr} \DeclareMathOperator{\Id}{Id} \DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh} \DeclareMathOperator{\xhookrightarrow}{\raisebox{\depth}{\rotatebox{180}{\reflectbox{$\hookrightarrow$}}}} \renewcommand{\th}{\text{th}} \DeclareMathOperator{\argth}{argth} \DeclareMathOperator{\Arg}{Arg} \newcommand\Isom{\mathcal{I}\text{som}} \newcommand{\DL}[1]{développement limité à l'ordre $#1$ en zéro}$$
LMPrépa

Chapitre 22 : Les déterminants

Questions de cours

1. Donner la définition du déterminant d'une matrice carrée (avec la signature).

Définition :
Si $A\in M_n(K)$ ($n\in\mathbb{N}^*$, matrice carré) on définit son déterminant par $$\det(A) = \sum_{\sigma\in\sigma_n}\varepsilon(\sigma)a_{\sigma(1)1}\times...\times a_{\sigma(n)n}$$ où $A = (a_{ij})_{1\leq i,j\leq n}$

2. Comment le déterminant caractérise-t-il les matrices inversibles ?

Théorème : 1
$A\in M_n(K)$ est inversible ssi $\det(A)\neq 0$
Le déterminant détecte les matrices inversibles $$\det(A) = 0\Leftrightarrow A\text{ non inversible}$$

3. SAVOIR REFAIRE : multiplicativité du déterminant. Énoncer, puis donner et prouver les corollaires (on attend $\det(\lambda A)$ où $\lambda\in K$, déterminant de l'inverse et de deux matrices semblables).

Théorème : Multiplicativité du déterminant
Soient $A$ et $B$ dans $M_n(k)$
Alors $\det(A\times B) = (\det(A)\times (\det(B))$
Corollaire :
1. Si $\lambda\in K$ et $A\in M_n(K)$ alors $$\det(\lambda A) = \lambda^n \det(A)$$ 2. Si $A\in \GL_n(k)$, alors $\det(A)\neq0$ et $$\det(A^{-1}) = \frac{1}{\det(A)}$$ 3. Si $A\sim B$ (matrice semblable) alors $\det(A) = \det(B)$
i.e. le déterminant est un invarient de similitude.
Preuve :
1. \begin{eqnarray*} \det(\lambda A) &=& \det((\lambda I_n)\times A)\\ &=& \det(\lambda I_n)\times\det(A)\\ &=& \lambda^n \det(A) \end{eqnarray*} 2. Selon le théorème 1 $\det(A)\neq 0$, $A\times A^{-1} = I_n$
donc \begin{eqnarray*} \det(A\times A^{-1}) &=& \det(I_n)\\ \det(A)\times \det(A^{-1}) &=& 1\\ \det(A^{-1}) &=& \frac{1}{\det(A)} \end{eqnarray*} 3. Supposons que $A\sim B$
D'où un certain $P\in \GL_n(K)$ tq $B = P^{1}AP$
Donc \begin{eqnarray*} \det(B) &=& \det(P^{-1}AP)\\ &=& \det(P^{-1})\times\det(A)\times\det(P)\\ &=& \det(A) \hspace{20pt}\text{d'après le 2.} \end{eqnarray*}

4. Donner les règles de calcul élémentaires du déterminant (on attend : linéarité par rapport aux colonnes, permutations de colonnes, ajout d'une combinaison linéaire d'autres colonnes). A quoi peuvent servir ces règles en particulier ? (on attend : à faire apparaître un grand nombre de zéros avant de développer)

Théorème : 3
Soit $A\in M_n(K)$ ($n\in\mathbb{N}^*$)
Alors,
1. $\det(A)$ dépend linéairement de chaque colone de $A$.
En particulier : Zi $A = \begin{pmatrix} C_1 & | & \cdots & | & C_n \end{pmatrix}$
$\det\begin{pmatrix} \lambda C_1 & | & C_2 & | & \cdots & | & C_n \end{pmatrix} = \lambda \det\begin{pmatrix} C_1 & | & C_2 & | & \cdots & | & C_n \end{pmatrix}$
$\det\begin{pmatrix} C_1+C_1' & | & C_2 & | & \cdots & | & C_n \end{pmatrix} = \det\begin{pmatrix} C_1 & | & C_2 & | & \cdots & | & C_n \end{pmatrix} + \det\begin{pmatrix} C_1' & | & C_2 & | & \cdots & | & C_n \end{pmatrix}$
2. Si on permute les colones de $A$ par une permutation $\sigma\in\sigma_n$, alors $\det(A)$ est multiplié par sa signature $\varepsilon(\sigma)$
3. $\det(A)$ ne change pas si on ajoute à une colonne une combinaison linéaire des autres.
Ces régles servent à faire apparaître un grand nombre de zéro avant de développer.

5. Déterminant de la transposée. Énoncé et corollaire (on attend : les même règles de calcul sont valables sur les lignes)

Théorème :
Si $A\in M_n(K)$ alors $\det({}^tA) = \det(A)$
Corollaire :
Toutes les régles de calculs du théorème 3 sur les colonnes sont applicables aux lignes.

6. SAVOIR REFAIRE : Déterminant d'une matrice triangulaire supérieure et d'une matrice diagonale par blocs (Énoncé et preuve)

Théorème :
$$\det\begin{pmatrix} \lambda_1
& \ddots
0 & & \lambda_{n} \end{pmatrix} = +\lambda_1 \times ... \times \lambda_{n+1}$$
Preuve :
Récurrence sur $n\in\mathbb{N}^*$
Initialisation : $n=1$, $\det(\lambda_1) = \lambda_1$
Hérédité : \begin{eqnarray*} \det\begin{pmatrix} \lambda_1 \\ & \ddots \\ 0 & & \lambda_{n+1} \end{pmatrix} &=& +\lambda_1 \times \det\begin{pmatrix} \lambda_2 \\ & \ddots \\ 0 & & \lambda_{n+1}\\ &=& \lambda_1\end{pmatrix} \times ... \times \lambda_{n+1}\hspace{20pt}\text{par hypothése de récurrence} \end{eqnarray*}
Théorème :
Soit $M = \left(\begin{array}{c|c}A & C \\ \hline 0 & B\end{array}\right)$ où $A$, $B$, $C$ sont des blocs, $M$, $A$, $B$ sont carrés, $A$ et $B$ pas forcément de même taille
Preuve :
$A\in M_p(K)$ et $B\in M_q(K)$
On écrit $$M = \left( \begin{array}{c|c} I_p & C \\ \hline 0 & B \end{array} \right) \times \left( \begin{array}{c|c} A & 0 \\ \hline 0 & I_q \end{array} \right)$$ Multiplicativité du déterminant : $$\det(M) = \det\left( \begin{array}{c|c} I_p & C \\ \hline 0 & B \end{array} \right) \times \det\left( \begin{array}{c|c} A & 0 \\ \hline 0 & I_q \end{array} \right)$$ On développe par rapport à $C_1$ $$\det\left( \begin{array}{c|c} I_p & C \\ \hline 0 & B \end{array} \right) = \det\left( \begin{array}{c|c} I_{p-1} & \star \\ \hline 0 & B \end{array} \right)$$ On développe successivement par rapport à $C_2$, ..., $C_p$ $$\det\left( \begin{array}{c|c} I_p & C \\ \hline 0 & B \end{array} \right) = \det(B)$$ De même on développe par rapport à $C_{p+q}$, ...,$C_{p+1}$ $$\det\left( \begin{array}{c|c} A & 0 \\ \hline 0 & I_q \end{array} \right) = \det(A)$$

7. SAVOIR REFAIRE : Determinant tridiagonal. Calculer le déterminant de taille $n \geq 2$, pour $\theta \in \mathbb{R}$ $$\color{blue} D^n(\theta) = \begin{vmatrix} 2\cos(\theta) & 1 & & & 0 \\ 1 & \ddots & \ddots\\ & \ddots & \ddots & \ddots \\ & & \ddots & \ddots & 1 \\ 0& & & 1 & 2\cos(\theta) \end{vmatrix}$$

On développe par rapport à $C_1$ : $$D_n = +2\cos(\theta) D_{n-1} - 1 \times \begin{vmatrix} 1 & 0 & 0 & \cdots & 0 \\ 1 & 2\cos(\theta) & 1 & \ddots & \vdots \\ 0 & \ddots & \ddots & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \cdots & 0 & 1 & 2\cos(\theta) \end{vmatrix}$$ On développe par rapport à $L_1$ $$D_n = 2\cos(\theta)D_{n-1} - D_{n-2}$$ $\forall n\geq 2, D_n-2\cos(\theta)D_{n-1} + D_{n-2} = 0$ i.e. $\forall n\geq 1, D_{n+2} - 2\cos(\theta)D_{n+1} + D_n = 0$
On reconnait une suite récurrente linéaire d'ordre 2.
D'après le cours l'ensemble $\mathscr{S}$ des solutions de $(E)$ est un $\mathbb{R}-$plan vectoriel de $\mathscr{F}(\mathbb{N}^*,\mathbb{R})$.
On en cherche une base sous la forme $r^n$ où $r\in\mathbb{C}$.
$(u_n)\in\mathscr{S}$ ssi $r^2-2\cos(\theta) r + 1 = 0$ $(EC)$

$1^{\text{er}}$ cas : si $\theta\not\in \pi\mathbb{Z}$, alors $e^{i\theta}\in\mathbb{C}/\mathbb{R}$ donc $\Delta < 0$
Base de solution :
  • $\Re(e^{i\theta n}) = \cos(n\theta)$
  • $\Im(e^{i\theta n}) = \sin(n\theta)$
$$\mathscr{S} = \{\lambda \cos(n\theta) + \mu \sin(n\theta)/(\lambda;\mu)\in \mathbb{R}^2\}$$ Calcul de $D_n$ :
Condition initiales :
$\left\lbrace \begin{array}{cc} n=1 & D_1 = |2\cos(\theta)| = 2\cos(\theta) \\ n=2 & D_2 = \begin{vmatrix} 2\cos(\theta) & 1 \\ 1 & 2\cos(\theta) \end{vmatrix} = 4\cos^2(\theta)-1 \end{array} \right.$
D'où $\lambda$ et $\mu$ des réels tel que $D_n = \lambda\cos(n\theta)+\mu\sin(\theta n)$
$$(CI) \Leftrightarrow \left\lbrace\begin{array}{ccc} \lambda\cos(\theta) + \mu\sin(\theta) &=& 2\cos(\theta) \\ \lambda\cos(2\theta) + \mu\sin(2\theta) &=& 4\cos^2(\theta)-1 \end{array}\right.$$ Donc $\lambda = 2$ et $\mu = 0$

$2^{\text{nd}}$ cas : Si $\theta\in\pi\mathbb{Z}$, alors $\cos(\theta) = \pm 1$
Si $\cos(\theta) = 1$, $(\theta\in 2\pi\mathbb{Z})$
$(EC)$ : $r^2-2r+A = 0 \Leftrightarrow (r-1)^2 = 0$
Racine double : $r=1$
$$\mathscr{S} = \{(\lambda + \mu n)(1^n)/(\lambda;\mu)\in\mathbb{R}^2 \}$$ D'où $\lambda$ et $\mu$ réel tq
$\forall n\in\mathbb{N}$, $D_n = \lambda+\mu n$ $$(CI) \Leftrightarrow \left\lbrace\begin{array}{ccc} \lambda + \mu &=& 2\cos(\theta) = 2 \\ \lambda + 2\mu &=& 4\cos^2(\theta) - 1 = 3 \end{array}\right.$$ d'où $\lambda = 1$ et $\mu = 1$

2. Si $\cos(\theta) = -1$, racine double $r=-1$ $$\mathscr{S} = \{(\lambda+\mu n)(-1)^n /(\lambda;\mu)\in\mathbb{R}^2 \} $$

8. SAVOIR REFAIRE : Déterminant de Vandermonde. (savoir le reconnaître)

Soient $\lambda_1,...,\lambda_n$ dans $K$ ($n\in\mathbb{N}^*$)
On pose : $$V(\lambda_1,...,\lambda_n) = \begin{vmatrix} 1 & \lambda_1 & \lambda_1^2 & \cdots & \lambda_1^{n-1}
1 & \lambda_2 & \lambda_2^2 & \cdots & \lambda_2^{n-1}
\vdots
1 & \lambda_n & \lambda_n^2 & \cdots & \lambda_n^{n-1}\end{vmatrix}$$ 1. Montrer par récurrence sur $n\in \mathbb{N}^*$ que $V(\lambda_1,...,\lambda_n) = \prod_{1\leq i < j \leq n} (\lambda_j - \lambda_i)$.
En rajoutant à $C_n$ une combinaison linéaire des autres colonnes plus précisement en effectuant : $C_n \to C_N + a_0+C_1 + a_1C_2 + ... + a_{n-2}C_{n-1}$
Si on pose $P = a_0 + a_1X + ... + a_{n-2}X^{n-2} + X^{n-1}$
Alors $\displaystyle{} V(\lambda_1,...,\lambda_n) = \begin{vmatrix} 1 & \lambda_1 & \lambda_1^2 & \cdots & P(\lambda_1)
1 & \lambda_2 & \lambda_2^2 & \cdots & P(\lambda_2)
\vdots
1 & \lambda_n & \lambda_n^2 & \cdots & P(\lambda_n)\end{vmatrix}$
On peut choisir $a_0,...,a_{n-2}$ comme on le souhaite dans $K$. Donc on peut obtenir ainsi n'importe quel polynôme.
$P\in K[X]$ qui soit unitaire de degré (n-1).
On les choisit de sorte à faire apparaître des zéros dans $C_n$.
$P = (X-\lambda_1)(X-\lambda_2)...(X-\lambda_n)$
NB : C'est bien un polynôme unitaire de degré ($n-1$)
Ainsi $P(\lambda_1) = ... = P(\lambda_{n-1}) = 0$
Ainsi $\displaystyle{} V(\lambda_1,...,\lambda_n) = \begin{vmatrix} 1 & \lambda_1 & \lambda_1^2 & \cdots & 0
1 & \lambda_2 & \lambda_2^2 & \cdots & 0
\vdots
1 & \lambda_n & \lambda_n^2 & \cdots & P(\lambda_n)\end{vmatrix}$
On développe par rapport à $C_n$
\begin{eqnarray*} V(\lambda_1,...,\lambda_n) &=& P(\lambda_n) \wedge \begin{vmatrix} 1 & \lambda_1 & \cdots & \lambda_1^{n-2} \\ \vdots \\ 1 & \lambda_{n-1} & \cdots & \lambda_{n-1}^{n-2} \end{vmatrix}\\ &=& \prod_{k=1}^{n-1} (\lambda_n-\lambda_k)V(\lambda_1,...,\lambda_{n-1}) \end{eqnarray*} Par récurrence : \begin{eqnarray*} V(\lambda_1,...\lambda_n) &=& \underbrace{\prod_{k=1}^{n-1}(\lambda_n-\lambda_k)}_{\prod_{1\leq i \leq n}(\lambda_n)-\lambda_i} \times \underbrace{\prod_{k=1}^{n-2}(\lambda_{n-1}-\lambda_k)V(\lambda_1,...,\lambda_{n-2})}_{\prod_{1\leq i \leq n-1}(\lambda_{n-1}-\lambda_i)}\\ &=& ...\\ &=& \prod_{1\leq i < j \leq n} (\lambda_j-\lambda_i) \underbrace{V(\lambda_1)}_{=1} \end{eqnarray*} D'où la formule.

2. $V(\lambda_1,...,\lambda_n) = 0$ ssi des $\lambda_k$ sont égaux.
$V(\lambda_1,...,\lambda_n)\neq 0$ ssi les $\lambda_k$ sont tous différents.

9. Qu'est ce qu'une application $n-$linéaire ?

Définition :
Soient $E$ et $F$ des $K$-espace vectoriel de dimension quelconque. Soit $n\in \mathbb{N}^*$
$\begin{array}{lccl} f : & E^n & \to & F\\ & (\overrightarrow{x_1},...,\overrightarrow{x_n}) & \mapsto & f(\overrightarrow{x_1},...,\overrightarrow{x_n}) \end{array}$
est dite $n$-linéaire ssi elle est linéaire par rapport à chacune des variables $x_1,...,x_n$

On note $\mathscr{L}_n(E^n,F)$ leur ensemble

10. Qu'est ce qu'une forme $n-$linéaire alternée ? antisymétrique ? Comparer ces deux notions pour $K = \mathbb{Q}, \mathbb{R}$ ou $\mathbb{C}$.

Définition :
Soient $n\in\mathbb{N}^*$ et $E$ un $K$-espace vectoriel (quelconque). $\begin{array}{lccll} \text{Soit } f : & E^n & \to & K & \text{une forme }n\text{-linéaire}\\ & (x_1,...,x_n) & \mapsto & f(_1,...,x_n) \end{array}$
1. $f$ est dite alternée ssi $f(x_1,...,x_n) = 0$ dés que deux vecteurs $x_i$ et $x_j$ sont égaux.
2. $f$ est dite antisymétrique ssi $\forall \sigma \in \sigma_n$, $\forall (x_1,...,x_n)\in E^n$, $f(x_{\sigma(1)},...,x_{\sigma(n)}) = \varepsilon (\sigma) f(x_1,...,x_n)$

On note $\mathscr{A}ltn(E)$ l'ensemble des formes $n$-linéaires alternées de $E$.

Pour $K=\mathbb{Q}, \mathbb{R}$ ou $\mathbb{C}$, alors ces deux notions sont équivalentes.

11. Donner les propriétés des formes $n-$linéaires alternées sur un espace vectoriel quelconque.

Propriétés :
1. Elles sont antisymétriques
2. Si $x_1,...,x_n)$ est une famille liée de $E$ alors $f(x_1,...,x_n) = 0$

12. Que dire de l'ensemble des formes $n-$linéaires alternées sur un espace vectoriel de dimension finie ? (on attend : c'est un espace vectoriel de dimension 1).

Si $E$ est un $K$-espace vectoriel quelconque $\mathscr{A}ltn(E)$ est un sous-espace vectoriel de $\mathscr{F}(E^n,K)$. Si de plus $E$ est un $K$-espace vectoriel de dimension finie égale à $n$ alors $\mathscr{A}ltn(E)$ est de dimension 1 i.e. toutes les formes $n$-linéaires alternées sur $E^n$ sont proportionnelles.

13. Donner la définition du déterminant de $n$ vecteurs d'un espace vectoriel de dimension $n$ dans une base $\beta$. Que dire de la notation "$\det(x_1,...x_n)$", où $x_1,...,x_n$ désignent $n$ vecteurs d'un espace vectoriel de dimension $n$.

Définition :
Soient $E$ un $K$-espace vectoriel de dimension finie égale à $n$, $\beta$ une base de $E$, $\overrightarrow{u_1},...,\overrightarrow{u_n}$ des vecteurs de $E$.
On appelle déterminant de ces vecteurs dans la base $\beta$ le scalaire $$\det_{\beta}(\overrightarrow{u_1},...,\overrightarrow{u_n}) = \det(\Mat_{\beta}(\overrightarrow{u_1},...,\overrightarrow{u_n}))$$

14. Comment le déterminant permet-il de repérer les familles bases ?

Théorème : Reconnaissance des bases
Soient $E$ un $K-$espace vectoriel de dimension fini égale à $n$, $\beta$ une base de $E$
Soient $(\overrightarrow{u_1},...,\overrightarrow{u_n})$ une famille de vecteurs de $E$
Alors $(\overrightarrow{u_1},...,\overrightarrow{u_n})$ est une base de $E$ ssi $\det_{\beta}(\overrightarrow{u_1},...,\overrightarrow{u_n}) \neq 0$

15. Donner la formule de changement de base pour les déterminants.

Théorème : Changement de base de determinant
$$\det_{\beta'}(.) = \det_{\beta'}(\beta)\times \det_{\beta}(.)$$

16. Définir le déterminant d'un endomorphisme d'un espace vectoriel de dimension finie. Donner les propriétés essentielles.

Définition :
Soiet $E$ un $K-$espace vectoriel de dimension fini égale a $n$, $u\in\mathscr{L}(E)$
Si $\beta$ est une base quelconque de $E$, on définit le déterminant de l'endomorphisme $u$ par $$\det(u) = \det_{\beta}(u(e_1),...,u(e_n))$$ où $\beta = (e_1,...,e_n)$
Théorème :
1. Cette définition ne dépend pas de la base choisie.

2. Si $(x_1,...,x_n)$ est une famille de vecteurs de $E$ alors $$\det_{\beta}(u(x_1),...,u(x_n)) = \det_{u}\times\det_{\beta}(x_1,...,x_n)$$

17. Donner le lien précis entre le déterminant d'une matrice, celui d'une famille de vecteurs et celui d'un endomorphisme.

Théorème :
1. Si $A = (C_1|...|C_n)$, si $\beta_n$ désigne la abse cannonique de $M_n(K)$. Alors $\det(A) = \det_{\beta_n}(C_1|...|C_n)$
$A\rightarrow f_A\in\mathscr{L}(K^n)$ alors $\det(A) = \det(f_A)$

2. Soient $x_1,...,x_n$ des vecteurs d'un $K-$espace vectoriel $E$ de dimension fini égale à $n$ et $\beta$ une base de $E$.
Alors $$\det_{\beta}(x_1,...,x_n) = \det(\Mat_{\beta}(x_1,...,x_n))$$ 3. Soit $u\in\mathscr{L}(E)$ où $E$ est un $K-$espace vectoriel de dimension fini égale à $n$.
Soit $\beta = (e_1,...,e_n$ une base de $E$
Alors $$\det(u) = \det([u]_{\beta}) = \det_{\beta}(u(e_1),...,u(e_n)$$

18. Définir la comatrice d'une matrice carrée $A$, puis donner le lien entre sa transposée et $A$.

Définition :
Soit $A = [a_{ij}]\in M_n(K)$
Rappelons que le vofacteur $A_{ij}$ de $a_{ij}$ est le scalire $$A_{ij} = (-1)^{i+j}\det(M_{ij})$$ où $M_{ij}$ est la matrice de $M_{n-1}(K)$ obtenue en supprimant le $i^{\text{ème}}$ ligne de $A$ et la $j^{\text{ème}}$ colonnes.
On a alors $\displaystyle{} \det(A) = \sum_{k=1}^n a_{ik}A{ik}$ développement de $A$ par rapport à la $i^{\text{ème}}$ ligne, $\displaystyle{} \det(A) = \sum_{k=1}^n a_{kj}A_{kj}$ par rapport a la $j^{\text{ème}}$ colonne.
On appelle comatrice de $A$ la matrice $C\in M_n(K)$ définie par $C = [A_{ij}]_{1\leq i,j\leq n}$ c'est la matrice des cofacteurs.

On note $A^{\dagger}$ sa transposé. $$A^{\dagger} = {}^tC = [A_{ij}]\hspace{20pt} \text{"}A\text{ dague"}$$

19. Que signifie "orienter" un espace vectoriel de dimension finie ?

Définition :
On dit que le $\mathbb{R}-$espace vectoriel $E$ est orienté si on a choisit une base $\beta_0$ de $E$. Cette base est dite directe. Si $\beta$ estune autre base de $E$, on dit que :
  • $\beta$ est directe si $\det_{\beta_0}(\beta) > 0$
  • $\beta$ est indirecte si $\det_{\beta_0}(\beta) < 0$
Page précédente :
QC 21 : Le groupe symétrique
Page suivante :
QC 23 : Arcs paramétrés