$$ \DeclareMathOperator{\vect}{vect} \DeclareMathOperator{\Ima}{Im} \DeclareMathOperator{\card}{card} \DeclareMathOperator{\Mat}{Mat} \DeclareMathOperator{\GL}{GL} \DeclareMathOperator{\rg}{rg} \DeclareMathOperator{\tr}{tr} \DeclareMathOperator{\Id}{Id} \DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh} \DeclareMathOperator{\xhookrightarrow}{\raisebox{\depth}{\rotatebox{180}{\reflectbox{$\hookrightarrow$}}}} \renewcommand{\th}{\text{th}} \DeclareMathOperator{\argth}{argth} \DeclareMathOperator{\Arg}{Arg} \newcommand\Isom{\mathcal{I}\text{som}} \newcommand{\DL}[1]{développement limité à l'ordre $#1$ en zéro}$$
LMPrépa

Chapitre 14 : Intégration

Questions de cours

1. Donner les primitives des fonctions suivantes : $\displaystyle{} t\mapsto te^{-t^2}, t\mapsto \frac{t^2}{1+t^2}, t\mapsto \frac{1}{t+t(\ln(t))^2}, t\mapsto \frac{\ln(t)}{t},
t\mapsto \frac{t}{(1+2t)^3}, t\mapsto \frac{1}{\sqrt{t}+t}, t\mapsto \frac{\sin(2t)}{1+\cos^2(t)}, t\mapsto \frac{\text{ch}(\tan(t))}{\cos^2(t)}, t\mapsto \frac{(\ln(t))^2}{t}, t\mapsto \frac{t}{\sqrt{1+t^2}}, t\mapsto \frac{\sin(t)}{(2+\cos(t)^4)},
t\mapsto \frac{\ln(\ln(t))}{t}$


1. $\displaystyle{}f(t) = te^{-t^2} = \frac{-2te^{-t^2}}{-2}$
Primitive : $\displaystyle{}F(t) = -\frac{1}{2} e^{-t^2} + k$

2. $\displaystyle{}f(t) = \frac{t^2}{1+t^2} = \frac{t^2+1-1}{1+t^2} = 1 - \frac{1}{1+t^2}$
Primitive : $\displaystyle{} F(t) = t-\arctan(t) + k$

3. $\displaystyle{}f(t) = \frac{1}{t+t(\ln(t))^2} = \frac{1}{t}\times \frac{1}{1 + (\ln(t))^2}$
Primitive : $\displaystyle{}F(t) = \arctan(\ln(t)) + k$

4. $\displaystyle{}f(t) = \frac{\ln(t)}{t}$
Primitive : $\displaystyle{}F(t) = \frac{1}{2}(\ln(t))^2$

5. $\displaystyle{}f(t) = \frac{t}{(1+2t)^2} = \frac{1}{2}\left( \frac{2t+1-1}{(1+2t)^3}\right) = \frac{1}{4}\left[ \frac{2}{(1+2t)^2}-\frac{2}{(1+2t)^3} \right]$
Primitive : $\displaystyle{}F(t) = \frac{1}{4}\left[ \frac{-1}{(1+2t)} + \frac{1}{2}\frac{1}{(1+2t)^2}\right]$ + k

6. $\displaystyle{}f(t) = \frac{1}{\sqrt{t} + t} = \frac{2}{2\sqrt{t}}\frac{1}{(1+\sqrt{t})}$
Primitive = $\displaystyle{}F(t) = 2\ln(1+\sqrt{t}) + k$

7. $\displaystyle{}f(t) = \frac{\sin(2t)}{1+\cos^2(t)} = \frac{2\sin(t)\cos(t)}{1+\cos^2(t)}$
Primitive : $\displaystyle{}F(t) = -\ln(1+\cos^2(t))+k$

8. $\displaystyle{}f(t) = \frac{ch(\tan(t))}{\cos^2(t)}$
Primitive : $\displaystyle{}sh(\tan(t))+k$

9. $\displaystyle{}f(t) = \frac{(\ln(t)^2}{t}$
Primitive : $\displaystyle{}F(t) = \frac{(\ln(t))^3}{3}+k$

10. $\displaystyle{}f(t) = \frac{t}{\sqrt{1+t^2}} = \frac{2t}{2\sqrt{1+t^2}}$
Primitive : $\displaystyle{}F(t) = \sqrt{1+t^2}+k$

11. $\displaystyle{}f(t) = \frac{\sin(t)}{(2+\cos(t))^4}$
Primitive : $\displaystyle{}F(t) = \frac{1}{3}\times \frac{1}{(2+\cos(t))^3}+k$

12. $\displaystyle{}f(t) = \frac{\ln(\ln(t))}{t}$
Primitive : $\displaystyle{}F(t) = (\ln(t))\ln(\ln(t))-\ln(t) + k$

2. Donner la définition d'une fonction en escaliers, d'une fonction continue par morceaux, et d'une fonction réglée sur un intervalle $[a,b]$ (où $a<b$).

Définition : fonction en escaliers
Soient $a<b$ dans $\mathbb{R}$
1. On appelle subdivision de $[a,b]$ un ensemble $s = \{x_0,...,x_n\}$ tel que $a = x_0<x_1<...<x_n = b$
2. Si $f\in \mathcal{F}([a,b];\mathbb{R})$ on dit que $f$ est en escalier sur $[a,b]$ ssi il existe une subdivision $s$ de $[a,b]$ telle que $\forall k\in [\![ 0,n-1]\!]$, $f$ est constante sur $]x_k,x_{k+1}[$.
On dit alors qu'une telle subdivision $s$ est adapté à $f$.
On note $\mathscr{E}([a,b], \mathbb{R})$ l'ensemble des fonctions en escalier sur $[a,b]$
Définition : fonction réglée sur $\lbrack a,b \rbrack$
On dit $f\in\mathcal{F}([a,b], \mathbb{R})$ est réglée lorsque :
Pour tout $\varepsilon >0$, il existe des fonctions $\varphi$, $\psi$ dans $\mathscr{E}([a,b],\mathbb{R})$ (en escalier) tq $\left\lbrace\begin{array}{cc} \varphi \le f \leq \psi \text{ sur }I\\ \psi - \varphi \leq \varepsilon\text{ sur }I \end{array}\right.$
Définition : fonctions continues par morceaux
On dit que $f : [a,b]\to \mathbb{R}$ est continue par morceaux sur $[a,b]$ (en abrège $C^0-PM$) lorsqu'il existe $a = x_0 < x_1 < ... < x_n = b$ (subdivision) et tq pour tout $k\in [\![ 0,n-1]\!]$, $f|_{]x_k;x_{k+1}[}$ (restriction) est continue et prolongeable par continuité en $x_k$ et en $x_{k+1}$

3. SAVOIR REFAIRE : soient $a<b$ dans $\mathbb{R}$. Montrer qu'une fonction $f$ continue sur $[a,b]$ est réglée (i.e. pour tout $\varepsilon > 0$, il existe des fonction $\varphi$ et $\psi$ en escaliers telles que $\varphi \leq f \leq \psi$ avec $0 \leq \psi - \varphi \leq \varepsilon$ uniformément sur $[a,b]$)


Soit $f : [a,b]\to \mathbb{R} $ une fonction continue.
Montrons que $f$ est réglée.

Soit $\varepsilon > 0$
Clef : $f$ est continue sur le segment $[a,b]$ donc d'après le théorème de HEINE, elle est uniformément continue i.e. $\forall \varepsilon > 0, \exists \delta > 0, \forall(x,y)\in [a,b]^2, |x-y|\leq \delta \Rightarrow |f(x)-f(y)|\leq \varepsilon$
d'où un certain $\delta$ tq $\forall \varepsilon > 0, \exists \delta > 0, \forall(x,y)\in [a,b]^2, |x-y|\leq \delta \Rightarrow |f(x)-f(y)|\leq \varepsilon$ soit satisfait.
On découpe $[a,b]$ en tranches $\leq \delta$ :
Soit $n\in \mathbb{N}^*$ tq $\displaystyle{}\frac{b-a}{n}\leq \delta$ (OK car $\displaystyle{}\frac{b-a}{n}\xrightarrow[x\rightarrow +\infty]{}0$)
On pose $\displaystyle{}x_k = a+k\frac{b-a}{n}$ ainsi $x_0=a < x_1 = a+\frac{b-a}{n}<...<x_n=a+\frac{n(b-a)}{n}=b$
$j=(x_0,...,x_n)$ est une subdivision de $[a,b]$ tq par construction $x_{k+1}-x_k = \frac{(b-a)}{n}$
On définit $\psi : [a,b]\to \mathbb{R}$ tq sur $[x_k,x_{k+1}[$, $\psi$ est constante égale au $\underset{[x_k,x_{k+1}]}\max(f) = f(\alpha k)$ où $\alpha k \in [x_k,x_{k+1}]$ et on pose $\psi(b) = \psi(x_n-1)$
Ainsi $\psi$ est en escalier et $f\leq \psi$ sur $[a,b]$
De même on définit $\varphi : [a,b]\to \mathbb{R}$ tq $\varphi$ est constante sur $[x_k,x_{k+1}[$ égale au $\underset{[x_k,x_{k+1}]}\min(f) = f(\beta k)$ tq $\beta k\in [x_k,x_{k+1}]$ et on pose $\varphi(b) = \varphi(x_n-1)$
Ainsi $\varphi$ est en escalier et $\varphi \leq f$ sur $[a,b]$
Enfin d'après $\forall \varepsilon > 0, \exists \delta > 0, \forall(x,y)\in [a,b]^2, |x-y|\leq \delta \Rightarrow |f(x)-f(y)|\leq \varepsilon$, si $x\in[a,b]$ alors il existe $k\in [\![ 0,n-1]\!]$ tq $x\in [x_k,x_{k+1}[$
Donc $|\psi(x)-\varphi(x)| = |f(\alpha k)-f(\beta k)|$
Or $\alpha k$ et $\beta k$ sont dans $[x_k,x_{k+1}[$
Donc $|\alpha k - \beta k|\leq \delta$. Donc d'après $\forall \varepsilon > 0, \exists \delta > 0, \forall(x,y)\in [a,b]^2, |x-y|\leq \delta \Rightarrow |f(x)-f(y)|\leq \varepsilon$ $|f(\alpha k)-f(\beta k)|\leq \varepsilon$ i.e. $|\varphi(x)-\psi(x)|\leq \varepsilon$

Bilan : Pour tout $\varepsilon >0$, on a construit $\varphi$ et $\psi$ en escalier tq $\left\lbrace \begin{array}{l}\varphi \leq f \leq \psi\\ |\psi - \varphi|\leq \varepsilon \end{array} \right.$
Conclusion : $f$ est une fonction réglée sur $[a;b]$

4. Donner la définition d'une fonction Riemann-intégrable.

Définition :
Soit $f : [a,b]\to\mathbb{R}$ une fonction quelconque. On définit les ensembles suivants :
$\displaystyle{}\mathscr{E}_-(f)=\{\varphi\in \mathscr{E}([a,b],\mathbb{R})/\varphi\leq f \text{ sur }[a,b]\}$
$\displaystyle{}\mathscr{E}_+(f)=\{\psi\in \mathscr{E}([a,b],\mathbb{R})/f\leq \psi \text{ sur }[a,b]\}$
$\displaystyle{}\mathscr{I}_-(f) = \{\int_a^b\varphi/\varphi\in \mathscr{E}_-(f)\}$
$\displaystyle{}\mathscr{I}_+(f) = \{\int_a^b\psi/\psi\in \mathscr{E}_+(f)\}$
On dit que $f : [a,b]\to \mathbb{R}$ est (Riemann) intégrable sur $[a,b]$ lorsque $f$ est bornée, lorsque $\sup(\mathscr{I}_-(f)) = \inf(\mathscr{I}_+(f))$
Si c'est le cas, on définit alors l'intégrale de Riemann de $f$ sur $[a,b]$ : $$\int_a^b f = \sup(\mathscr{I}_-(f)) = \inf(\mathscr{I}_+(f))$$

5. Donner les 4 propriétés fondamentales de l'intégrales. Si $f$ est Riemann intégrable, donner une estimation grossière de $\displaystyle{}\int_a^bf(t)dt$.

Théorème :
Soient $a<b$, $f$ et $g$ des fonction (Riemann) intégrable sur $[a,b]$.
Alors :
1. Linéarité : $\forall(\lambda, \mu)\in \mathbb{R}^2, \lambda f+\mu g$ est aussi intégrable et $\displaystyle{}\int_a^b (\lambda f+\mu g) = \lambda\int_a^b f+\mu \int_a^b g$
2. Positivité/croissante :
Si $f\geq 0$ sur $[a,b]$, alors $\displaystyle{} \int_a^b f \geq 0$
Si $f\leq g$ sur $[a,b]$, alors $\displaystyle{} \int_a^b f \leq \int_a^b g$
3. Inégalité triangulaire : $\displaystyle{}\left|\int_a^b f\right| \leq \int_a^b |f|$
4. Chasles : Si $c\in ]a,b[$ alors $f|_{[a,c]}$ et $f|_{[c;b]}$ (restrictions) sont intégrables et $\displaystyle{}\int_a^b f = \int_a^c f + \int_c^b f$
Corollaire : Estimation grossière
Si $f$ est intégrable sur $[a,b]$ alors $f$ est bornée et $\displaystyle{}\int_a^b|f|\leq ||f||_{\infty}(b-a)$

6. SAVOIR REFAIRE : Si $f$ est continue est positive et si $\displaystyle{}\int_a^b f = 0$, alors $f = 0$ sur $[a,b]$

Théorème :
Si $f$ est continue et positive sur $[a,b]$
Alors $\displaystyle{} \left(\int_a^b f=0 \right)\Rightarrow (f\text{ est nulle sur }[a,b])$
Preuve :
Soit $f$ positive sur $[a,b]$
On suppose que $f$ n'est pas nulle sur $[a,b]$ i.e. $\exists x_0 \in [a,b], f(x_0) > 0$
Montrons que $\displaystyle{}\int_a^b f \neq 0$
Continuité en $x_0, \forall \varepsilon > 0, \exists \delta > 0, \forall x\in [a,b], |x-x_0|\leq \delta \Rightarrow |f(x)-f(x_0)| \leq \varepsilon$
On choisit $\displaystyle{} \varepsilon = \frac{f(x_0)}{2}>0$
D'où un certains $\delta > 0$ tq $\forall x\in [a,b]$, si $|x-x_0\leq \delta|$ alors $f(x_0) - \varepsilon \leq f(x)$ et donc $\displaystyle{}f(x) \geq \frac{f(x_0)}{2}$
D'après Chasles : $\displaystyle{} \int_a^b f = \underbrace{\int_a^{x_0-\delta}f}_{\geq 0} + \int_{x_0-\delta}^{x_0+\delta}f + \underbrace{\int_{x_0+\delta}^b f}_{\geq 0}$ par positivité de l'intégrale
($f\geq 0$ par hypothése)
Donc $\displaystyle{}\int_a^b f \geq \int_{x_0-\delta}^{x_0+\delta}f$
Or $\displaystyle{}\forall t\in [x_0-\delta;x_0+\delta], f(t)\geq \frac{f(x_0)}{2}$
On intègre cette inégalité $$\int_{x_0-\delta}^{x_0+\delta}f\geq \int_{x_0-\delta}^{x_0+\delta}\frac{f(x_0)}{2}dt = 2\delta \times \frac{f(x_0)}{2} = \underbrace{\delta f(x_0)}_{>0}$$ Ainsi $\displaystyle{}\int_a^b f > 0$ (donc non nul). D'où le résultat.

7. SAVOIR REFAIRE : énoncer et prouver l'inégalité de Cauchy-Schwarz pour les intégrales.

Théorème : inégalité de Cauchy-Schwarz
Soient $f$ et $g$ des fonctions Riemann intébrable sur $[a,b]$
Alors $$\left| \int_a^bf(t)g(t)dt \right| \leq \sqrt{\int_a^b f(t)^2dt}\times\sqrt{\int_a^bg(t)^2dt}$$
Preuve :
On introduit un paramètre $\lambda \in \mathbb{R}$
J'envisage $\displaystyle{}p(\lambda) = \int_a^b \underbrace{(\lambda f(t)+g(t))^2}_{\geq 0}dt$
Par positivité de l'intégrale : $\forall \lambda \in \mathbb{R}, p(\lambda) \geq 0$
On développe le carré $$\forall\lambda \in \mathbb{R}, p(\lambda) = \int_a^b \lambda^2f(t)^2 + 2\lambda f(t)g(t)+\int_a^bg(t)^2dt$$ Par linéarité : $$\forall \lambda\in \mathbb{R}, p(\lambda) = \lambda^2\left( \int_a^b f^2 \right) + 2\lambda \left( \int_a^b fg \right) + \left( g^2 \right)$$ En tant que fonction de la variable $\lambda$, $p$ est un polynôme de degrés inférieur ou égale à deux.

$1^{\text{er}}$ cas : si $\displaystyle{} \int_a^b f^2 = 0$, alors $p$ est un polynôme de degrés inférieur ou égal à un i.e. une fonction affine, qui est positive sur $\mathbb{R}$ tout entier.
$p$ est donc une constante.

(EXO : Si $p : \lambda \mapsto A\lambda + B$ examiner les limites en $\pm \infty$, pour prouver que $A=à$)

Donc $\displaystyle{} \int_a^b fg = 0$
Ainsi $\displaystyle{} \int_a^b fg = 0$ et $\displaystyle{} f^2 = 0$, donc l'inégalité revient à prouver que $0\leq 0$

$2^{\text{nd}}$ cas : si $\int_a^b f^2\neq 0$, donc $d^0P = 2$
$P(\lambda) = A\lambda^2 + B\lambda^2 + C$ avec $A\geq 0$ et $P\geq 0$ sur $\mathbb{R}$
Donc son discriminant $\Delta$ est $\leq 0$
Or ici $\displaystyle{}\Delta = B^2-4AC = 4\left( \int_a^b fg \right)^2 - 4\left(\int_a^b f^2\right)\times \left( \int_a^b g^2\right) \leq 0$
$\sqrt{\bullet}$ et croissante sur $\mathbb{R}_+$, donc $$\left| \int_a^bf(t)g(t)dt \right| \leq \sqrt{\int_a^b f(t)^2dt}\times\sqrt{\int_a^bg(t)^2dt}$$

8. SAVOIR REFAIRE : Intégrale et primitive. Soit $f$ une fonction Riemann-intégrable sur $[a,b]$. On pose pour $x\in \mathbb{R}$, $\displaystyle{}F(x) = \int_a^xf(t)dt$. Que dire de $F$ en général ? Que dire de plus si $f$ est continue ? Faire la preuve.

Théorème : fondamentale de l'analyse
On suppose que que $f$ est Riemann intégrable sur $[a,b]$. Alors :
1. $F$ est lipschitzienne sur $[a,b]$
2. Si $f$ est continue sur $[a,b]$, alors $F$ est de classe $C^1$ sur $[a,b]$ et $F'=f$
Plus précisément $F$ est la primitive de $f$ qui s'annule en $x_0$ (i.e. $F(x_0) = 0$)
Preuve :
$\displaystyle{}F(x) = \int_{x_0}^x f(t)dt$
1. Hypothèse : $f$ est intégrable (donc bornée)
Montrons que $F$ est lipschitzienne sur $[a,b]$
On se donne $x$ et $y$ dans $[a,b]$ \begin{eqnarray*} F(x)-F(y) &=& \int_ {x_0}^xf(t)dt - \int_{x_0}^yf(t)dt\\ &=& \int_ {x_0}^xf(t)dt + \int_{y}^{x_0}f(t)dt\\ &=& \int_y^x f(t)dt \end{eqnarray*} \begin{eqnarray*} |F(x)-F(y)| = \left| \int_y^x f \right| &\leq & \left| \int_y^x |f| \right|\\ &\leq & \left| \int_y^x ||f||_{\infty} \right| = ||f||_{\infty} |x-y| \end{eqnarray*} Ainsi $F$ est $||f||_{\infty}$-lipschitzienne sur $[a,b]$

2. Supposons de plus que $f$ est continue.
Montrons que $F$ est $C^1$ sur $[a,b]$ et $F'=f$
Soit $\omega\in[a,b]$. Montrons que $F$ est dérivable en $\omega$ et que $F'(\omega) = f(\omega)$
On pose pour $h$ suffisamment proche de zero. $$\tau_{\omega}(h) = \frac{F(\omega+h)-F(\omega)}{h}$$ Montrons que $\displaystyle{}\tau_{\omega}(h)\xrightarrow[h\rightarrow \dot 0]{} f(\omega)$
D'après le 1., $\displaystyle{}\tau_{\omega}(h) = \frac{1}{h}\int_{\omega}^{\omega+h}f(t)dt$
$\displaystyle{} f(\omega) = \frac{1}{h}\int_{\omega}^{\omega+h}f(\omega)dt$
Ainsi \begin{eqnarray*} \tau_{\omega}(h) - f(\omega) &=& \frac{1}{h}\int_{\omega}^{\omega+h} f(t)dt - \frac{1}{h}\int_{\omega}^{\omega+h} f(\omega)dt\\ &=& \frac{1}{h} \int_{\omega}^{\omega+h}\left[ f(t)-f(\omega) \right]dt \end{eqnarray*} Soit $\varepsilon >0$, $f$ est continue en $\omega$, d'où un certain $\delta > 0$ tq $\forall t\in [\omega - \delta;\omega + \delta], |f(t)-f(\omega)|\leq \varepsilon$
On suppose que $|h|\leq \delta$
Alors $\forall t\in [\omega;\omega +h], |f(t)-f(\omega)|\leq \varepsilon$, donc $\displaystyle{}|\tau_{\omega}|(h) - f(\omega)\leq \frac{1}{|h|}\left| \int_{\omega}^{\omega+h} |f(t)-f(\omega)|dt \right|$
donc $\displaystyle{}|\tau_{\omega}(h) - f(\omega)| \leq \frac{1}{|h|}\varepsilon \left| \underbrace{\int_{\omega}^{\omega + h}1dt}_{=h} \right|$
Bilan : $\forall \varepsilon>0, \exists \delta >0, \forall h\in \mathbb{R}, (|h|\leq\delta)\Rightarrow(|\tau_{\omega}(h)-f(\omega)|)\leq \varepsilon$ i.e. $\tau_{\omega}(h)\xrightarrow[h\rightarrow \dot 0]{}f(\omega)$
Ainsi $F$ est dérivable en $\omega$ et $F'(\omega) = f(\omega)$
Ainsi $F\in \Delta^1([a,b], \mathbb{R})$ et $F'=f$
Or $f$ est continue, donc $F'$ est continue.
Donc $F$ est dans $C^1$

9. Primitives usuelles

$$ \begin{array}{|c|c|c|} \hline \text{Fonctions } f & \text{Primitives } F, k \in \mathbb{R} & \text{Intervalle de définition }I\\ \hline x^n (n\in\mathbb{Z}\backslash\{-1\})& \frac{x^{n+1}}{n+1} +k &\text{si } n \geq 0 : \mathbb{R}\text{, si }n \leq -2 : \mathbb{R}^*\\ \hline \frac{1}{x} & \ln(|x|) + k & \mathbb{R^*}\\ \hline x^{\alpha} (\alpha \neq -1)& \frac{x^{\alpha +1}}{\alpha+1} + k & \mathbb{R}_+^*\\ \hline e^x & e^x + k & \mathbb{R}\\ \hline \sin(x) & -\cos(x) + k & \mathbb{R}\\ \hline \cos(x) & \sin(x) + k & \mathbb{R}\\ \hline \tan(x) & -\ln(|\cos(x)|)+k & \mathbb{R}\backslash \{ \frac{\pi}{2} + \pi\mathbb{Z} \}\\ \hline \frac{1}{\cos^2(x)} \text{ ou } 1 + \tan^2(x) & \tan(x) + k & \mathbb{R}\backslash \{ \frac{\pi}{2} + \pi\mathbb{Z} \}\\ \hline \frac{1}{\sin^2(x)} & -\frac{\cos(x)}{\sin(x)} + k & \mathbb{R}\backslash \pi\mathbb{Z}\\ \hline sh(x) & ch(x) + k & \mathbb{R}\\ \hline ch(x) & sh(x) + k & \mathbb{R}\\ \hline th(x) & \ln(ch(x)) + k & \mathbb{R}\\ \hline \frac{1}{ch^2(x)} \text{ ou }1 - th^2(x) & th(x) + k & \mathbb{R}\\ \hline \frac{1}{sh^2(x)} & -\frac{ch(x)}{sh(x)} + k & \mathbb{R}^*\\ \hline \ln(x) & x\ln(x) - x + k & \mathbb{R}_+^*\\ \hline \frac{1}{1+x^2} & Arctan(x) + k & \mathbb{R}\\ \hline \frac{1}{1-x^2} & \frac{1}{2}\ln\left(\left|\frac{1+x}{1-x}\right|\right) + k & \mathbb{R}\backslash \{-1 ; 1\}\\ \hline \frac{1}{\sqrt{1-x^2}} & Arcsin(x) + k \text{ ou } -Arccos(x) + k & ]-1 ; 1[\\ \hline \frac{1}{\sqrt{1+x^2}} & \ln(x+\sqrt{1+x^2}) + k & \mathbb{R}\\ \hline \frac{1}{\sqrt{x^2-1}} & \ln(|x+\sqrt{x^2-1}|) + k & ]-\infty ; -1[\cup]1;+\infty[\\ \hline \frac{1}{\sqrt{x^2+h}} & \ln(|x+\sqrt{x^2+h}|) + k & \text{ selon h}\\ \hline \frac{1}{ax+b} & \frac{1}{a}\ln(|ax+b|) & \rr\backslash \left\lbrace \frac{-b}{a} \right\rbrace \hline (ax+b)^n (a\neq 0) & \frac{1}{a} \frac{(ax+b)^{n+1}}{n+1} + k & \mathbb{R} \backslash \left\lbrace \frac{-b}{a} \right\rbrace\\ \hline \end{array} $$ $$ \begin{array}{|c|c|} \hline \text{Fonctions } f & \text{Primitives } F, k \in \mathbb{R}\\ \hline u' \times u^n & \frac{u^{n+1}}{n+1} + k\\ \hline \frac{-u'}{u^2} & \frac{1}{u} + k\\ \hline \frac{u'}{2\sqrt{u}} & \sqrt{u} + k\\ \hline \frac{u'}{u} & \ln(|u|) + k\\ \hline u'e^u & e^u + k\\ \hline u' \sin(u) & -\cos(u) + k\\ \hline u'\cos(u) & \sin(u) + k\\ \hline \frac{u'}{\cos^2(u)}\text{ ou } u'(1+\tan(u)) & \tan(u) + k\\ \hline u' sh(x) & ch(u) + k \\ \hline u'ch(x) & sh(u) + k\\ \hline \frac{u'}{1+u^2} & arctan(u) + k\\ \hline \frac{u'}{\sqrt{1-u^2}} & arcsin(u) + k\\ \hline \frac{u'}{ch^2(u)} \text{ ou } u'(1 - th^2(u)) & th(u) + k\\ \hline \end{array} $$

10.SAVOIR REFAIRE : énoncer et prouver le théorème de changement de variable pour les intégrales

Théorème :
Soit $f : I\to \mathbb{R}$ une fonction continue (où $I$ est un intervalle ouvert de $\mathbb{R}$ non vide).
$\varphi : J\to \mathbb{R}$ de classe $C^1$ tq $\varphi(J)\subset I$
Alors, pour $\alpha$, $\beta$ dans $J$ on a $$\int_{\alpha}^{\beta}f(\varphi(x))\varphi'(x)dx = \int_{\varphi(\alpha)}^{\varphi(\beta)}f(x)dx$$
Preuve :
Soit $F$ une primitive de $f$ sur $I$.
Je pose $G = F\circ \varphi$, ainsi $G$ est de classe $C^1$, et si $t\in I$ alors $G'(t) = F'(\varphi(t))\varphi'(t) = f\left[ \varphi(t) \right]\times \varphi(t)$
Donc \begin{eqnarray*} \int_{\alpha}^{\beta} f(\varphi(t))\varphi'(t)dt &=& \int_{\alpha}^{\beta} G'(t)dt\\ &=& \left[G(t)\right]_{\alpha}^{\beta}\\ &=& F[\varphi(\beta)] - F[\varphi(\alpha)] \end{eqnarray*} On choisit $\displaystyle{}F(y) = \int_{\varphi(\alpha)}^{y}f(t)dt$
Ainsi $\displaystyle{}F[\varphi(\beta)]-F[\varphi(\alpha)] = \int_{\varphi(\alpha)}^{\varphi(\beta)}f(t)dt$

11. Intégrale et parité (énoncé et preuve). Que dire de l'intégrale d'une fonction paire ? impaire ?

Corollaire : parité
Soit $f : \mathbb{R} \to \mathbb{R}$ continue et $a\in \mathbb{R}$
Alors :
1. Si $f$ est paire $\displaystyle{}\int_{-a}^a f = 2\int_{0}^af$
2. Si $f$ est impaire $\displaystyle{}\int_{-a}^a f = 0$
Preuve :
On effectue le changement de variable $t = -x$, "$dt = -dx$"
Soit $\displaystyle{} I = \int_{-a}^a f(x)dx = \int_{a}^{-a}f(-t)(-dt) = \int_{-a}^a f(-t)dt$

Si $f$ est impaire alors $\forall t \in \mathbb{R}, f(-t) = -f(t)$
Donc $\displaystyle{}I = \int_{-a}^a -f(t)dt = -I$ i.e. $2I : 0$ donc $I = 0$

Si $f$ est paire, alors $\forall t\in\mathbb{R}, f(-t) = f(t)$
Chasles : $\displaystyle{} \int_{-a}^af = \int_{-a}^0 f + \int_{0}^a f$
Donc il suffit de montrer que $\displaystyle{}\int_{-a}^0 f = \int_{0}^a f$ Or \begin{eqnarray*} \int_{-a}^0 f &=& \int_a^0 f(-x)(-dx)\\ &=& \int_0^a f(-x)dx\\ &=& \int_0^a f(x)dx \end{eqnarray*} D'où le résultat.

12. Intégrale et périodicité (énoncé et preuve).

Corollaire : périodicité
Soit $f : \mathbb{R}\to \mathbb{R}$ continue et $T$-périodique (où $T\in\mathbb{R}^*$)
Alors, $\forall a \in \mathbb{R}, \int_a^{a+T} = \int_0^T f$
Preuve :
Chasles : $\displaystyle{}\int_a^{a+T} =\underbrace{ \int_a^0 f + \int_T^{a+T} f}_{\text{se neutralise}} + \int_0^T f$
On pose $x = t+T$, "$dx=dt$" $$\int_T^{a+T}f(x)dx = \int_0^a \underbrace{f(t+T)}_{=f(t) \text{ car }f\text{ est }T-\text{périodique}}dt = \int_0^a f$$

13. SAVOIR REFAIRE : intégration par parties énoncé et preuve.

Théorème :
Soient $u$ et $v$ de classe $C^1$ de $[a,b]$ dans $\mathbb{R}$
Alors $\displaystyle{}\int_a^bu'v = [uv]_a^b - \int_a^b uv'$
Preuve :
\begin{eqnarray*} \int_a^bu'v + \int_a^buv' &=& \int_a^b u'v+uv'\\ &=& \int_a^b(uv)'\\ &=& [uv]_a^b \end{eqnarray*}

14. SAVOIR REFAIRE : énoncer et prouvé le théorème de Riemann-Lebesgue pour les fonction de classe $C^1$

Théorème : de Riemann-Lebesgue
Soit $f\in C^1([a,b],\mathbb{R})$, $\forall n\in \mathbb{N}$, on pose $\displaystyle{I_n = \int_a^b e^{int}f(t)dt}$
Alors $I_n\xrightarrow[n\rightarrow+\infty]{}0$
Preuve :
$$I_n = \int_a^b e^{int}f(t)dt = \underbrace{\left[ \frac{1}{in}e^{int}f(t) \right]_a^b}_{\text{noté }\alpha_n} - \underbrace{\int_a^b \frac{1}{in}e^{int}f'(t)dt}_{\text{noté }\beta_n}$$ $$\alpha_n = \frac{1}{in}\left[ e^{in b}f(b)-e^{ina}f(a) \right]$$ $\displaystyle{}|\alpha_n|\leq \frac{1}{|in|}(|e^{inb}f(b)|+|e^{ina}f(a)|)$ par inégalité triangulaire
Or $\forall \theta\in\mathbb{R}, |e^{i\theta}| = 1$
Donc $\displaystyle{}|\alpha_n|\leq \frac{1}{n}(|f(b)|+|f(a)|)$, donc par encadrement $\alpha_n\xrightarrow[n\rightarrow+\infty]{}0$
Par ailleur $\displaystyle{}|\beta_n| = \left| \frac{1}{in}\int_a^b e^{int}f'(t)dt \right| \leq \frac{1}{n}\int_a^b |e^{int}f'(t)|dt$
Donc $\displaystyle{} 0\leq \beta_n \leq \frac{1}{n}\int_a^b |f'|\xrightarrow[n\rightarrow+\infty]{}0$
Donc par encadrement $\beta_n\xrightarrow[n\rightarrow+\infty]{}0$
Conclusion $I_n\xrightarrow[n\rightarrow+\infty]{}0$

15. Énoncer le théorème sur les somme de Riemann sur $[0,1]$, puis sur $[a,b]$ où $a<b$.

Théorème :
1. Soit $f\in C^0([a,b],\mathbb{R})$
Alors $\displaystyle{} \exists \lim_{n\rightarrow+\infty} \frac{1}{n}\sum_{k=0}^{n-1}f\left( a+k\frac{(b-a)}{n} \right) = \frac{1}{b-a}\int_a^b f$
2. Si $f$ est de plus lipschitzienne alors l'erreur commise est un $\bigcirc \left(\frac{1}{n}\right)$ lorsque $n\rightarrow+\infty$.

16. Comparaison séries/intégrales : montrer que $\displaystyle{}\sum_{k=1}^n\frac{1}{k}\underset{+\infty}\sim \ln(n)$ ou $\displaystyle{}\sum_{k=1}^n\frac{1}{\sqrt{k}}\underset{+\infty}\sim 2\sqrt{n}$
ou $\displaystyle{} \sum_{k=1}^n\frac{1}{k\ln(k)}\underset{+\infty}\sim \ln(\ln(n))$

1. $$\begin{array}{ccccccc} \displaystyle{}\int_2^{n+1} \frac{dt}{t}& \leq & \displaystyle{}\sum_{k=2}^n \frac{1}{k} & \leq & \displaystyle{}\int_1^n \frac{dt}{t}\\ \displaystyle{}\left[\ln(t)\right]_2^{n+1} & \leq & \displaystyle{}H_n - 1 & \leq & \displaystyle{}[\ln(t)]_1^n & \hspace{20pt} & (\text{où } H_n = \sum_{k=1}^n\frac{1}{k})\\ \displaystyle{}\ln(n+1)-\ln(2)+1 & \leq & \displaystyle{}H_n & \leq & \displaystyle{}\ln(n) - \ln(1) + 1\\ \displaystyle{}\frac{\ln(n+1)}{\ln(n)} - \frac{\ln(2)}{\ln(n)} & \leq & \displaystyle{}\frac{H_n}{\ln(n)} & \leq & \displaystyle{}1 + \frac{1}{\ln(n)} \end{array}$$ Or $\displaystyle{}\frac{\ln(2)}{\ln(n)} \xrightarrow[n\rightarrow+\infty]{} 0$ et $\displaystyle{}\frac{1}{\ln(n)}\xrightarrow[n\rightarrow+\infty]{} 0$
Ainsi $\displaystyle{}\frac{\ln(n+1)}{\ln(n)}\leq \frac{H_n}{\ln(n)}\leq 1$
Or $\displaystyle{}\frac{\ln(n+1)}{\ln(n)}\xrightarrow[n\rightarrow+\infty]{}1$ car $n+1 \underset{+\infty}\sim n$
Donc, par encadrement $\displaystyle{}\frac{H_n}{\ln(n)}\xrightarrow[n\rightarrow+\infty]{} 1$ i.e. $H_n\underset{+\infty}\sim\ln(n)$

2. $\displaystyle{}S_n = \sum_{k=1}^n \frac{1}{\sqrt{k}}$ $$\begin{array}{ccccc} \displaystyle{}\int_2^{n+1} \frac{dt}{\sqrt{t}} & \leq & \displaystyle{}S_n - 1 & \leq & \displaystyle{}\int_1^n \frac{dt}{\sqrt{t}}\\ \displaystyle{}[2\sqrt{t}]_2^{n+1}+1 & \leq & \displaystyle{}S_n & \leq & \displaystyle{}[2\sqrt{t}]_1^n\\ \displaystyle{}2\sqrt{n+1} - 2\sqrt{2} + 1 & \leq & \displaystyle{}S_n & \leq & \displaystyle{}2\sqrt{n} - 2\sqrt{1} + 1 \\ \displaystyle{}\frac{2\sqrt{n+1}}{2\sqrt{n}}-\frac{2\sqrt{2}}{2\sqrt{n}} + \frac{1}{2\sqrt{n}} & \leq & \displaystyle{}\frac{S_n}{2\sqrt{n}} & \displaystyle{}\leq & 1- \frac{1}{2\sqrt{n}} \end{array}$$ Or $\displaystyle{}\frac{2\sqrt{2}}{2\sqrt{n}}\xrightarrow[n\rightarrow+\infty]{} 0$ et $\displaystyle{}\frac{1}{2\sqrt{n}}\xrightarrow[n\rightarrow+\infty]{} 0$
Ainsi $\displaystyle{} \sqrt{1+\frac{1}{n}}\leq \frac{S_n}{2\sqrt{n}}\leq 1$
Ainsi par encadrement $\displaystyle{}\frac{S_n}{2\sqrt{n}}\xrightarrow[n\rightarrow+\infty]{}1$ i.e. $\displaystyle{}S_n \underset{+\infty}\sim 2\sqrt{n}$

3. $$\begin{array}{ccccc} \displaystyle{}\int_3^{n+1}\frac{dt}{t\ln(t)} & \leq & \displaystyle{}\sum_{k=3}^n \frac{1}{k\ln(k)} & \leq & \displaystyle{}\int_2^n \frac{dt}{\ln(t)}\\ \displaystyle{}\left[ \ln(\ln(t)) \right]_3^{n+1} & \leq & \displaystyle{}S_n - \frac{1}{2\ln(2)} & \leq & \displaystyle{}\left[ \ln(\ln(t)) \right]_2^n\\ \displaystyle{}\ln(\ln(n+1)) - \ln(\ln(3)) + \frac{1}{2\ln(2)} & \leq & \displaystyle{}S_n & \leq & \displaystyle{}\ln(ln(n)) - \ln(\ln(2)) +\frac{1}{2\ln(2)}\\ \displaystyle{}\frac{\ln(\ln(n+1))}{\ln(\ln(n))} - \frac{cst}{\ln(\ln(n))} & \leq & \displaystyle{}\frac{S_n}{\ln(\ln(n))} & \leq & \displaystyle{}1 + \frac{cst}{\ln(\ln(n))} \end{array}$$ Or $\displaystyle{}\frac{cst}{\ln(\ln(n))}\xrightarrow[n\rightarrow+\infty]{}0$
Or $\displaystyle{}\ln(n+1)\underset{+\infty}\sim\ln(n)$ ainsi $\displaystyle{}\ln(\ln(n+1))\underset{+\infty}\sim \ln(\ln(n))$ donc $\displaystyle{}\frac{\ln(\ln(n+1))}{\ln(\ln(n))}\xrightarrow[n\rightarrow+\infty]{}1$
Donc par encadrement $\displaystyle{}\frac{S_n}{\ln(\ln(n+1))}\xrightarrow[n\rightarrow+\infty]{}1$ donc $S_n\underset{+\infty}\sim\ln(\ln(n))$
Page précédente :
QC 13 : Espaces vectoriels
Page suivante :
QC 15 : Espaces vectoriels de dimension finie