Logo Groupe Réussite
Groupe Réussite
  • Cours particuliers
    • Cours maths
    • Cours anglais
    • Cours physique chimie
    • Cours français
    • Cours informatique
  • Stages intensifs
  • Donner cours
  • 01 84 88 32 69

Mon parcours pour réussir en maths

Je révise en autonomie

Je progresse avec un prof

Je m’entraîne sur des annales corrigées

Je cherche un prof de maths

Avis Google France 
★★★★★ 4,9 sur 5

Corrigé du sujet ECRICOME Maths ECS 2019

Revenir à tous les corrigés des annales maths Ecricome

Exercice 1 : Intégrale de Wallis

1/ La fonction cosinus est continue sur \mathbb{R} ainsi que la fonction polynomiale u\mapsto u^n donc par composition la fonction t\mapsto (\cos t)^n est continue sur \mathbb{R} donc on peut l’intégrer sur le segment \left[0,\frac{\pi}{2}\right] et I_n est bien définie.

On a I_0=\displaystyle \int_0^{\frac{\pi}{2}} 1 \text{d}t = \frac{\pi}{2}.

I_1=\displaystyle \int_0^{\frac{\pi}{2}} (\cos t) \text{d}t = \left[\sin t\right]^{\frac{\pi}{2}}_0 = 1.

Pour la suite on utilise la relation \cos (a+b) =\cos(a)\cos(b)-\sin(a)\sin(b) vraie pour tout a,b dans \mathbb{R}. On a en particulier \cos(2a)=\cos(a)^2-\sin(a)^2=\cos(a)^2+\cos(a)^2 - 1 =2\cos(a)^2-1.
Donc \cos(a)^2 =\frac12\left(\cos(2a)+1\right).

Par conséquent I_2=\displaystyle \int_0^{\frac{\pi}{2}} (\cos t)^2 \text{d}t =\int_0^{\frac{\pi}{2}} \frac12\left(\cos(2t)+1\right)\text{d}t = \frac12\left[\frac12\sin(2 t)+t\right]^{\frac{\pi}{2}}_0 =\frac{\pi}4.

2/ a/ On calcule le signe de

    \[\begin{array}{rcl}I_{n+1}-I_n&=& \displaystyle \int_0^{\frac{\pi}{2}}(\cos t)^{n+1} \text{d}t-\int_0^{\frac{\pi}{2}}(\cos t)^{n} \text{d}t \\&=& \displaystyle \int_0^{\frac{\pi}{2}}\left((\cos t)^{n+1}-(\cos t)^{n}\right)\text{d}t = \int_0^{\frac{\pi}{2}}\left(\cos t-1\right)(\cos t)^{n}\text{d}t.\end{array}\]


Pour tout t\in \left[0,\frac{\pi}{2}\right], 0\le \cos(t)\le 1 donc \left(\cos t-1\right)(\cos t)^{n}\le 0. En intégrant selon t sur \left[0,\frac{\pi}{2}\right] avec 0\le \frac{\pi}{2}, on obtient

    \[I_{n+1}-I_n\le 0.\]


Donc la suite (I_k)_{k\in\mathbb{N}} est décroissante. Comme, pour tout t\in \left[0,\frac{\pi}{2}\right], 0\le \cos(t),
en intégrant selon t sur \left[0,\frac{\pi}{2}\right] avec 0\le \frac{\pi}{2}, on obtient

    \[0\le I_n.\]


Donc la suite (I_k)_{k\in\mathbb{N}} est décroissante et minorée donc elle converge.

2/ b/ On remarque I_{n+2}=\displaystyle \int_0^{\frac{\pi}{2}} (\cos t)^{n+2} \text{d}t =\int_0^{\frac{\pi}{2}} (\cos t)^{n+1}\cos(t) \text{d}t .

On pose u'(t) = \cos(t) et u(t)=\sin(t) puis v(t) = (\cos t)^{n+1}, v'(t)= (n+1)(-\sin(t))(\cos t)^{n}, les fonctions u,v sont C^1 sur \left[0,\frac{\pi}{2}\right] et

    \[I_{n+2} = \left[ \sin(t) (\cos t)^{n+1}\right]_0^{\frac{\pi}{2}} - \int_0^{\frac{\pi}{2}}(n+1)(-\sin(t))(\cos t)^{n}\sin(t)\text{d}t = 0+(n+1)\int_0^{\frac{\pi}{2}}(\sin(t))^2(\cos t)^{n}\text{d}t\]


    \[=(n+1)\int_0^{\frac{\pi}{2}}(1-\cos(t)^2)(\cos t)^{n}\text{d}t = (n+1)\int_0^{\frac{\pi}{2}}(\cos t)^{n}\text{d}t - (n+1)\int_0^{\frac{\pi}{2}}(\cos t)^{n+2}\text{d}t= (n+1)(I_n-I_{n+2}).\]

Bilan : Pour tout n\in\mathbb{N}, I_{n+2} = (n+1)(I_n-I_{n+2}).

2/ c/ Ce qui précède assure que I_{n+2} = (n+1)I_n-(n+1)I_{n+2} donc (n+2)I_{n+2} = (n+1)I_n donc
I_{n+2} = \frac{n+1}{n+2}I_n.

On pose alors {\cal H}_n : \left(I_{2n}=\frac{(2n)!}{\left( 2^{n}n!\right) ^{2}}\frac{\pi }{2}\text{ et }I_{2n+1}=\frac{\left( 2^{n}n!\right) ^{2}}{(2n+1)!}\right).

Avec I_0=\frac{\pi }{2} et I_1=1, on voit que {\cal H}_0 est vraie.

Supposons {\cal H}_n vraie, on a alors I_{2(n+1)}

=I_{2n+2}

=\frac{2n+1}{2n+2}I_{2n}

\underset{{\cal H}_n}{=}\frac{2n+1}{2n+2}\times \frac{(2n)!}{\left( 2^{n}n!\right) ^{2}}\times \frac{\pi }{2}

= {\frac{2n+2}{2(n+1)}}\times\frac{2n+1}{2(n+1)}\times \frac{(2n)!}{\left( 2^{n}n!\right) ^{2}}\times\frac{\pi }{2}

= \frac{(2(n+1))!}{\left( 2^{n+1}(n+1)!\right) ^{2}}\frac{\pi }{2}.

Puis

= I_{2(n+1)+1}

= I_{2n+1 +2}

=\frac{2n+2}{2n+3}I_{2n+1}

\underset{{\cal H}_n}{=}\frac{2n+2}{2n+3}\times \frac{\left( 2^{n}n!\right) ^{2}}{(2n+1)!}

= \frac{2n+2}{2n+3}\times {\frac{2n+2}{2(n+1)}}\times\frac{\left( 2^{n}n!\right) ^{2}}{(2n+1)!}

= \frac{\left( 2^{n+1}(n+1)!\right) ^{2}}{(2(n+1)+1)!}.

Donc {\cal H}_{n+1} est vraie.

Conclusion : pour tout n \in \mathbb{N}, {\cal H}_{n} est vraie.

2/ d/ function y=I(n)
u=zeros(1,2*n+2)
//u(0)= pi/2 ce terme n’existe pas dans le tableau
u(1) = 1
u(2) = pi/4
for k=1:n
u(2*k+1) = (2*k)*u(2*k-1)/(2*k+1)
u(2*k+2) = (2*k+1)*u(2*k)/(2*k+2)
end
y = u
endfunction

3/ a/ D’après le cours, \cos(x)-1\underset{0}{\sim} -\frac{x^2}{2} et \ln(1+u)\underset{0}{\sim}u.

3/ b/ Pour tout n\in\mathbb{N}^*, on a 0<n^{-1/4} \leq 1 donc 0<\cos(n^{-1/4})<1 et on peut composer par \ln. Ainsi n\ln(\cos(n^{-1/4}))=n\ln\left(1+\cos\left(\frac{1}{\sqrt[4]{n}}\right)-1\right) or
\frac{1}{\sqrt[4]{n}}\underset{+\infty}{\to} 0 donc

    \[\cos\left(\frac{1}{\sqrt[4]{n}}\right)-1\underset{+\infty}{\sim}-\frac{1}{2n^{1/2}}= -\frac{1}{2\sqrt{n}}\underset{+\infty}{\to }0\]

donc n\ln(\cos(n^{-1/4}))\underset{+\infty}{\sim} n \times \left(\cos\left(\frac{1}{\sqrt[4]{n}}\right)-1 \right)\underset{+\infty}{\sim} -\frac{n}{2\sqrt{n}}=-\frac{\sqrt{n}}{2}.

On en déduit que n\ln(\cos(n^{-1/4}))\underset{+\infty}{\to }-\infty, en composant cette limite par exponentielle, il vient

    \[\text{exp}\left( n\ln\left(\cos(n^{-1/4})\right)\right)=\left(\cos(n^{-1/4})\right)^n\underset{+\infty}{\to }0.\]

3/ c/ Avec un raisonnement analogue,

    \[\cos\left(\frac{1}{n^{2/3}}\right)-1\underset{+\infty}{\sim}-\frac{1}{2n^{4/3}}\underset{+\infty}{\to }0\]


donc n\ln(\cos(n^{-2/3}))\underset{+\infty}{\sim} n \times \left(\cos\left(\frac{1}{n^{2/3}}\right)-1 \right)\underset{+\infty}{\sim} -\frac{n}{2n^{4/3}}=-\frac{1}{2n^{1/3}}.

On en déduit que n\ln(\cos(n^{-2/3}))\underset{+\infty}{\to }0, en composant cette limite par exponentielle, il vient

    \[\text{exp}\left( n\ln\left(\cos(n^{-2/3})\right)\right)=\left(\cos(n^{-2/3})\right)^n\underset{+\infty}{\to }1.\]

4/ a/ Soit n\in\mathbb{N}^*, sur [0;n^{-1/4}], (\cos t)^n est dominé par 1 donc en intégrant avec 0<n^{-1/4}, on a

    \[\displaystyle \int_0^{n^{-1/4}} (\cos t)^{n} \text{d}t\le \int_0^{n^{-1/4}} 1 \text{d}t = n^{-1/4}.\]

4/ b/ Soit n\in\mathbb{N}^*, sur \left[n^{-1/4} ; \frac{\pi}{2}\right], t\mapsto (\cos t)^n est décroissante donc dominée par \left(\cos(n^{-1/4})\right)^n donc en intégrant avec n^{-1/4}<\frac{\pi}{2}, on a

    \[\displaystyle \int_{n^{-1/4}}^{\frac{\pi}{2}} (\cos t)^{n} \text{d}t\le \int_{n^{-1/4}}^{\frac{\pi}{2}} \left(\cos(n^{-1/4})\right)^n\text{d}t = \left(\cos(n^{-1/4})\right)^n\times\left( \frac{\pi}{2}- n^{-1/4}\right)\leqslant \frac{\pi}{2}\left(\cos(n^{-1/4})\right)^n.\]

4/ c/ On utilise la relation de Chasles, les questions 3(b), 4(a), 4(b) et le fait que I_n est positive,

    \[0\le I_n=\int_0^{n^{-1/4}} (\cos t)^{n} \text{d}t + \int_{n^{-1/4}}^{\pi/2} (\cos t)^{n} \text{d}t\le \frac{1}{n^{1/4}}+\frac{\pi}{2}\left(\cos(n^{-1/4})\right)^n\underset{+\infty}{\to }0.\]


Donc par encadrement I_n\underset{+\infty}{\to }0.

5/ a/ Soit n\in\mathbb{N}^*. On utilise la relation de Chasles

    \[I_n = \int_0^{n^{-2/3}} (\cos t)^{n} \text{d}t + \int_{n^{-2/3}}^{\pi/2} (\cos t)^{n} \text{d}t.\]


Sur \left[{n^{-2/3}},{\pi/2}\right], cosinus est positif donc, avec des bornes dans l’ordre croissant, on a \displaystyle\int_{n^{-2/3}}^{\pi/2} (\cos t)^{n} \text{d}t\ge 0.

Donc \displaystyle I_n \ge \int_0^{n^{-2/3}} (\cos t)^{n} \text{d}t, on utilise une fois de plus le fait que t\mapsto (\cos t)^n est décroissante sur \left[0;{n^{-2/3}}\right] pour minorer,

    \[I_n \ge \int_0^{n^{-2/3}} (\cos t)^{n} \text{d}t\ge \left(\cos\left( n^{-2/3}\right)\right)^{n}\int_0^{n^{-2/3}} 1 \text{d}t=\left(\cos\left( n^{-2/3}\right)\right)^{n}n^{-2/3}.\]

A la question 3(c), il est vu que \left(\cos(n^{-2/3})\right)^n\underset{+\infty}{\to }1 donc \left(\cos\left( n^{-2/3}\right)\right)^{n}n^{-2/3}\underset{+\infty}{\sim }n^{-2/3}=\frac{1}{n^{2/3}}.

Or \frac23 < 1 donc la série de Riemann \sum\limits_{n\ge 1} \frac{1}{n^{2/3}} diverge donc par comparaison des séries à terme général positif, la série \sum\limits_{n\ge 1}\left(\cos\left( n^{-2/3}\right)\right)^{n}n^{-2/3} diverge et par comparaison la série \sum\limits_{n\ge 1} I_n diverge.

5/ b/ function S=somme(n)
S = pi/2
tableau = I(floor(n/2)) sinon on laisse I(n), tant pis pour les termes superflus
for j=1:n
S=S+tableau(j)
end
endfunction

6/ a/ Soit t\in]-\pi,\pi[, \frac{2}{1+\tan^2(\frac{t}{2})}= \frac{2}{1+\frac{\sin^2(\frac{t}{2})}{\cos^2(\frac{t}{2})}}= \frac{2{\cos^2(\frac{t}{2})}}{{\cos^2(\frac{t}{2})}+{\sin^2(\frac{t}{2})}} = 2{\cos^2(\frac{t}{2})} = \cos(t)+1.

6/ b/ La fonction t\mapsto \frac{1}{1+\cos(t)} est continue sur le segment \left[0;\frac{\pi}{2}\right] donc l’intégrale \displaystyle\int_{0}^{\pi/2} \frac{1}{1+\cos(t)} \text{d}t est bien définie. On applique le changement de variables u=\tan\left(\frac{t}{2}\right) de classe C^1 avec \text{d}u = \frac12\left(1+\tan^2\left(\frac{t}{2}\right)\right)\text{d}t = \frac{1}{1+\cos(t)} \text{d}t.

Avec t=0, u=0 et avec t=\frac{\pi}{2}, u= 1, donc

    \[\displaystyle\int_{0}^{\pi/2} \frac{1}{1+\cos(t)} \text{d}t=\int_0^1 1\text{d}u = 1.\]

6/ c/ Soit n\in\mathbb{N}, on utilise la linéarité de l’intégration,

    \[\sum_{k=0}^n(-1)^k I_k = \sum_{k=0}^n\int_{0}^{\pi/2}(-1)^k(\cos(t))^k \text{d}t = \int_{0}^{\pi/2} \sum_{k=0}^n (-\cos(t))^k \text{d}t.\]

Or sur \left[0;\frac{\pi}{2}\right], -\cos(t)\ne 1 donc \sum\limits_{k=0}^n (-\cos(t))^k =\frac{1-(-\cos(t))^{n+1}}{1+\cos(t)}. De plus la fonction t\mapsto \frac{-(-\cos(t))^{n+1}}{1+\cos(t)} est continue sur le segment \left[0;\frac{\pi}{2}\right], donc

    \[\sum_{k=0}^n(-1)^k I_k = \int_{0}^{\pi/2}\frac{1}{1+\cos(t)} \text{d}t - \int_{0}^{\pi/2}\frac{-(-\cos(t))^{n+1}}{1+\cos(t)}\text{d}t\]

6/ d/ On utilise la positivité de l’intégration avec le fait que 0<\frac{\pi}{2},

    \[\left\vert \int_{0}^{\pi/2}\frac{-(-\cos(t))^{n+1}}{1+\cos(t)}\text{d}t\right\vert \le \int_{0}^{\pi/2}\left\vert\frac{-(-\cos(t))^{n+1}}{1+\cos(t)}\right\vert\text{d}t = \int_{0}^{\pi/2}\frac{\vert\cos(t)\vert^{n+1}}{1+\cos(t)}\text{d}t = \int_{0}^{\pi/2}\frac{\cos(t)^{n+1}}{1+\cos(t)}\text{d}t .\]


On a \vert\cos(t)\vert^{n+1}=\cos(t)^{n+1} car \cos est positif sur \left[0;\frac{\pi}{2}\right]. On a aussi avec cet argument que, pour tout t\in \left[0;\frac{\pi}{2}\right], \frac{1}{1+\cos t}\leq 1 donc en multipliant par \cos(t)^{n+1} positif on a \frac{\cos(t)^{n+1}}{1+\cos(t)}\leq \cos(t)^{n+1}, puis en intégrant toujours avec des bornes dans l’ordre croissant, il vient

    \[\left\vert \int_{0}^{\pi/2}\frac{-(-\cos(t))^{n+1}}{1+\cos(t)}\text{d}t\right\vert \le \int_{0}^{\pi/2}{\cos(t)^{n+1}}\text{d}t =I_{n+1}.\]

6/ e/ On en déduit avec 6(c) puis 6(b) que

    \[\left\vert \int_{0}^{\pi/2}\frac{-(-\cos(t))^{n+1}}{1+\cos(t)}\text{d}t\right\vert =\left\vert \sum_{k=0}^n(-1)^k I_k - \int_{0}^{\pi/2}\frac{1}{1+\cos(t)} \text{d}t \right\vert = \left\vert \sum_{k=0}^n(-1)^k I_k -1 \right\vert \le I_{n+1}.\]

Or la suite (I_k) converge vers 0 selon 4(c), donc par encadrement

    \[\left\vert \sum_{k=0}^n(-1)^k I_k -1 \right\vert\underset{n\to +\infty}{\longrightarrow} 0 \text{ donc } \sum_{k=0}^n(-1)^k I_k\underset{n\to +\infty}{\longrightarrow} 1.\]

Conclusion : la série \sum\limits_{k\ge 0}(-1)^k I_k converge et sa somme vaut 1.

 

COURS DE MATHS

Les meilleurs professeurs particuliers

Pour progresser et réussir

Cours particuliers maths

Avis Google France ★★★★★ 4,9 sur 5

 

Exercice 2 : Diagonalisation de Matrices

1/ Le calcul donne S^2=I_3. Donc X^2-1 est un polynôme annulateur de S, les racines sont 1 et -1 donc le spectre de S est inclus dans \{-1,1\}.

On remarque que S+I_3=\begin{pmatrix} 1 & 0&1\\ 0&1&0\\ 1&0&1\end{pmatrix} qui n’est pas inversible car il y a deux colonnes égales donc -1 est valeur propres de S.

On remarque que S-I_3=\begin{pmatrix} -1 & 0&1\\ 0&0&0\\ 1&0&-1\end{pmatrix} qui n’est pas inversible car il y a une colonne nulle donc 1 est valeur propres de S.

Finalement le spectre de S est \{-1,1\}.

2/ On applique la définition de F,

    \[\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in F\Longleftrightarrow a=c\Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix} = a\begin{pmatrix} 1\\ 0\\ 1\end{pmatrix}+b\begin{pmatrix} 0\\ 1\\0\\ \end{pmatrix}\Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in\text{Vect}\left( \begin{pmatrix} 1\\ 0\\ 1\end{pmatrix},\begin{pmatrix} 0\\ 1\\0\\ \end{pmatrix} \right).\]

Donc F=\text{Vect}\left( \begin{pmatrix} 1\\ 0\\ 1\end{pmatrix},\begin{pmatrix} 0\\ 1\\0\\ \end{pmatrix} \right), par conséquent \left( \begin{pmatrix} 1\\ 0\\ 1\end{pmatrix},\begin{pmatrix} 0\\ 1\\0\\ \end{pmatrix} \right) engendre F et ces deux vecteurs ne sont pas colinéaires donc ils forment une famille libre et donc une base de F.

On applique la définition de G,

    \[\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in G\Longleftrightarrow a=-c \text{ et } b=-b \Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix} = a\begin{pmatrix} 1\\ 0\\ -1\end{pmatrix}\Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in\text{Vect}\left( \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix} \right).\]

Donc G=\text{Vect}\left( \begin{pmatrix} 1\\ 0\\ -1\end{pmatrix} \right), par conséquent \left( \begin{pmatrix} 1\\ 0\\ -1\end{pmatrix}\right) engendre G et ce vecteur n’est pas nul donc il forme une famille libre et donc une base de G.

Pour trouver une base du sous-espace propre de S associé à la valeur propre -1 (noté \text{SEP}(S,-1)) , on caractérise l’appartenance par une combinaison linéaire,

\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in \text{SEP}(S,-1)

\Longleftrightarrow(S+I_3) \begin{pmatrix} a\\ b\\ c\end{pmatrix}= \begin{pmatrix} 0\\ 0\\ 0\end{pmatrix}

\Longleftrightarrow \left\{\begin{array}{rcl} a+c=0\\b=0\end{array}\right.

\Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix} = a\begin{pmatrix} 1\\ 0\\ -1\end{pmatrix}
\Longleftrightarrow \begin{pmatrix} a\\ b\\ c\end{pmatrix}\in G.

Donc G= \text{SEP}(S,-1).

De même
\begin{pmatrix} a\\ b\\ c\end{pmatrix}\in \text{SEP}(S,1)

\Longleftrightarrow(S-I_3) \begin{pmatrix} a\\ b\\ c\end{pmatrix}= \begin{pmatrix} 0\\ 0\\ 0\end{pmatrix}

\Longleftrightarrow \left\{\begin{array}{rcl} -a+c=0\\a-c=0\end{array}\right.

\Longleftrightarrow\begin{pmatrix} a\\ b\\ c\end{pmatrix} = a\begin{pmatrix} 1\\ 0\\ 1\end{pmatrix} +b\begin{pmatrix} 0\\ 1\\0\\ \end{pmatrix}

\Longleftrightarrow \begin{pmatrix} a\\ b\\ c\end{pmatrix}\in F.
Donc F= \text{SEP}(S,1).

3/ En tant que sous-espaces propres associées à des valeurs propres distinctes, F et G sont en somme directe, la somme de leurs dimensions vaut 3 qui est celle de {\cal M}_{3,1}(\mathbb{R}) donc F et G sont supplémentaires de {\cal M}_{3,1}(\mathbb{R}).

4/ a/ Dans la colonne 1 de S, tous les termes sont nuls sauf celui sur la ligne i=n+1-1= n.
Dans la colonne 2 de S, tous les termes sont nuls sauf celui sur la ligne i=n+1-2= n-1.
Et ainsi de suite jusqu’à la colonne n o\`u tous les termes sont nuls sauf celui sur la ligne i=n+1-n= 1.

Donc

    \[S= \begin{pmatrix} 0 &\hdots &0& 0&1\\ 0&\hdots &0&1&0\\\vdots & \iddots& \iddots & \iddots & \vdots \\ 0&1&0&\hdots &0\\ 1&0&\hdots &0& 0\end{pmatrix} .\]


S est symétrique à coefficients réels donc diagonalisable.

4/ b/ SX=\begin{pmatrix} x_n\\ x_{n-1}\\ \vdots \\ x_2\\ x_1\end{pmatrix}. Cette question en apparence anodine présente un intérêt pour la suite si on remarque que X est symétrique si et seulement si SX=X et que X est antisymétrique si et seulement si SX=-X.

4/ c/ Dans la suite, pour toute matrice M, on note (M)_{i,j} son coefficient en ligne i et colonne j.

On a alors (S^2)_{i,j}=\sum\limits_{k=1}^n (S)_{i,k}(S)_{k,j}.

Or les (S)_{u,v} valent 0 ou 1 donc (S)_{i,k}(S)_{k,j} vaut 0 ou 1, et (S)_{i,k}(S)_{k,j} vaut 1 si et seulement si (S)_{i,k}=(S)_{k,j}=1 si et seulement si i=n+1-k et k=n+1-j si et seulement si i=j=n+1-k.

Par conséquent si i\ne j alors (S^2)_{i,j}=0.

Si i= j alors (S^2)_{i,i}=\sum\limits_{k=1}^n (S)_{i,k}(S)_{k,i}. Dans cette somme tous les termes sont nuls sauf celui pour k=n+1-i et ce terme (S)_{i,n+1-i}(S)_{n+1-i,i} vaut 1 donc la somme vaut 1.

Bilan : S^2=I_n.

5/ a/ On s’inspire de la démonstration de cours par analyse-synthèse qui montre que toute matrice M\in{\cal M}_n(\mathbb{R}) est somme d’une matrice symétrique : \frac12(M+{}^t\!M) et d’une matrice antisymétrique : \frac12(M-{}^t\!M).

Analyse : On suppose qu’il existe Y\in F, Z\in G tel que X=Y+Z.

On utilise la remarque faite en 4(b), on multiplie par S et
SX=SY+SZ=Y-Z car Y est symétrique et Z est antisymétrique.

Donc X+SX=2Y et X-SX=2Z donc, en cas d’existence, Y et Z sont uniques et valent respectivement \frac12(X+SX) et \frac12(X-SX).

Synthèse : Il est immédiat que \frac12(X+SX)+\frac12(X-SX)=X.

De plus S\left(\frac12(X+SX)\right)= \frac12(SX+S^2X)=\frac12(SX+X) donc \frac12(X+SX)\in F.

Et S\left(\frac12(X-SX)\right)= \frac12(SX-S^2X)=\frac12(SX-X) donc \frac12(X-SX)\in G.

Bilan : il existe un unique couple (Y,Z) tel que Y\in F, Z\in G et X=Y+Z.

5/ b/ Avec 4(c), on sait que S^2-I_n=(0) donc X^2-1 est annulateur de S donc le spectre de S est inclus dans \{-1,1\}. On sait aussi que S est diagonalisable. Si S n’a qu’une valeur propre \lambda alors S=\lambda I_n ce qui est absurde car n\ge 2. Donc S a au moins deux valeurs propres donc le spectre de S est \{-1,1\}.

On utilise ensuite la remarque de la question 4(b) ainsi

    \[X\in F\Longleftrightarrow SX=X\Longleftrightarrow (S-I_n)X=(0)\Longleftrightarrow X\in \text{SEP}(S,1)\]


et

    \[X\in G\Longleftrightarrow SX=-X\Longleftrightarrow (S+I_n)X=(0)\Longleftrightarrow X\in \text{SEP}(S,-1).\]

Donc F et G sont les sous-espaces propres de G avec les valeurs propres respectives 1 et -1.

6/ a/ Soit (i,j)\in[\![1,n]\!]^2, (AS)_{i,j}=\sum\limits_{k=1}^n (A)_{i,k}(S)_{k,j} = (A)_{i,n+1-j} car (S)_{k,j} est nul sauf si k=n+1-j et dans ce cas il vaut 1.

D’autre part (SA)_{i,j}=\sum\limits_{k=1}^n (S)_{i,k}(A)_{k,j} = (A)_{n+1-i,j} car (S)_{i,k} est nul sauf si k=n+1-i et dans ce cas il vaut 1.

Or l’énoncé dit que (A)_{i,n+1-j} = (A)_{n+1-i,j} donc (AS)_{i,j}=(SA)_{i,j} et cela pour tout (i,j)\in[\![1,n]\!]^2. Donc SA =AS.

6/ b/ On sait que AX=\lambda X donc A(SX) = SAX = S(\lambda X) = \lambda SX car \lambda est un réel.

Avec le calcul de 4(b), on voit que si X est non nulle alors SX le sera aussi car on retrouve les mêmes coefficients dans l’ordre inversé donc comme X est vecteur propre, il est non nul donc SX est aussi non nul.

Bilan : SX est vecteur propre de A associé à \lambda.

6/ c/ On calcule AY=AX+ASX= \lambda X+\lambda SX=\lambda Y.

6/ d/ Si Y est nul alors X=-SX donc X est antisymétrique tout en étant un vecteur propre de A associé à \lambda.

Si Y est non nul alors comme AY=\lambda Y, Y est vecteur propre de A associé à \lambda et de plus SY=SX +S^2X=SX+X=Y donc Y est symétrique.

 

COURS A DOMICILE

Des cours sur mesure de qualité

POUR ACCÉLÉRER MA PROGRESSION

Professeur particulier à domicile

Avis Google France ★★★★★ 4,9 sur 5

 

Problème : Probabilités Discrètes

1/ Avant le deuxième tirage c’est-à-dire après le premier, il y a soit 2 blanches (B) et une noire (N) si on a pioché N au premier tour. Si on pioche B au premier tour, on aura 2 N et une B.

Donc X_1(\Omega)=\{1,2\}. On a \mathbb{P}(X_1=1)=\mathbb{P}(B_1)=\frac12 donc \mathbb{P}(X_1=2)=\frac12. On reconnaît une loi uniforme sur [\![1,2]\!]. Ainsi E(X_1)=\frac32 et V(X_1)=\frac{4-1}{12}=\frac14.

2/ Lors de deux tirages, on peut extraire 2 N ou 2 B ou bien 1 N et 1 B donc X_2 peut valoir 3 ou 2 ou 1 donc X_2(\Omega)=[\![1,3]\!]. [X_2=1] est réalisé si et seulement si B_1\cap B_2 est réalisé donc

    \[\mathbb{P}([X_2=1])=\mathbb{P}(B_1\cap B_2)=\mathbb{P}(B_1)\mathbb{P}_{B_1}(B_2)=\frac12 \times \frac13=\frac16\]

car sachant {B_1}, le deuxième tirage se fait dans une urne avec 1 B et 2 N.

De même [X_2=3] est réalisé si et seulement si N_1\cap N_2 est réalisé donc

    \[\mathbb{P}([X_2=3])=\mathbb{P}(N_1\cap N_2)=\mathbb{P}(N_1)\mathbb{P}_{N_1}(N_2)=\frac12 \times \frac13=\frac16\]

car sachant {N_1}, le deuxième tirage se fait dans une urne avec 1 N et 2 B.

Donc \mathbb{P}([X_2=2] ) = 1 - \mathbb{P}([X_2=1]) -\mathbb{P}([X_2=3]) =1-\frac16-\frac16=\frac23.

3/ Sachant qu’il y a une blanche et une noire au début, lors de k tirages on peut extraire entre 0 et k blanches donc après ceux-ci, l’urne peut contenir entre 1 blanche et k+1 blanches donc X_k(\Omega)=[\![1,k+1]\!].

4/ Soit i\in\mathbb{N}^*, j\in [\![1,k+1]\!]. Il est immédiat qu’après le k^e tirage, il y a k+1 boules dans l’urne car une ajoute une boule à chaque tirage. Donc après le (k+1)^e tirage, il y a k+2 boules dans l’urne. Le tirage k+1 amène une B ou une N donc à son issue, le nombre de B est stable ou est augmenté de 1. Donc si i\ne j et i\ne j+1 alors \mathbb{P}_{ [X_k=j]}([X_{k+1}=i])= 0.

Selon le protocole, le nombre de B est stable après un tirage si et seulement si on sort une B donc \mathbb{P}_{ [X_k=j]}([X_{k+1}=j]) est la probabilité de sortir une B dans une urne contenant j B et k+2 boules donc \mathbb{P}_{ [X_k=j]}([X_{k+1}=j])=\frac{j}{k+2}.

Selon le protocole, le nombre de B est augmenté de 1 après un tirage si et seulement si on sort une N donc \mathbb{P}_{ [X_k=j]}([X_{k+1}=j+1]) est la probabilité de sortir une N dans une urne contenant j B et k+2 boules donc P_{ [X_k=j]}([X_{k+1}=j+1])=\frac{k+2-j}{k+2}.

5/ Soit k\in\mathbb{N}, si i\notin [\![1,k+2]\!]=X_{k+1}(\Omega), alors \mathbb{P}(X_{k+1}=i)=0 et comme i-1\notin [\![1,k+1]\!]=X_k(\Omega), on a aussi \mathbb{P}(X_{k}=i)=\mathbb{P}(X_{k}=i-1)=0 donc la formule (*) est vraie.

Supposons i = k+2, alors [X_{k+1}=k+2] est réalisé si et seulement si [X_{k}=k+1]\cap N_{k+1} est réalisé car le nombre maximal de B après k tirages est k+1. Donc \mathbb{P}(X_{k+1}=k+2)=\mathbb{P}(X_{k}=k+1)P_{[X_{k}=k+1]}(N_{k+1}) =\mathbb{P}(X_{k}=k+1)\times \frac{1}{k+2}. Or k+2\notin X_k(\Omega) donc \mathbb{P}(X_{k}=k+2)=0 donc la formule

    \[\mathbb{P}\left( \left[ X_{k+1}=i\right] \right) =\frac{i}{k+2}{\mathbb{P}}\left( \left[X_{k}=i\right] \right) +\frac{3+k-i}{k+2}\mathbb{\ }\mathbb{P}\left( \left[ X_{k}=i-1\right] \right) \mathtt{\quad }\left( \ast \right) \]


est vraie pour i=k+2.

Supposons i\in [\![1,k+1]\!], On applique la formule des probabilités totales avec le système complet d’événements \{[X_k=j]\}_{1\le j \le k+1} ce qui donne

    \[\mathbb{P}\left( \left[ X_{k+1}=i\right] \right) =\sum_{j=1}^{k+1} \mathbb{P}(X_k=j)\mathbb{P}_{[X_k=j]}( X_{k+1}=i)\]


or \mathbb{P}_{[X_k=j]}( X_{k+1}=i)=0 si i\ne j et i\ne j+1 donc il reste deux termes dans la somme

    \[\mathbb{P}\left( \left[ X_{k+1}=i\right] \right) = \mathbb{P}(X_k=i)\mathbb{P}_{[X_k=i]}( X_{k+1}=i)+ \mathbb{P}(X_k=i-1)\mathbb{P}_{[X_k=i-1]}( X_{k+1}=i).\]


On a vu que \mathbb{P}_{[X_k=i]}( X_{k+1}=i)=\frac{i}{k+2}.

Si i=1, alors \mathbb{P}(X_k=i-1)=\mathbb{P}(X_k=0) = 0 et la formule (*) est valable pour i=1, sinon la question précédente avec j=i-1 donne \mathbb{P}_{[X_k=i-1]}( X_{k+1}=i) = \frac{k+2-(i-1)}{k+2}=\frac{k+3-i}{k+2}.

Finalement on a bien dans tous les cas

    \[\mathbb{P}\left( \left[ X_{k+1}=i\right] \right)=\frac{i}{k+2}{\ P}\left( \left[X_{k}=i\right] \right) +\frac{3+k-i}{k+2}\mathbb{\ }P\left( \left[ X_{k}=i-1\right] \right) \mathtt{\quad }\left( \ast \right).\]

6/ On a X_3(\Omega)=[\![1,4]\!], et
\mathbb{P}(X_3=1)=\frac{1}{4}\mathbb{P}(X_2=1)=\frac{1}{24}, \mathbb{P}(X_3=4)=\frac{1}{4}\mathbb{P}(X_2=3)=\frac{1}{24}

puis

    \[\mathbb{P}(X_3=2)=\frac{2}{4}\mathbb{P}(X_2=2)+\frac{3}{4}\mathbb{P}(X_2=1)=\frac{1}{3}+\frac{1}{8} = \frac{11}{24}\]


et \mathbb{P}(X_3=3) = 1 - \mathbb{P}(X_3=1)-\mathbb{P}(X_3=2)-\mathbb{P}(X_3=4)=\frac{11}{24}.

7/ a/ On reprend la question 5 avec i=1 et \mathbb{P}(X_k=0) = 0 ainsi, pour tout k\in \mathbb{N}, on a\\ \mathbb{P}(X_{k+1}=1)=\frac{1}{k+2}\mathbb{P}(X_k=1). Avec \mathbb{P}(X_0=1) = 1, une récurrence simple donne \mathbb{P}(X_{k}=1)=\frac{1}{(k+1)!}.

7/ b/ On reprend la question 5 avec i=k+2 et \mathbb{P}(X_k=k+2) = 0 ainsi, pour tout k\in \mathbb{N}, on a \mathbb{P}(X_{k+1}=k+2)=\frac{3+k-(k+2)}{k+2}\mathbb{P}(X_k=k+1) = \frac{1}{k+2}\mathbb{P}(X_k=k+1). Avec \mathbb{P}(X_0=1) = 1, une récurrence simple donne \mathbb{P}(X_{k}=k+1)=\frac{1}{(k+1)!}.

7/ c/ Soit k\in\mathbb{N}, a_{k+1}=(k+2)!\mathbb{P}(X_{k+1}=2) = (k+2)!\left(\frac{2}{k+2}{\ P}\left( \left[X_{k}=2\right] \right) +\frac{3+k-2}{k+2}\mathbb{\ }P\left( \left[ X_{k}=1\right] \right)\right)

donc a_{k+1} = (k+2)!\left(\frac{2}{k+2}\frac{a_k}{(k+1)!}+\frac{3+k-2}{k+2}\frac{1}{(k+1)!}\right) = 2a_k+k+1.

\bullet b_{k+1} = a_{k+1} + k+1 + 2 =2a_k+k+1+k+3 = 2(a_k+k+2)=2b_k.

\bullet La suite (b_j) est géométrique de raison 2 donc, pour tout k\in \mathbb{N}, b_k=2^kb_0=2^k(a_0+2)= 2^{k+1} car \mathbb{P}(X_0=2)=0. Donc a_k=2^{k+1}-k-2 et \mathbb{P}(X_k=2)=\frac{2^{k+1}-k-2}{(k+1)!}.

8/ La ligne 5 simule une loi uniforme sur [\![1,n+b]\!] en effet rand() simule une loi uniforme sur ]0,1[ donc rand()*(n+b) simule une loi uniforme sur ]0,n+b[ donc 1+ rand()*(n+b) simule une loi uniforme sur ]1,1+n+b[ en prenant la partie entière floor(1+ rand()*(n+b)) simule une loi uniforme sur [\![1,n+b]\!]. Donc r est un nombre entier choisi au hasard dans [\![1,n+b]\!], on peut considérer que les boules N ont les numéros 1 à n et que les blanches ont les numéros n+1 à n+b. Ainsi n est le nombre de N et b le nombre de B. Donc si r>n, on a sorti une B et n est augmenté de 1 sinon on a sorti une N et b augmenté de 1.

n et b sont initialisés à 1 ensuite on simule k tirages et on retourne b le nombre de B à la fin des ces tirages. On a donc simuler X_k.

9/ On calcule les effectifs de chaque valeur entre 1 et k+1 puis on divise par N pour avoir les fréquences. On passe sur le tiret du nom de la fonction qui n’est correct syntaxiquement.
function LE = loiExpo(k,N)
LE=zeros(1,k+1)
for j=1:N
valeur = mystere(k)
LE(valeur) = LE(valeur) + 1
end
LE = LE/N
endfunction

10/ La matrice M est telle que (M)_{k,i}=\mathbb{P}(X_k=i), on retourne donc la n-ème ligne de M.

function LT=loiTheo(n)
M=zeros(n,n+1)
M(1,1)=1/2
M(1,2)=1/2
for k=1:n-1
M(k+1,1)=M(k,1)/(k+2)
for i=2:k+1
M(k+1,i)=(i/(k+2))*M(k,i)+(3+k-i)/(k+2)*M(k,i-1)
end
M(k+1,k+2)=M(k+1,1)
end
LT=M(n,:)
endfunction

11/ En théorie \mathbb{P}(X_5=1)=\mathbb{P}(X_5=6)=\frac{1}{6!} or dans le tableau les valeurs sont distinctes donc c’est un calcul expérimental avec LoiExp.

12/ a/ X_{k+1} a un support fini donc a une espérance. On utilisera le fait que si i n’est pas dans le support de X_k alors \mathbb{P}(X_k=i)=0. On emploiera aussi le théorème de transfert. On a

\noindent E(X_{k+1})=\sum_{i=1}^{k+2} i\mathbb{P}(X_{k+1}=i) = \sum_{i=1}^{k+2} i\left( \frac{i}{k+2}{\ P}\left( \left[X_{k}=i\right] \right) +\frac{3+k-i}{k+2}\mathbb{P}\left( \left[ X_{k}=i-1\right] \right) \right)

\noindent = \sum_{i=1}^{k+2} \frac{i^2}{k+2}{\mathbb{P}}\left( \left[X_{k}=i\right] \right) +\sum_{i=1}^{k+2}i\frac{3+k-i}{k+2}\mathbb{P}\left( \left[ X_{k}=i-1\right] \right)

\noindent = \frac{1}{k+2}E(X_{k}^2) + \sum_{j=0}^{k+2}(j+1)\frac{3+k-j-1}{k+2}\mathbb{P}\left( \left[ X_{k}=j\right] \right)

\noindent = \frac{1}{k+2}E(X_{k}^2) + \sum_{j=1}^{k+2}(j+1)\frac{3+k-j-1}{k+2}\mathbb{P}\left( \left[ X_{k}=j\right] \right)

\noindent = \frac{1}{k+2}E(X_{k}^2) +\sum_{j=1}^{k+2}(j+1)\frac{2+k-j}{k+2}\mathbb{P}\left( \left[ X_{k}=j\right] \right)

\noindent = \frac{1}{k+2}E(X_{k}^2)+ \frac{1}{k+2}E((X_k+1)(2+k-X_k))

\noindent = \frac{1}{k+2}E\left(X_{k}^2 +(2+k)X_k-X_k^2+2+k-X_k\right)

\noindent = \frac{1}{k+2}E\left((1+k)X_k+2+k\right)

\noindent= \frac{1+k}{k+2}E\left(X_k\right)+1.

12/ b/ Pour tout k\in \mathbb{N}, on pose {\cal H}_k : \left(E(X_k) = \frac{k+2}{2}\right).

{\cal H}_0 est vraie car X_0 constant de valeur 1 donc de moyenne 1.

Si {\cal H}_k vraie à un rang k\in\mathbb{N}, alors E(X_{k+1}) = \frac{1+k}{k+2}E\left(X_k\right)+1 = \frac{1+k}{k+2}\frac{k+2}{2}+1 = \frac{k+1}{2} + 1 = \frac{k+1 + 2}{2} donc {\cal H}_{k+1} vraie.

Bilan : Pour tout k\in \mathbb{N}, E(X_k) = \frac{k+2}{2}.

12/ c/ Il y a autant de B que de N au début de l’expérience, on ajoute une B ou une N à chaque tirage, donc par symétrie, X_k et Y_k ont la même loi et la même espérance. De plus on a toujours X_k+Y_k qui vaut le nombre de boules après k tirages donc X_k+Y_k=k+2 donc E(X_k)+E(Y_k)=k+2 donc E(X_k) =E(Y_k)= \frac{k+2}{2}.

13/ a/ La variable X_k a une variance donc \frac{X_k}{k+2} en a une aussi et on peut appliquer la formule de Bienaymé-Tchebychev

    \[\forall \alpha >0, \quad \mathbb{P}\left(\left\vert\frac{X_k}{k+2}-E\left(\frac{X_k}{k+2}\right)\right\vert\ge \alpha\right) \le \frac{V\left(\frac{X_k}{k+2}\right)}{\alpha^2}\]


donc

    \[0\le \mathbb{P}\left(\left\vert\frac{X_k}{k+2}-\frac12\right\vert\ge \alpha\right) \le \frac{1}{12(k+2)\alpha^2}\]


en utilisant E\left(\frac{X_k}{k+2}\right) = \frac{E(X_k)}{k+2}=\frac12 et V\left(\frac{X_k}{k+2}\right) = \frac{1}{(k+2)^2}V(X_k)=\frac{1}{12(k+2)}.

Donc \mathbb{P}\left(\left\vert\frac{X_k}{k+2}-\frac12\right\vert\ge \alpha\right)\underset{k\to +\infty}{\to } 0 par
encadrement.

Donc \mathbb{P}\left(\left\vert\frac{X_k}{k+2}-\frac12\right\vert< \alpha\right) = 1-\mathbb{P}\left(\left\vert\frac{X_k}{k+2}-\frac12\right\vert\ge \alpha\right)\underset{k\to +\infty}{\to } 1.

\frac{X_k}{k+2} représente la proportion de boules blanches dans l’urne après k tirages, intuitivement cette proportion a tendance à être proche de \frac12 quand k est grand.

13/ b/ \frac{X_k}{k+2} représente la proportion de boules blanches dans l’urne après k tirages, intuitivement cette proportion a tendance à être proche de \frac12 quand k est grand.

14/ a/ Soit A(X),B(X) dans \mathbb{R}_X et \alpha \in \mathbb{R}, on a

    \[\varphi_{i,j}(\alpha A+B)=j(\alpha A+B)(X+1)-i(\alpha A+B)(X) = j(\alpha A(X+1)+B(X+1))-i(\alpha A(X)+B(X))\]


    \[= \alpha(jA(X+1)-iA(X)) + jB(X+1)-iB(X) =\alpha \varphi_{i,j}(A)+\varphi_{i,j}(B).\]

Donc \varphi_{i,j} est linéaire.

14/ b/ Si P est nul alors \varphi_{i,j}(P) est nul aussi.

Si {P}(X)=\sum\limits_{k=0}^n\alpha_kX^k avec \alpha_n\ne 0 alors \mathbb{P}(X+1)=\sum\limits_{k=0}^n\alpha_k(X+1)^k aura le même terme dominant que \alpha_n(X+1)^n car les autres termes sont tous de degrés inférieurs stricts à n donc le terme dominant de \mathbb{P}(X+1) est \alpha_nX^n donc par somme
comme j\ne i, le terme dominant de j{P}(X+1)-i{P}(X) sera (j-i)\alpha_nX^n avec (j-i)\alpha_n\ne 0.

Donc {P}(X) et \varphi_{i,j}(P) ont le même degré.

14/ c/ On voit donc que si P n’est pas nul alors \varphi_{i,j}(P) ne l’est pas non plus donc le noyau de \varphi_{i,j} ne contient que le polynôme nul et \varphi_{i,j} est injective.

14/ d/ On a vu que l’unique antécédent de \theta est \theta lui-même.

Soit {P}(X) non nul de degré n, on sait que les antécédents éventuels de P par \varphi_{i,j} sont de degré n donc ils sont dans \mathbb{R}_n[X]. On a vu que \varphi_{i,j} préserve le degré donc
\mathbb{R}_n[X] est stable par \varphi_{i,j} donc la restriction de \varphi_{i,j} à \mathbb{R}_n[X] est un endomorphisme de \mathbb{R}_n[X] qui est de dimension finie. Comme \varphi_{i,j} est injective sur \mathbb{R}[X], elle l’est aussi sur \mathb{R}_n[X] donc la restriction de \varphi_{i,j} à \mathbb{R}_n[X] est bijective donc P\in \mathbb{R}_n[X] a un antécédent par \varphi_{i,j}.

15/ a/ Par définition, P_{2,1}(X)=\varphi_{2,1}^{-1}((3+X-2)P_{2-1,1}(X)) = \varphi_{2,1}^{-1}(X+1) or \varphi_{2,1}(-X-2) = 1\times (-(X+1)-2)-2(-X-2) = X+1 donc -X-2=\varphi_{2,1}^{-1}(X+1).

Et P_{2,2}=-P_{2,1}(0)=2. On remarquera que P_{i,i}(X) en général est défini une somme de réels donc est un polynôme constant.

15/ b/ On a P_{3,2}(X)= \varphi_{3,2}^{-1}((3+X-3)P_{3-1,2}(X)) = 2X or

\varphi_{3,2}(-2X-4)

= 2(-2(X+1)-4) - 3(-2X-4)

= -4X-12 +6X+12 = 2X

donc \varphi_{3,2}^{-1}(2X) =-2X-4.

16/ a/ {\cal H}_1 s’écrit : \forall k\in\mathbb{N}, \mathbb{P}(X_k=1) = \frac{1}{(k+1)!}P_{1,1}(k)1^k.
C’est vrai car on sait que P_{1,1} =1 et \mathbb{P}(X_k=1) = \frac{1}{(k+1)!}.

16/ b/ Soit i\ge 2, on suppose {\cal H}_{i-1} vraie, soit k\in \mathbb{N},

    \[\begin{array}{rcl}\alpha_{k+1}&=&(k+2)!\mathbb{P}(X_{k+1}=i)-\sum\limits_{j=1}^{i-1}P_{i,j}(k+1)j^{k+1}\\&=& (k+2)!\left( \frac{i}{k+2}{\mathbb{P}}\left( X_{k}=i\right) +\frac{3+k-i}{k+2}\mathbb{P}\left( X_{k}=i-1\right)\right) -\sum\limits_{j=1}^{i-1}P_{i,j}(k+1)j^{k+1}\text{ avec $(*)$}\\&=& (k+1)!\left(i{\mathbb{P}}\left( X_{k}=i\right) + ({3+k-i} )\mathbb{P}\left( X_{k}=i-1\right)\right) -\sum\limits_{j=1}^{i-1}P_{i,j}(k+1)j^{k+1}\\&=& (k+1)!\left(i{\mathbb{P}}\left( X_{k}=i\right) + ({3+k-i} )\frac{1}{(k+1)!}\sum\limits_{j=1}^{i-1}P_{i-1,j}(k)j^k\right) -\sum\limits_{j=1}^{i-1}P_{i,j}(k+1)j^{k+1} \text{ avec ${\cal H}_{i-1}$}\\&=& (k+1)!i{\mathbb{P}}\left( X_{k}=i\right) + \sum\limits_{j=1}^{i-1}\left(\underbrace{({3+k-i} )P_{i-1,j}(k)}j^k -P_{i,j}(k+1)j^{k+1 }\right)\\&=& (k+1)!i{\mathbb{P}}\left( X_{k}=i\right) + \sum\limits_{j=1}^{i-1}\left(\underbrace{\varphi_{i,j}(P_{i,j}(X))(k)}j^k -P_{i,j}(k+1)j^{k+1 }\right)\\&=& (k+1)!i{\mathbb{P}}\left( X_{k}=i\right) + \sum\limits_{j=1}^{i-1}\left(\underbrace{(jP_{i,j}(X+1)-iP(X))(k)}j^k -P_{i,j}(k+1)j^{k+1 }\right)\\&=& (k+1)!i{\mathbb{P}}\left( X_{k}=i\right) + \sum\limits_{j=1}^{i-1}\left(j^{k+1}P_{i,j}(k+1)-iP_{i,j}(k)j^k -P_{i,j}(k+1)j^{k+1 }\right)\\&=& i\left((k+1)!{\mathbb{P}}\left( X_{k}=i\right) - \sum\limits_{j=1}^{i-1}P_{i,j}(k)j^k\right) = i \alpha_k.\end{array}\]

Donc (\alpha _k) est géométrique de raison i donc, pour tout k\in \mathbb{N}, \alpha_k=i^k\alpha_0.

Or \alpha_0= (0+1)!{\mathbb{P}}\left( X_{0}=i\right) - \sum\limits_{j=1}^{i-1}P_{i,j}(0)j^0=P_{i,i}(X) car i>1 donc \mathbb{P}\left( X_{0}=i\right)=0.

Donc \alpha_k=-i^kP_{i,i}(X) donc (k+1)!\mathbb{P}\left( X_{k}=i\right) - \sum\limits_{j=1}^{i-1}P_{i,j}(k)j^k = i^kP_{i,i}(k) car P_{i,i} est un polynôme constant.

Donc (k+1)!\mathbb{P}\left( X_{k}=i\right) = \sum\limits_{j=1}^{i-1}P_{i,j}(k)j^k + i^kP_{i,i}(k) = \sum\limits_{j=1}^{i}P_{i,j}(k)j^k.

Cela prouve que {\cal H}_i est vraie.

16/ c/ Le 16(a) initialise la récurrence, le 16(b) assure l’hérédité donc, pour tout i\in\mathbb{N}^*, on a, pour tout k\in\mathbb{N},

    \[\mathbb{P}\left( X_{k}=i\right) = \frac{1}{(k+1)!}\sum\limits_{j=1}^{i}P_{i,j}(k)j^k .\]

17/ a/ Au 7(c), il est vu que, pour tout k\in\mathbb{N}, \mathbb{P}(X_k=2)=\frac{2^{k+1}-k-2}{(k+1)!}.

Le 15(a) donne P_{2,1}(X)=-X-2 donc avec la question 16, on a

    \[\mathbb{P}\left( X_{k}=2\right) = \frac{1}{(k+1)!}\sum\limits_{j=1}^{2}P_{2,j}(k)j^k =\frac{1}{(k+1)!}\left( P_{2,1}(k)+P_{2,2}(k)2^k \right)= \frac{1}{(k+1)!}\left( -k-2+2^{k+1} \right).\]

Les résultats sont identiques.

17/ b/ Soit k\in\mathbb{N}^*,

    \[\mathbb{P}\left( X_{k}=3\right) = \frac{1}{(k+1)!}\sum\limits_{j=1}^{3}P_{3,j}(k)j^k = \frac{1}{(k+1)!}\left( P_{3,1}(k)+P_{3,2}(k)2^k+P_{3,3}(k)3^k \right)\]


    \[= \frac{1}{(k+1)!}\left( \frac12 k^2+\frac32 k +1+\left( -2k-4 \right)2^k+3^{k+1} \right).\]

 

Contact

  • 3 rue de l'Estrapade 75005 Paris
  • contact@groupe-reussite.fr
  • 01 84 88 32 69
Qui sommes-nous ?
  • Témoignages et avis
  • Notre équipe
Nous rejoindre
  • Devenir professeur particulier
Copyright @ GROUPE REUSSITE - Mentions légales
groupe-reussite.fr est évalué 4,9/5 par 1049 clients sur Google France