Logo Groupe Réussite
Groupe Réussite
  • Cours particuliers
    • Cours maths
    • Cours anglais
    • Cours physique chimie
    • Cours français
    • Cours informatique
  • Stages intensifs
  • Donner cours
  • 01 84 88 32 69

Mon parcours pour réussir en maths

Je révise en autonomie

Je progresse avec un prof

Je m’entraîne sur des annales corrigées

Je cherche un prof de maths

Avis Google France 
★★★★★ 4,9 sur 5

Corrigé du sujet HEC Maths 1 ECS 2016

Revenir à tous les corrigés des annales maths BCE

Partie I. Partitions de l’identité

1/ a/ A est une matrice triangulaire, donc ses valeurs propres sont ses coefficients diagonaux, donc

    \[\fbox{\text{$Sp(A)=\{-1,0\}$.}}\]

A a une colonne nulle et deux colonnes non proportionnelles, donc rg\left( A\right) =2.

Donc, par le théorème du rang, \dim \left( \ker \left( A\right)\right) =\dim \left( \mathcal{M}_{3,1}\left( \mathbb{R}\right) \right)-rg\left( A\right) =3-2=1.

A+I_{3}=\left( \begin{array}{ccc}1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0\end{array}\right) . Et de même \dim \left( \ker \left( A+I_{3}\right) \right) =1.

A\in \mathcal{M}_{3}\left( \mathbb{R}\right) , A admet deux valeurs propres et \dim \left( \ker \left( A\right) \right) +\dim \left( \ker \left(A+I_{3}\right) \right) =2,

donc \dim \left( \ker \left( A\right) \right) +\dim \left( \ker \left(A+I_{3}\right) \right) \neq 3, donc

    \[\fbox{\text{$A$ n'est pas diagonalisable.}}\]

b/ Après calculs, on trouve : A^{2}=\left( \begin{array}{ccc}0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 1\end{array}\right) et A^{3}=\left( \begin{array}{ccc}0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & -1\end{array}\right) , donc A^{3}+A^{2}=0,

donc

    \[\fbox{\text{$X^{3}+X^{2}$ est un polyn\^ome annulateur de $A.$}}\]

c/ Supposons qu’il existe un polynôme T de degré 2 et annulateur de A.

On note T=aX^{2}+bX+c avec a\neq 0.

T\left( A\right) =0, donc aA^{2}+bA+cI_{3}=0, donc \left( \begin{array}{ccc}c & b & 0 \\ 0 & c & 0 \\ 0 & 0 & c-b+a\end{array}\right) =0, donc c=b=a=0.

Contradiction puisque a\neq 0.

Donc

    \[\fbox{\text{il n'existe pas de polyn\^ome de degr\'e $2$ annulateur de $A.$}}\]

d/ Q\left( X\right) =X^{3}+X^{2} est un polynôme annulateur de A, donc de f.

Donc f^{3}+f^{2}=0_{\mathcal{L}\left( \mathbb{R}^{3}\right) }, donc f^{3}+f^{2}+Id_{\mathbb{R}^{3}}=Id_{\mathbb{R}^{3}}.

En prenant Q_{1}\left( X\right) =X^{3}+X^{2}, et Q_{2}\left( X\right) =1,
donc Q_{1}\left( f\right) =f^{3}+f^{2} et Q_{2}\left( f\right) =Id_{\mathbb{R}^{3}},

on a bien Q_{1}\left( f\right) +Q_{2}\left( f\right) =Id_{\mathbb{R}^{3}}, Q_{1}\left( f\right) ^{2}=Q_{1}\left( f\right) =0_{\mathcal{L}\left( \mathbb{R}^{3}\right) } et Q_{2}\left( f\right) ^{2}=Q_{2}\left( f\right) =Id_{\mathbb{R}^{3}}.

Donc

    \[\fbox{\text{$Q_{1}\left( X\right) =X^{3}+X^{2},$ et $Q_{2}\left( X\right) =X$$\:$ conviennent.}}\]

2/ a/ f est diagonalisable, donc

    \[\fbox{\text{$E=\bigoplus\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right) .$}}\]

Pour la suite de la question, on pose Q=\prod\limits_{j=1}^{k}\left(X-\lambda _{j}\right) .

Soit x\in E. Alors \exists !\left( x_{1},x_{2},...,x_{k}\right) \in\prod\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right)\,\,/\,\,x=\sum\limits_{i=1}^{k}x_{i}.

Soit alors i\in \left[ \!\left[ 1,k\right] \!\right] .

    \begin{eqnarray*} Q\left( f\right) \left( x_{i}\right) &=&\left[\bigodot\limits_{j=1}^{k}\left( f-\lambda _{j}Id_{E}\right) \right] \left(x_{i}\right) \\ &=& \left[ \left( \bigodot\limits_{\substack{ 1\leqslant j\leqslant k \\ j\neq i }} \left( f-\lambda _{j}Id_{E}\right) \right) \circ \left(f-\lambda _{i}Id_{E}\right) \right] \left( x_{i}\right) \\ & =& \left( \bigodot\limits_{\substack{ 1\leqslant j\leqslant k \\ j\neq i } }\left( f-\lambda _{j}Id_{E}\right) \right) \underset{=0\text{ car }x_{i}\in E_{\lambda _{i}}\left( f\right) }{\underbrace{\left( f\left(x_{i}\right) -\lambda _{i}x_{i}\right) }} \\ &=&\left( \bigodot\limits_{\substack{1\leqslant j\leqslant k \\ j\neq i }} \left( f-\lambda _{j}Id_{E}\right)\right) \left( 0_{E}\right) \\ \end{eqnarray*}

 

Donc Q\left( f\right) \left( x_{i}\right) =0_{E}.

Donc, par linéarité de Q\left( f\right) , Q\left( f\right) \left(x\right) =\sum\limits_{i=1}^{k}\underset{=0_{E}}{\underbrace{Q\left(f\right) \left( x_{i}\right) }}=0_{E}.

Donc Q\left( f\right) =0_{\mathcal{L}\left( E\right) }, donc

    \[\fbox{\text{$Q=\prod\limits_{j=1}^{k}\left( X-\lambda _{j}\right) $ est un polyn\^ome annulateur de $f.$}}\]

b/ Soit i\in \left[ \!\left[ 1,k\right] \!\right] .

\left( X-\lambda _{i}\right) \times L_{i}=\left( X-\lambda _{i}\right)\times \prod\limits_{\substack{ 1\leqslant j\leqslant k \\ j\neq i }} \left( \frac{X-\lambda _{j}}{\lambda _{i}-\lambda _{j}}\right) =\underset{=c,\text{ }c\text{ r\'eel fix\'e}}{\underbrace{\prod\limits_{\substack{ 1\leqslantj\leqslant k \\ j\neq i }} \left( \frac{1}{\lambda _{i}-\lambda _{j}}\right) }}\times Q\left( X\right) .

Donc \left( f-\lambda _{i}Id_{E}\right) \circ L_{i}\left( f\right)=c.Q\left( f\right) =0_{\mathcal{L}\left( E\right) } car Q est un polynôme annulateur de f.

Donc \left( f-\lambda _{i}Id_{E}\right) \circ v_{i}=0_{\mathcal{L}\left(E\right) }, donc \func{Im}\left( v_{i}\right) \subset \ker \left(f-\lambda _{i}Id_{E}\right) .

Donc

    \[\fbox{\text{$\func{Im}\left( v_{i}\right) \subset E_{\lambda _{i}}\left(f\right) .$}}\]

c/ \bullet Soit i\in \left[ \!\left[ 1,k\right] \!\right] .

L_{i} est donné sous forme factorisée, donc les racines de L_{i} sont les réels \lambda _{j}, j\in \left[ \!\left[ 1,k\right]\!\right] \backslash \left\{ i\right\} .

Et on a clairement L_{i}\left( \lambda _{i}\right) =1.

Donc L_{i}\left( \lambda _{j}\right) =\left\{ \begin{array}{c}0\text{ si }i\neq j \\ 1\text{ si }i=j\end{array}\right. .

\bullet Soit j\in \left[ \!\left[ 1,k\right] \!\right] . \sum\limits_{i=1}^{k}L_{i}\left( \lambda _{j}\right) =\underset{=1}{\underbrace{L_{i}\left( \lambda _{i}\right) }}+\sum\limits_{\substack{ 1\leqslanti\leqslant k \\ i\neq j }} \underset{=0}{\underbrace{L_{i}\left(\lambda _{j}\right) }}=1, donc

    \[\fbox{\text{$\sum\limits_{i=1}^{k}L_{i}\left(\lambda _{j}\right) =1.$}}\]

\bullet Soit x\in E. E=\bigoplus\limits_{i=1}^{k}E_{\lambda _{i}}\left(f\right) , donc \exists !\left( x_{1},x_{2},...,x_{k}\right) \in\prod\limits_{j=1}^{k}E_{\lambda _{j}}\left( f\right)\,\,/\,\,x=\sum\limits_{j=1}^{k}x_{j}.

Soit \left( i,j\right) \in \left[ \!\left[ 1,k\right] \!\right] ^{2}.

Ou bien x_{j}\neq 0. Alors x_{j} est vecteur propre de f associé à la valeur propre \lambda _{j}, donc x_{j} est vecteur propre de L_{i}\left( f\right) associé à la valeur propre L_{i}\left(\lambda _{j}\right) , donc L_{i}\left( f\right) \left( x_{j}\right)=L_{i}\left( \lambda _{j}\right) .x_{j}.

Ou bien x_{j}=0, et alors la formule précédente est clairement vraie.

D’où v_{i}\left( x_{j}\right) =L_{i}\left( f\right) \left(x_{j}\right) =L_{i}\left( \lambda _{j}\right) .x_{j}.

Soit j\in \left[ \!\left[ 1,k\right] \!\right] . \left(\sum\limits_{i=1}^{k}v_{i}\right) \left( x_{j}\right)=\sum\limits_{i=1}^{k}v_{i}\left( x_{j}\right)=\sum\limits_{i=1}^{k}L_{i}\left( \lambda _{j}\right) .x_{j}=\underset{=1}{\underbrace{\left( \sum\limits_{i=1}^{k}L_{i}\left( \lambda _{j}\right)\right) }}.x_{j}=x_{j}.

On pose g=\sum\limits_{i=1}^{k}v_{i}. \quad g\left( x\right) =g\left(\sum\limits_{j=1}^{k}x_{j}\right) =\sum\limits_{j=1}^{k}g\left( x_{j}\right)=\sum\limits_{j=1}^{k}x_{j}=x.

Donc \forall x\in E,\,\,\,\left( \sum\limits_{i=1}^{k}v_{i}\right) \left(x\right) =x, donc \sum\limits_{i=1}^{k}v_{i}=Id_{E}

et

    \[\fbox{\text{$v_{1},v_{2},...,v_{k}$ constituent une partition de l'identit\'e$\:$ de $E.$}}\]

d/ \forall x\in E,\,\,\,\,x=\sum\limits_{i=1}^{k}\underset{\in \func{Im}\left( v_{i}\right) }{\underbrace{v_{i}\left( x\right) }}, donc E\subset\sum\limits_{i=1}^{k}\func{Im}\left( v_{i}\right) . L’inclusion inverse étant claire, on a

    \[\fbox{\text{$E=\sum\limits_{i=1}^{k}\func{Im}\left(v_{i}\right) .$}}\]

Or \forall i\in \left[ \!\left[ 1,k\right] \!\right] ,\,\,\,\func{Im}\left(v_{i}\right) \subset E_{\lambda _{i}}\left( f\right) ,donc E=\sum\limits_{i=1}^{k}\func{Im}\left( v_{i}\right) \subset\sum\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right)=\bigoplus\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right) =E,

donc \sum\limits_{i=1}^{k}\func{Im}\left( v_{i}\right)=\bigoplus\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right) .

Comme \forall i\in \left[ \!\left[ 1,k\right] \!\right] ,\,\,\,\func{Im}\left( v_{i}\right) \subset E_{\lambda _{i}}\left( f\right) , la somme \sum\limits_{i=1}^{k}\func{Im}\left( v_{i}\right) est directe aussi

et \bigoplus\limits_{i=1}^{k}\func{Im}\left( v_{i}\right)=\bigoplus\limits_{i=1}^{k}E_{\lambda _{i}}\left( f\right) .

Notons alors, pour i\in \left[ \!\left[ 1,k\right] \!\right] ,\,\,\,r_{i}=\func{Im}\left( v_{i}\right) et \alpha _{i}=E_{\lambda _{i}}\left(f\right) .

On a donc \sum\limits_{i=1}^{k}r_{i}=\sum\limits_{i=1}^{k}\alpha _{i}, donc \sum\limits_{i=1}^{k}\underset{\geqslant 0}{\underbrace{\left(\alpha _{i}-r_{i}\right) }}=0.

Or une somme de termes positifs est nulle si et seulement si chacun des termes de la somme est nulle, donc \forall i\in \left[ \!\left[ 1,k\right]\!\right] ,\,\,\,r_{i}=\alpha _{i}.

Et comme on a toujours \forall i\in \left[ \!\left[ 1,k\right] \!\right],\,\,\,\func{Im}\left( v_{i}\right) \subset E_{\lambda _{i}}\left( f\right) , on en déduit que

    \[\fbox{\text{$\forall i\in \left[ \!\left[ 1,k\right]\!\right] ,\,\,\,\func{Im}\left( v_{i}\right) =E_{\lambda _{i}}\left(f\right) .$}}\]

Soit x\in E. On a toujours \exists !\left( x_{1},x_{2},...,x_{k}\right)\in \prod\limits_{j=1}^{k}E_{\lambda _{j}}\left( f\right)\,\,/\,\,x=\sum\limits_{j=1}^{k}x_{j}. Donc x=x_{1}+y, où y=\sum\limits_{j=2}^{k}x_{j}.

On note F=\bigoplus\limits_{j=2}^{k}E_{\lambda _{j}}\left( f\right) .

On a E=E_{\lambda _{1}}\left( f\right) +F, et \dim \left( E_{\lambda_{1}}\left( f\right) \right) +\dim \left( F\right) =\dim \left( E_{\lambda_{1}}\left( f\right) \right) +\sum\limits_{j=2}^{k}\dim \left( E_{\lambda_{j}}\left( f\right) \right) =\dim \left( E\right) ,

donc E=E_{\lambda _{1}}\left( f\right) \bigoplus F.

De plus, v_{1}\left( x_{1}\right) =L_{1}\left( f\right) \left( x_{1}\right)=L_{1}\left( \lambda _{1}\right) .x_{1}=x_{1}.

Et v_{1}\left( y\right) =\sum\limits_{j=2}^{k}v_{1}\left( x_{j}\right)=\sum\limits_{j=2}^{k}L_{1}\left( f\right) \left( x_{j}\right)=\sum\limits_{j=2}^{k}\underset{=0}{\underbrace{L_{1}\left( \lambda_{j}\right) }}\left( x_{j}\right) =0.

Donc, v_{1}\left( x\right) =v_{1}\left( x_{1}\right)+\sum\limits_{j=2}^{k}v_{1}\left( x_{j}\right) =x_{1},

donc

    \[\fbox{\text{$v_{1}$ est le projecteur sur $\func{Im}\left( v_{1}\right)=E_{\lambda _{1}}\left( f\right) $ parall\`element à $F=\bigoplus\limits_{j=2}^{k}E_{\lambda _{j}}\left( f\right) .$}}\]

3/ a/ On a Id_{E}=\sum\limits_{i=1}^{k}u_{i}, donc \forall x\inE,\,\,\,\,x=\sum\limits_{i=1}^{k}\underset{\in \func{Im}\left(u_{i}\right) }{\underbrace{u_{i}\left( x\right) }}, donc E\subset\sum\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) . L’inclusion inverse
étant claire, on a

    \[\fbox{\text{$E=\sum\limits_{i=1}^{k}\func{Im}\left(u_{i}\right) .$}}\]

On note, pour 1\leqslant i\leqslant k, \mathcal{C}_{i} une base de \func{Im}\left( u_{i}\right) .

On note \mathcal{C} la concaténation des \mathcal{C}_{i},1\leqslanti\leqslant k.

Soit x\in E. E=\sum\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) , donc \exists \left( x_{1,}x_{2},...,x_{k}\right) \in \prod\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) tel que x=\sum\limits_{i=1}^{k}x_{i}.

Or pour tout i\in \left[ \!\left[ 1,k\right] \!\right] ,\, x_{i} est combinaison des éléments de \mathcal{C}_{i} (puisque \mathcal{C}_{i} est une base de \func{Im}\left( u_{i}\right)),

donc x_{i} est combinaison linéaire des éléments de \mathcal{C} (puisque \mathcal{C}_{i}\subset \mathcal{C}).

Donc x est combinaison linéaire des éléments de \mathcal{C}.

On en déduit que \mathcal{C} est une famille génératrice de E, donc \dim \left( E\right) \leqslant card\left( \mathcal{C}\right)=\sum\limits_{i=1}^{k}\underset{=r_{i}}{\underbrace{card\left( \mathcal{C}_{i}\right) }}.

Donc

    \[\fbox{\text{$n\leqslant \sum\limits_{i=1}^{k}r_{i}.$}}\]

b/ On a E=\sum\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) . Donc par le cours,

    \[\fbox{\text{$E=\bigoplus\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) $ ssi $n=\sum\limits_{i=1}^{k}r_{i.}$}}\]

c/ \left( i\right) On suppose que les endomorphismes u_{1},u_{2},...,u_{k} sont des projecteurs.

Soit 1\leqslant i\leqslant k. On note, M_{i}=Mat_{\mathcal{B}}\left(u_{i}\right) .

u_{i} est un projecteur, donc \exists P_{i}\in GL_{n}\left( \mathbb{R}\right) \,\,/\,\,M_{i}=P_{i}\Delta _{i}P_{i}^{-1}, où \Delta_{i}=Diag\left( \underset{r_{i}\text{ fois}}{\underbrace{1,1,...,1}},\underset{n-r_{i}\text{ fois}}{\underbrace{0,...0}}\right) .
(Éventuellement, on peut avoir r_{i}=0 ou r_{i}=n).

Deux matrices semblables ayant même trace, on a tr\left( M_{i}\right)=tr\left( \Delta _{i}\right) =r_{i}.

u_{1},...,u_{k} forment une partition de l’identité de E, donc \sum\limits_{i=1}^{k}u_{i}=Id_{E}, donc \sum\limits_{i=1}^{k}M_{i}=I_{n}.

D’où : n=tr\left( I_{n}\right) =tr\left(\sum\limits_{i=1}^{k}M_{i}\right) =\sum\limits_{i=1}^{k}tr\left(M_{i}\right) par linéarité de la trace. Donc n=\sum\limits_{i=1}^{k}r_{i}.

On a donc bien

    \[\fbox{\text{$\left( 2\right) \Rightarrow \left( 1\right) .$}}\]

\left( ii\right) On suppose que n=\sum\limits_{i=1}^{k}r_{i}.

Donc d’après la question 3.b/, E=\bigoplus\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) .

Soit j\in \left[ \!\left[ 1,k\right] \!\right] . Soit x\in E.

On a u_{j}\left( x\right) =\underset{\in \func{Im}\left( u_{1}\right) }{\underbrace{0}}+\cdots +\underset{\in \func{Im}\left( u_{j-1}\right) }{\underbrace{0}}+\underset{\in \func{Im}\left( u_{j}\right) }{\underbrace{u_{j}\left( x\right) }}+\underset{\in \func{Im}\left( u_{j+1}\right) }{\underbrace{0}}+\cdots +\underset{\in \func{Im}\left( u_{k}\right) }{\underbrace{0}} et Id_{E}=\sum\limits_{i=1}^{k}u_{i},

d’où :

u_{j}\left( x\right) =\sum\limits_{i=1}^{k}u_{i}\circ u_{j}\left(x\right) =\underset{\in \func{Im}\left( u_{1}\right) }{\underbrace{u_{1}\circ u_{j}\left( x\right) }}+\cdots +\underset{\in \func{Im}\left(u_{j-1}\right) }{\underbrace{u_{j-1}\circ u_{j}\left( x\right) }}+\underset{\in \func{Im}\left( u_{j}\right) }{\underbrace{u_{j}\circ u_{j}\left( x\right) }}

+ \underset{\in \func{Im}\left( u_{j+1}\right) }{\underbrace{u_{j+1}\circ u_{j}\left( x\right) }}+\cdots +\underset{\in \func{Im}\left( u_{k}\right) }{\underbrace{u_{k}\circ u_{j}\left( x\right) }}

Or E=\bigoplus\limits_{i=1}^{k}\func{Im}\left( u_{i}\right) , donc par unicité de la décomposition, on a \left\{ \begin{array}{l}u_{j}\circ u_{j}\left( x\right) =u_{j}\left( x\right) \\ u_{i}\circ u_{j}\left( x\right) =0\text{ si }i\neq j\end{array}\right.

Donc pour tout \left( i,j\right) \in \left[ \!\left[ 1,k\right] \!\right]^{2} tel que i\neq j: \forall x\in E,\,\,\,u_{i}\circ u_{j}\left(x\right) =0, donc u_{i}\circ u_{j}=0_{\mathcal{L}\left( E\right) }.

On a donc bien

    \[\fbox{\text{$\left( 1\right) \Rightarrow \left( 3\right) .$}}\]

\left( iii\right) On suppose que pour tout \left( i,j\right)\in \left[ \!\left[ 1,k\right] \!\right] ^{2} tel que i\neq j, u_{i}\circ u_{j}=0_{\mathcal{L}\left( E\right) }.

Soit j\in \left[ \!\left[ 1,k\right] \!\right] .

Id_{E}=\sum\limits_{i=1}^{k}u_{i}, donc u_{j}=\sum\limits_{i=1}^{k}u_{i}\circ u_{j}=u_{j}\circ u_{j}+\sum\limits_{i\neq j}\underset{=0}{\underbrace{u_{i}\circ u_{j}}}=u_{j}\circ u_{j}.

Donc u_{j}^{2}=u_{j}, donc u_{j} est un projecteur.

Donc on a bien \left( 3\right) \Rightarrow \left( 2\right) .

Et on a montré que \left( 2\right) \Rightarrow \left( 1\right)\Rightarrow \left( 3\right) \Rightarrow \left( 2\right) .

    \[\fbox{\text{Les propri\'et\'es $\left( 1\right) ,\left( 2\right) $ et $\left(3\right) $ sont \'equivalentes.}}\]

 

COURS DE MATHS

Les meilleurs professeurs particuliers

Pour progresser et réussir

Cours particuliers maths

Avis Google France ★★★★★ 4,9 sur 5

 

Partie II. Représentation matricielle d’un projecteur orthogonal

4/ a/ D’après le cours, p est un projecteur orthogonal ssi p est un projecteur et un endomorphisme symétrique.

\bullet p est un projecteur ssi p\circ p=p ssi P^{2}=P

\bullet \mathcal{B} est une base orthonormée et P=Mat_{\mathcal{B}}\left( p\right)

D’où : p est un endomorphisme symétrique ssi ^{t}P=P.

Donc

    \[\fbox{\text{$p$ est un projecteur orthogonal ssi $P^{2}=P$ et $\,^{t}P=P.$}}\]

b/ \bullet Supposons qu’il existe \alpha réel et p projecteur orthogonal tel que f=\alpha p.

On note P=mat_{\mathcal{B}}\left( p\right) .

tr\left( M\right) M^{2}=tr\left( \alpha P\right) \left( \alpha P\right)^{2}=\alpha ^{3}tr\left( P\right) P^{2} par linéarité de la trace.

Donc tr\left( M\right) M^{2}=\alpha ^{3}tr\left( P\right) P car P est un projecteur.

De même tr\left( M^{2}\right) M=tr\left( \alpha ^{2}P^{2}\right) \left(\alpha P\right) =\alpha ^{3}tr\left( P^{2}\right) P=\alpha ^{3}tr\left(P\right) P.

Donc tr\left( M\right) M^{2}=tr\left( M^{2}\right) M

De plus ^{t}M=\alpha \,^{t}P=\alpha P car P est un projecteur orthogonal, donc ^{t}M=M.

\bullet Supposons que tr\left( M\right) M^{2}=tr\left(M^{2}\right) M et  ^{t}M=M.

Ou bien tr\left( M^{2}\right) =0. On pose M=\left(m_{i,j}\right) _{1\leqslant i,j\leqslant n}, donc M^{2}=\left(\sum\limits_{s=1}^{n}m_{i,s}m_{s,j}\right) _{1\leqslant i,j\leqslant n}.

Or M est symétrique, donc M^{2}=\left(\sum\limits_{s=1}^{n}m_{i,s}m_{j,s}\right) _{1\leqslant i,j\leqslant n}.

Donc tr\left( M^{2}\right)=\sum\limits_{i=1}^{n}\sum\limits_{s=1}^{n}m_{i,s}m_{i,s}=\sum\limits_{i=1}^{n}\sum\limits_{s=1}^{n}\left( m_{i,s}\right) ^{2}. Or tr\left( M^{2}\right) =0 et une somme de termes positifs est nulle si et seulement si chacun de ses termes est nul, donc \forall \left( i,s\right)\in \left[ \!\left[ 1,n\right] \!\right] ^{2},\,\,m_{i,s}=0.

Donc M=0 et en prenant \alpha =0 et p=0_{\mathcal{L}\left( E\right) }, on a bien f=\alpha p avec p projecteur orthogonal.

Ou bien tr\left( M\right) =0. Alors tr\left( M^{2}\right) M=0, donc tr\left( M^{2}\right) =0 ou M=0 et on est ramené au cas précédent.

Ou bien tr\left( M\right) \neq 0 et tr\left( M^{2}\right) \neq0.

Alors on pose \alpha =\frac{tr\left( M^{2}\right) }{tr\left( M\right) }, P=\frac{tr\left( M\right) }{tr\left( M^{2}\right) }M et p l’endomorphisme de E de matrice P dans la base \mathcal{B}.

On a bien M=\alpha P et ^{t}P=P car \frac{tr\left( M\right) }{tr\left( M^{2}\right) } réel et ^{t}M=M.

D’autre part P^{2}=\left( \frac{tr\left( M\right) }{tr\left( M^{2}\right) }\right) ^{2}M^{2}=\frac{tr\left( M\right) }{tr\left( M^{2}\right) }\times \frac{1}{tr\left( M^{2}\right) }\,.\,\underset{=tr\left( M^{2}\right) M}{\underbrace{tr\left( M\right) M^{2}}}=\frac{tr\left( M\right) }{tr\left(M^{2}\right) }M=P.

P^{2}=P et ^{t}P=P, donc p est un projecteur orthogonal (par 4.a), et on a bien trouvé \alpha et p projecteur orthogonal tels que f=\alpha p.

5/ a/

function t=tr(A)  (on entre une matrice carrée)

    n=length\left( A\left( :,1\right) \right)

    t=0

    for\,\,\,i=1:n

        t=t+A\left( i,i\right)

    end

endfunction

b/ Signification de la ligne \left( 5\right) . On note A=\left(a_{i,j}\right) _{1\leqslant i,j\leqslant n}

On affecte à b la valeur True si b contient déjà True \textbf{et} a_{i,j}=a_{j,i}.

Donc tant que les coefficients a_{i,j} et a_{j,i} sont égaux, b reçoit True, et si à un moment on a a_{i,j}\neq a_{j,i}, alors b reçoit False. Dans ce dernier cas, b garde la valeur False jusqu’à la fin des deux boucles, car False\,\,\,\&\,\,\,False=False et False\,\,\,\&\,\,\,True=False.

\bullet A=\left( \begin{array}{ccc}1 & 0 & -1 \\ 0 & 2 & 5 \\ -1 & 5 & -2\end{array}\right) .

b est initialisé à \%T.

Pour i=1

   Pour j=2, b est Vrai \textbf{et } ^{\prime \prime}a_{1,2}=a_{2,1}\,^{\prime \prime } est Vrai, donc b garde la valeur \%T.

   Pour j=3, b est Vrai \textbf{et } ^{\prime \prime }a_{1,3}=a_{3,1}\,^{\prime \prime } est Vrai, donc b garde la valeur \%T.

De même pour i=2. Et b aura la valeur \T à la fin de la fonction, ce qui est bien cohérent avec le fait que A est symétrique.

\bullet A=\left( \begin{array}{ccc}1 & 0 & -1 \\ 3 & 2 & 5 \\ 2 & 5 & -2\end{array}\right) .

b est initialisé à \T.

Pour i=1

   Pour j=2, b est Vrai \textbf{et }^{\prime \prime}a_{1,2}=a_{2,1}\,^{\prime \prime } est Faux, donc b prend la valeur \%F.

   Pour j=3,\,\,b est Faux, donc peu importe la valeur de \,\,^{\prime \prime }\,A\left(i,j\right) ==A\left( j,i\right) \,^{\prime \prime }, donc b garde la
valeur \%F.

De même pour i=2. Et b aura la valeur \%F à la fin de la fonction.

c/ Il reste à tester si tr\left( M\right) M^{2}=tr\left( M^{2}\right) M, c’est-à dire si A=B.

Dans l’instruction ^{\prime \prime}\,\,if\,\,\,b\,\,\,then\,\,\,...\,\,\,^{\prime \prime }, on n’effectue le ^{\prime \prime }\,\,then\,\,^{\prime \prime } que si b est Vrai, c’est-à dire si M est symétrique. On a alors A et B symétriques, donc il suffit de tester si les termes des triangles supérieurs de A et B \: sont égaux pour savoir si A et B sont égaux.

La ligne manquante est : b=\left( b\,\,\&\,\,\left( A\left( i,j\right)==B\left( i,j\right) \right) \right) .

\bullet M=\left( \begin{array}{cc}1 & 1 \\ 1 & 0\end{array}\right) . M est bien symétrique. Après calculs A=\left( \begin{array}{cc}2 & 1 \\ 1 & 1\end{array}\right) et B=\left( \begin{array}{cc}3 & 3 \\ 3 & 0\end{array}\right) ,

donc b=\%F.

\bullet M=\left( \begin{array}{cc}1 & 1 \\ 1 & 1\end{array}\right) . M est bien symétrique. Après calculs A=\left( \begin{array}{cc}4 & 4 \\ 4 & 4\end{array}\right) =B, donc b=\%T.

6/ a/ Supposons X\in \ker \left( S\right) . Alors SX=0, donc  ^{t}S\,SX=0, donc X\in \ker \left( \,^{t}S\,S\right) .

Supposons X\in \ker \left( \,^{t}S\,S\right) . Alors ^{t}S\,S\,X=0, donc ^{t}X\,^{t}S\,S\,X=0, donc ^{t}\left( SX\right) \,SX=0.

On considère alors le produit scalaire canonique sur \mathcal{M}_{n,1}\left( \mathbb{R}\right) , on a donc \left\| SX\right\| ^{2}=0.

Donc SX=0 et X\in \ker \left( S\right) .

On a donc montré que

    \[\fbox{\text{$\ker \left( S\right) =\ker \left(\,^{t}S\,S\right) .$}}\]

On a \,^{t}S\,S\in \mathcal{M}_{k}\left( \mathbb{R}\right) et S\in \mathcal{M}_{n,k}\left( \mathbb{R}\right) . Notons \varphi l’endomorphisme de \mathbb{R}^{k} canoniquement associé à ^{t}S\,S et \psi l’application linéaire de \mathbb{R}^{k} dans \mathbb{R}^{n} canoniquement associée à S. \mathbb{R}^{k} est donc l’ensemble de départ des deux applications linéaires \varphi et \psi .

Alors, par le théorème du rang,

    \begin{eqnarray*} rg\left( S\right) =\dim \left( \mathbb{R}^{k}\right) -\dim \left( \ker \left(S\right) \right) &=& \dim \left( \mathbb{R}^{k}\right) -\dim \left( \ker \left(\,^{t}S\,S\right) \right) \\ &=& rg\left( \,^{t}S\,S\right) \end{eqnarray*}

Donc

    \[\fbox{\text{$rg\left( S\right) =rg\left( \,^{t}S\,S\right) .$}}\]

b/ On note, pour j\in \left[ \!\left[ 1,k\right] \!\right],\,\,\,S_{j}=\left( \begin{array}{c}s_{1,j} \\ s_{2,j} \\ \vdots \\ s_{n,j}\end{array}\right) .

Soit y\in E.

y\in F \Leftrightarrow \exists \left( \alpha _{1},...,\alpha _{k}\right)\in \mathbb{R}^{k}\,\,\,/\,\,\,y=\sum\limits_{j=1}^{k}\alpha _{j}s_{j}

\Leftrightarrow \exists \left( \alpha _{1},...,\alpha_{k}\right) \in \mathbb{R}^{k}\,\,\,/\,\,\,Y=\sum\limits_{j=1}^{k}\alpha_{j}S_{j}

\Leftrightarrow \exists \left( \alpha _{1},...,\alpha_{k}\right) \in \mathbb{R}^{k}\,\,\,/\,\,\,\forall i\in \left[ \!\left[1,n\right] \!\right] ,\,\,\,y_{i}=\sum\limits_{j=1}^{k}\alpha _{j}s_{i,j}

\Leftrightarrow \exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ \: (On a posé Z=\left( \begin{array}{c}\alpha _{1} \\ \vdots \\ \alpha _{k}\end{array}\right)).

Donc

    \[\fbox{\text{$y\in F\Leftrightarrow \exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ.$}}\]

c/ F=\left\{ y\in F\,\,\,\text{tels que }\exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ\right\} .

Or \left\{ Y\in \mathcal{M}_{n,1}\left( \mathbb{R}\right) \,\,\,\text{tels que }\exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ\right\}=\left\{ SZ,\,\,\,Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \right\} .

y\in F^{\perp }\Leftrightarrow \forall x\in F,\,\,\,\left\langle y,x\right\rangle =0

\Leftrightarrow \forall Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) ,\,\,\,^{t}Y\times SZ=0 (expression du produit scalaire dans la base orthonormée \mathcal{B} )

\Leftrightarrow \forall \: Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) ,\,\,\,\left( ^{t}YS\right) \times Z=0

\Leftrightarrow \,^{t}Y\,S=0

\Leftrightarrow \,^{t}S\,Y=0 (en transposant)

Donc

    \[\fbox{\text{$y\in F^{\perp }\Leftrightarrow \,^{t}S\,Y=0.$}}\]

d/ Soit x\in E et y=p_{F}\left( x\right) .

y=p_{F}\left( x\right) donc y\in F, donc \exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ.

y=p_{F}\left( x\right) , donc x-y\in F^{\perp }, donc \,^{t}S\,\left(X-Y\right) =0, donc ^{t}SX=\,^{t}SY.

Donc

    \[\fbox{\text{$\exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right)\,\,/\,\,\,Y=SZ$ et $^{t}SX=\,^{t}S\,S\,Z.$}}\]

e/ On suppose que \mathcal{F} est libre.

Donc rg\left( S\right) =k, et par la question a), rg\left( \,^{t}S\,S\right) =k.

Or \,^{t}S\,S\in \mathcal{M}_{k}\left( \mathbb{R}\right) , donc ^{t}S\,S est inversible.

De plus, d’après d/ \exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right)\,\,/\,\,\,Y=SZ et ^{t}SX=\,^{t}S\,S\,Z,

donc \exists Z\in \mathcal{M}_{k,1}\left( \mathbb{R}\right) \,\,/\,\,\,Y=SZ et Z=\left( \,^{t}S\,S\right) ^{-1} ^{t}SX,

donc Y=S\,\left( \,^{t}S\,S\right) ^{-1} ^{t}SX.

Donc

    \[\fbox{\text{$Mat_{\mathcal{B}}\left( p_{F}\right) =S\,\left(\,^{t}S\,S\right) ^{-1}$ $^{t}S.$}}\]

7/ a/ M est une matrice symétrique réelle, donc est diagonalisable dans une base orthonormée de vecteurs propres, et il existe une matrice Q orthogonale et une matrice D diagonale telles que M=Q\times D\times \,^{t}Q. On note D=Diag\left( \rho _{1},\rho_{2},...,\rho _{k}\right) . Donc

    \[\fbox{\text{il existe une matrice $Q$ orthogonale, et $k$ r\'eels $\rho_{1},\rho _{2},...,\rho _{k}$ tels que $M=Q\times Diag\left( \rho _{1},\rho_{2},...,\rho _{k}\right) \times \,^{t}Q.$}}\]

b/ On a :

    \begin{eqnarray*} M\,M^{\left( -\right) }\,M&=&Q\times Diag\left( \rho _{1},...,\rho _{k}\right) \times \underset{=I_{k}}{\underbrace{\,^{t}Q\times Q}}\times Diag\left( h\left(\rho _{1}\right) ,...,h\left( \rho _{k}\right) \right) \times \,\underset{=I_{k}}{\underbrace{\,^{t}Q\times Q}}\times Diag\left( \rho _{1},...,\rho_{k}\right) \times \,^{t}Q \\ \end{eqnarray*}

car Q est une matrice orthogonale.

Donc M\,M^{\left( -\right) }\,M=Q\times Diag\left( h\left( \rho _{1}\right)\rho _{1}^{2},...,h\left( \rho _{k}\right) \rho _{k}^{2}\right) \times\,^{t}Q.

Or pour i\in \left[ \!\left[ 1,k\right] \!\right] , h\left( \rho_{i}\right) \rho _{i}^{2}=\left\{ \begin{array}{l}\rho _{i}^{2}\times \frac{1}{\rho _{i}}\text{ si }\rho _{i}\neq 0 \\ 0\text{ si }\rho _{i}=0\end{array}\right. =\left\{ \begin{array}{l}\rho _{i}\text{ si }\rho _{i}\neq 0 \\ 0\text{ si }\rho _{i}=0\end{array}\right.

Donc pour i\in \left[ \!\left[ 1,k\right] \!\right] , h\left( \rho_{i}\right) \rho _{i}^{2}=\rho _{i}, donc

    \[\fbox{\text{$M\,M^{\left( -\right)}\,M=Q\times Diag\left( \rho _{1},...,\rho _{k}\right) \times \,^{t}Q=M.$}}\]

De même, M^{\left( -\right) }\,M\,M^{\left( -\right) }=Q\timesDiag\left( \left( h\left( \rho _{1}\right) \right) ^{2}\rho _{1},...,\left(h\left( \rho _{k}\right) \right) ^{2}\rho _{k}\right) \times \,^{t}Q

et pour i\in \left[ \!\left[ 1,k\right] \!\right] ,\left( h\left( \rho_{i}\right) \right) ^{2}\rho _{i}=\left\{ \begin{array}{l}\rho _{i}\times \frac{1}{\rho _{i}^{2}}\text{ si }\rho _{i}\neq 0 \\ 0\text{ si }\rho _{i}=0\end{array}\right. =\left\{ \begin{array}{l}\frac{1}{\rho _{i}}\text{ si }\rho _{i}\neq 0 \\ 0\text{ si }\rho _{i}=0\end{array}\right. =h\left( \rho _{i}\right) .

Donc

    \[\fbox{\text{$M^{\left( -\right) }\,M\,M^{\left( -\right) }=Q\times Diag\left(h\left( \rho _{1}\right) ,...,h\left( \rho _{k}\right) \right) \times\,^{t}Q=M^{\left( -\right) }$}}\]

M\,M^{\left( -\right) }

=Q\times Diag\left( \rho _{1},...,\rho _{k}\right)\times \underset{=I_{k}}{\underbrace{\,^{t}Q\times Q}}\times Diag\left(h\left( \rho _{1}\right) ,...,h\left( \rho _{k}\right) \right) \,^{t}Q

\quad \quad \quad \quad =Q\times Diag\left( \rho _{1}h\left( \rho_{1}\right) ,...,\rho _{k}h\left( \rho _{k}\right) \right) \times \,^{t}Q.

Donc,

^{t}\left( M\,M^{\left( -\right) }\right) =\,^{t}\left(^{t}Q\right) \times \,^{t}\left( Diag\left( \rho _{1}h\left( \rho_{1}\right) ,...,\rho _{k}h\left( \rho _{k}\right) \right) \right) \times\,^{t}Q

\quad \quad \quad \quad \quad \quad \quad \quad =Q\times Diag\left( \rho_{1}h\left( \rho _{1}\right) ,...,\rho _{k}h\left( \rho _{k}\right) \right)\times \,^{t}Q.

Car une matrice diagonale est symétrique.

Donc

    \[\fbox{\text{$^{t}\left( M\,M^{\left( -\right) }\right) =M\,M^{\left( -\right)}$}}\]

On prouve de même que

    \[\fbox{\text{$^{t}\left( M^{\left( -\right)}\,M\right) =M^{\left( -\right) }\,M.$}}\]

Et on a bien montré que M^{\left( -\right) } est une inverse de Penrose-Moore de M.

c/ \left( i\right) N=\underbrace{NM}N=\underbrace{\,^{t}\left( NM\right) }\,N=\,^{t}M\,^{t}N\,N=M\,^{t}N\,N car M est symétrique.

Donc

    \[\fbox{\text{$N=M\,^{t}N\,N.$}}\]

M=\underbrace{MN}M=\underbrace{\,^{t}\left( MN\right) }\,M=\,^{t}N\,^{t}M\,M.

Or M est symétrique, donc M=\,^{t}M=\,^{t}M\,^{t}\left(\,^{t}M\right) \,^{t}\left( \,^{t}N\right) =\,^{t}M\,MN.

Et en utilisant à nouveau le fait que M est symétrique, on a

    \[\fbox{\text{$M=M^{2}N.$}}\]

\left( ii\right) On supose que M^{2}U=0. On note U_{1},U_{2},...,U_{k} les colonnes de U.

Alors, pour tout j\in \left[ \!\left[ 1,k\right] \!\right] ,\,M^{2}U_{k}=0.

Donc \, ^{t}M\,M\,U_{j}=0 car M est symétrique, donc ^{t}U_{j}\,^{t}M\,M\,U_{j}=0, donc ^{t}\left(MU_{j}\right) \,MU_{j}=0.

Et en utilisant le produit scalaire canonique sur \mathcal{M}_{k,1}\left( \mathbb{R}\right) , on a \left\| MU_{j}\right\| ^{2}=0, donc MU_{j}=0.

Donc \forall j\in \left[ \!\left[ 1,k\right] \!\right] ,\,\,\,MU_{j}=0, donc

    \[\fbox{\text{$MU=0.$}}\]

\left( iii\right) On pose U=N-M^{\left( -\right) }.

On a d’après \left( i\right) ,\,car N et M^{\left( -\right) } sont des inverses de Penrose-Moore, \,

M^{2}\,U=M^{2}N-M^{2}M^{\left( -\right) }=M-M=0. Donc M^{2}U=0, donc d’après \left( ii\right) , MU=0,

donc MN=MM^{\left( -\right) }.

De plus, en reprenant le même type de calculs qu’au \left( i\right) ,

M=M\underbrace{NM}=M\,^{t}\left( NM\right) =M\,^{t}M\,^{t}N=M^{2}\,^{t}N car N est symétrique.

Et en prenant U=\,^{t}N-\,^{t}\left( M^{\left( -\right) }\right) , on trouve de même que ci-dessus, M\,^{t}N=M\,^{t}\left( M^{\left( -\right)}\right) .

Donc N\underset{\left( i\right) }{\underbrace{=}}M\,^{t}N\, N\underset{\left( iii\right) }{\underbrace{=}}M\,^{t}\left(M^{\left( -\right) }\right) \,N\underset{M\text{ sym}}{\underbrace{=}}\,^{t}\left( M^{\left( -\right) \,M\right) }\,N\underset{\text{d\'ef}}{\underbrace{=}}M^{\left( -\right) }M\,N

Donc N\underset{\left( iii\right) }{\underbrace{=}}M^{\left( -\right)}\,M\,M^{\left( -\right) }\underset{\text{d\'ef}}{\underbrace{=}}M^{\left( -\right) }. Donc

    \[\fbox{\text{$N=M^{\left( -\right) }.$}}\]

Donc si N est une inverse de Penrose-Moore de M, alors N est unique et  N=M^{\left( -\right) }.

On a montré au a) que M^{\left( -\right) } était une inverse de Penmore-Moore de M.

Donc

    \[\fbox{\text{$M^{\left( -\right) }$ est l'unique inverse de Penrose-Moore de $M.$}}\]

8/ a/ Résultat préliminaire : soit A\in \mathcal{M}_{n,p}\left( \mathbb{R}\right) et B\in \mathcal{M}_{p,r}\left( \mathbb{R}\right) .

On a \func{Im}\left( AB\right) \subset \func{Im}\left( A\right) , donc rg\left( AB\right) \leqslant rg\left( A\right) .

Une matrice et sa transposée ayant même rang, on a

\quad rg\left( AB\right) =rg\left( \,^{t}\left( AB\right) \right) =rg\left(\,^{t}B\,^{t}A\right) \leqslant rg\left( \,^{t}B\right) =rg\left( B\right) .

Donc rg\left( AB\right) \leqslant rg\left( A\right) et rg\left( AB\right) \leqslant rg\left( B\right) .

Ici, P=\underset{=A}{\underbrace{S}}\,\,\underset{=B}{\underbrace{\left( \,^{t}S\,S\right) ^{\left( -\right) }\,^{t}S}}, donc rg\left( P\right) \leqslant rg\left( S\right) .

De plus, P=S\,\,\left( \,^{t}S\,S\right) ^{\left( -\right) }\,^{t}S, donc ^{t}S\,P\,S=\,^{t}SS\,\,\left( \,^{t}S\,S\right) ^{\left( -\right)}\,^{t}S\,S=\,^{t}S\,S par définition de \left( \,^{t}S\,S\right)^{\left( -\right) } au début du 15.

Donc ^{t}S\,P\,S=\,^{t}S\,S, donc rg\left( ^{t}S\,P\,S\right) =rg\left(\,^{t}S\,S\right) =rg\left( S\right) d’après 14.a), donc rg\left( ^{t}S\,P\,S\right) =rg\left( S\right) .

De plus, d’après le résultat préliminaire, rg\left( \,^{t}S\,P\,S\right) \leqslant rg\left( PS\right) \leqslant rg\left(P\right) .

Donc rg\left( S\right) \leqslant rg\left( P\right) .

Donc

    \[\fbox{\text{$rg\left( S\right) =rg\left( P\right) .$}}\]

b/ En utilisant les propriétés de \left( \,^{t}S\,S\right) ^{\left(-\right) }, on montre que ^{t}P=P et que P^{2}=P, donc que P est la matrice d’un projecteur orthogonal que l’on note p.

D’après 14.c/ pour x\in F^{\perp }, On a ^{t}S\,X=0, donc PX=0, donc F^{\perp }\subset \ker \left( p\right) .

Or \dim \left( F^{\perp }\right) =n-\dim \left( F\right) =n-rg\left(S\right) =n-rg\left( P\right) =\dim \left( \ker \left( p\right) \right) . Donc F^{\perp }=\ker \left( p\right) .

Donc

    \[\fbox{\text{$p$ est le projecteur orthogonal sur $F$. }}\]

9/ a/ On sait que rg\left( S\right) =rg\,\left( \,^{t}S\,S\right) . Or ^{t}S\,S\in \mathcal{M}_{2}\left( \mathbb{R}\right) et ^{t}S\,S n’est pas inversible, donc rg\left( \,^{t}S\,S\right) \leqslant1, donc rg\left( S\right) \leqslant 1 et \left( s_{1},s_{2}\right) est une famille liée.

Comme s_{1}\neq 0, \exists \theta \in \mathbb{R}\,\,/\,\,s_{2}=\theta s_{1}, donc

    \[\fbox{\text{$\exists \theta \in \mathbb{R}\,\,/\,\,\forall i\in \left[ \!\left[1,n\right] \!\right] ,\,\,\beta _{i}=\theta \alpha _{i}.$}}\]

b/ On a :

    \begin{eqnarray*} ^{t}S\,S&=&\left( \begin{array}{ccc}\alpha _{1} & \cdots & \alpha _{n} \\ \theta \alpha _{1} & \cdots & \theta \alpha _{n}\end{array}\right) \left( \begin{array}{cc}\alpha _{1} & \theta \alpha _{1} \\ \vdots & \vdots \\ \alpha _{n} & \theta \alpha _{n}\end{array}\right) \\ &=& \left( \begin{array}{cc}\sum\limits_{i=1}^{n}\alpha _{i}^{2} & \theta \sum\limits_{i=1}^{n}\alpha_{i}^{2} \\ \theta \sum\limits_{i=1}^{n}\alpha _{i}^{2} & \theta^{2}\sum\limits_{i=1}^{n}\alpha _{i}^{2}\end{array}\right) \\ &=& \left\| s_{1}\right\| ^{2}\underset{=M}{\underbrace{\left( \begin{array}{cc}1 & \theta \\ \theta & \theta ^{2}\end{array}\right) }}. \end{eqnarray*}

Les deux colonnes de M sont proportionnelles, donc M n’est pas inversible, et 0 est valeur propre de M. Un vecteur propre associée est, par exemple, \left( \begin{array}{c}\theta \\ -1\end{array}\right) .

M est symétrique réelle, donc diagonalisable dans une base orthonormée de vecteurs propres et il existe Q orthogonale et \Delta diagonale telles que M=Q\times \Delta \times \,^{t}Q.

On pose, par exemple, \Delta =\left( \begin{array}{cc}\lambda & 0 \\ 0 & 0\end{array}\right) .

M et \Delta sont semblables, donc ont même trace, donc tr\left(M\right) =tr\left( \Delta \right) , donc \lambda =1+\theta ^{2}.

Un vecteur propre associé à 1+\theta ^{2} est, par exemple, \left( \begin{array}{c}1 \\ \theta \end{array}\right) .

La famille \left( \frac{1}{\sqrt{1+\theta ^{2}}}\left( \begin{array}{c}1 \\ \theta \end{array}\right) ,\frac{1}{\sqrt{1+\theta ^{2}}}\left( \begin{array}{c}\theta \\ -1\end{array}\right) \right) est donc une famille de vecteurs propres, clairement orthonormée. Elle est donc libre, de cardinal 2, et comme \dim \left( \mathcal{M}_{2,1}\left( \mathbb{R}\right) \right) =2, c’est une base orthonormée de \mathcal{M}_{2,1}\left( \mathbb{R}\right) .

Donc, en posant Q=\frac{1}{\sqrt{1+\theta ^{2}}}\left( \begin{array}{cc}1 & \theta \\ \theta & -1\end{array}\right) , on a bien ^{t}S\,S=Q\times \left( \begin{array}{cc}\left\| s_{1}\right\| ^{2}\left( 1+\theta ^{2}\right) & 0 \\ 0 & 0\end{array}\right) \times \,^{t}Q.

Donc

    \[\fbox{\text{$Q=\frac{1}{\sqrt{1+\theta ^{2}}}\left( \begin{array}{cc}1 & \theta \\ \theta & -1\end{array}\right) $ est telle que $^{t}Q\,^{t}S\,S\,Q$ est diagonale.}}\]

c/ D’après la question 7/ b/, on a :

    \begin{eqnarray*} \left( \,^{t}S\,S\right) ^{\left( -\right) } &=& Q\times \left( \begin{array}{cc}\frac{1}{\left\| s_{1}\right\| ^{2}\left( 1+\theta ^{2}\right) } & 0 \\ 0 & 0\end{array}\right) \times \,^{t}Q=\frac{1}{1+\theta ^{2}}\left( \begin{array}{cc}1 & \theta \\ \theta & -1\end{array}\right) \times \left( \begin{array}{cc}\frac{1}{\left\| s_{1}\right\| ^{2}\left( 1+\theta ^{2}\right) } & 0 \\ 0 & 0\end{array}\right) \times \left( \begin{array}{cc}1 & \theta \\ \theta & -1\end{array}\right) \\ & =& \frac{1}{\left\| s_{1}\right\| ^{2}\left( 1+\theta^{2}\right) ^{2}}\left( \begin{array}{cc}1 & 0 \\ \theta & 0\end{array}\right) \times \left( \begin{array}{cc}1 & \theta \\ \theta & -1\end{array}\right) =\frac{1}{\left\| s_{1}\right\| ^{2}\left( 1+\theta ^{2}\right) ^{2}}\left( \begin{array}{cc}1 & \theta \\ \theta & \theta ^{2}\end{array}\right) . \end{eqnarray*}

Donc

    \[\fbox{\text{$\left( \,^{t}S\,S\right) ^{\left( -\right) }=\frac{1}{\left\|s_{1}\right\| ^{2}\left( 1+\theta ^{2}\right) ^{2}}\left( \begin{array}{cc}1 & \theta \\ \theta & \theta ^{2}\end{array}\right) .$}}\]

d/ On reprend les notations de la question 8, et on note P la matrice de p_{F} dans la base \mathcal{B}.

On a donc

    \begin{eqnarray*} PX&=&S\left( \,^{t}S\,S\right) ^{\left( -\right) }\,^{t}S\,X \\ &=& \frac{1}{\left\| s_{1}\right\|^{2}\left( 1+\theta ^{2}\right) ^{2}}\left( \begin{array}{cc}\alpha _{1} & \theta \alpha _{1} \\ \alpha _{2} & \theta \alpha _{2} \\ \vdots & \vdots \\ \alpha _{n} & \theta \alpha _{n}\end{array}\right) \times \left( \begin{array}{cc}1 & \theta \\ \theta & \theta ^{2}\end{array}\right) \times \left( \begin{array}{cccc}\alpha _{1} & \alpha _{2} & \cdots & \alpha _{n} \\ \theta \alpha _{1} & \theta \alpha _{2} & \cdots & \theta \alpha _{n}\end{array}\right) \times \left( \begin{array}{c}x_{1} \\ x_{2} \\ \vdots \\ x_{n}\end{array}\right) \\ &=&\frac{1}{\left\| s_{1}\right\|^{2}\left( 1+\theta ^{2}\right) ^{2}}\left( \begin{array}{cc}\alpha _{1}\left( 1+\theta ^{2}\right) & \alpha _{1}\theta \left( 1+\theta^{2}\right) \\ \alpha _{2}\left( 1+\theta ^{2}\right) & \alpha _{2}\theta \left( 1+\theta^{2}\right) \\ \vdots & \vdots \\ \alpha _{n}\left( 1+\theta ^{2}\right) & \alpha _{n}\theta \left( 1+\theta^{2}\right) \end{array}\right) \times \left( \begin{array}{c}\sum\limits_{i=1}^{n}\alpha _{i}x_{i} \\ \theta \sum\limits_{i=1}^{n}\alpha _{i}x_{i}\end{array}\right) \end{eqnarray*}

Donc PX=\frac{\sum\limits_{i=1}^{n}\alpha _{i}x_{i}}{\left\| s_{1}\right\|^{2}}\left( \begin{array}{c}\alpha _{1} \\ \alpha _{2} \\ \vdots \\ \alpha _{n}\end{array}\right) , donc

    \[\fbox{\text{$p_{F}\left( x\right) =\frac{\sum\limits_{i=1}^{n}\alpha _{i}x_{i}}{\left\| s_{1}\right\| ^{2}}.s_{1}=\frac{\left\langle s_{1},x\right\rangle }{\left\| s_{1}\right\| ^{2}}s_{1}.$}}\]

… et on retrouve la formule du cours, car F=vect\left( s_{1},s_{2}\right)=vect\left( s_{1}\right) puisque \left( s_{1},s_{2}\right) est liée et s_{1}\neq 0.

 

COURS A DOMICILE

Des cours sur mesure de qualité

POUR ACCÉLÉRER MA PROGRESSION

Professeur particulier à domicile

Avis Google France ★★★★★ 4,9 sur 5

 

Partie III : densité et gaussienne centrée

10/ \bullet Soit i\in \left[ \!\left[ 1,n\right] \!\right] . X_{i}\hookrightarrow \mathcal{N}\left( \mu ,\sigma ^{2}\right) , donc \frac{X_{i}-\mu }{\sigma }\hookrightarrow \mathcal{N}\left( 0,1\right) .

\bullet Soit Z une variable aléatoire qui suit la loi \mathcal{N}\left( 0,1\right) . On note \Phi sa fonction de répartition et \varphi :t\mapsto \frac{1}{\sqrt{2\pi }}e^{-\frac{t^{2}}{2}} sa densité usuelle.

On note T=\frac{Z^{2}}{2}

On a T\left( \Omega \right) =\mathbb{R}_{+}, donc, pour x\in \mathbb{R}_{-}^{*},\,\,F_{T}\left( x\right) =0.
Pour x\in \mathbb{R}_{+}, F_{T}\left( x\right) =P\left( T\leqslant x\right)=P\left( Z^{2}\leqslant 2x\right) =P\left( \left| Z\right| \leqslant \sqrt{2x}\right)

=P\left( -\sqrt{2x}\leqslant Z\leqslant \sqrt{2x}\right) =\Phi \left( \sqrt{2x}\right) -\Phi\left( -\sqrt{2x}\right) .

Or \Phi est de classe \mathcal{C}^{1} sur \mathbb{R}. 
De plus x\mapsto \sqrt{2x} et x\mapsto -\sqrt{2x} sont de classe \mathcal{C}^{1} sur \mathbb{R}_{+}^{*}, à valeurs dans \mathbb{R}, donc F_{T} est de classe \mathcal{C}^{1} sur \mathbb{R}_{+}^{*}. F_{T} étant nulle sur \mathbb{R}_{-}^{*}, on a aussi F_{T} est de classe \mathcal{C}^{1} sur \mathbb{R}_{-}^{*}.

Enfin \underset{x\rightarrow 0^{-}}{\lim }F_{T}\left( x\right) =0, F_{T}\left( 0\right) =0 et \underset{x\rightarrow 0^{+}}{\lim }F_{T}\left( x\right) =\underset{x\rightarrow 0^{+}}{\lim }\left( \Phi\left( \sqrt{2x}\right) -\Phi \left( -\sqrt{2x}\right) \right) =0 car \Phi est continue en 0 et \sqrt{2x} tend vers 0 quand x tend vers 0^{+}, donc F_{T} est continue en 0.

F_{T} est donc continue sur \mathbb{R} et de classe \mathcal{C}^{1} sur \mathbb{R} sauf en 0, donc

    \[\fbox{\text{$T$ est une variable \`a densit\'e.}}\]

On obtient une densité de T en dérivant F_{T} sur \mathbb{R}^{*} et en donnant une valeur arbitraire positive à F_{T}\left( 0\right) .

Donc une densité f_{T} est donnée par :

f_{T}\left( x\right)=\left\{ \begin{array}{l}\sqrt{2}\frac{1}{2\sqrt{x}}\varphi \left( \sqrt{2}\sqrt{x}\right) +\sqrt{2}\frac{1}{2\sqrt{x}}\varphi \left( -\sqrt{2}\sqrt{x}\right) \text{ si }x>0 \\ 0\text{ si }x\leqslant 0\end{array}\right.

D’où : f_{T}\left( x\right) =\left\{ \begin{array}{l}2\times \sqrt{2}\frac{1}{2\sqrt{x}}\frac{1}{\sqrt{2\pi }}\exp \left(-x\right) \text{ si }x>0 \\ 0\text{ si }x\leqslant 0\end{array}\right. =\left\{ \begin{array}{l}\frac{1}{\sqrt{\pi }}\frac{1}{\sqrt{x}}\exp \left( -x\right) \text{ si }x>0\\ 0\text{ si }x\leqslant 0\end{array}\right. .

Donc f_{T}\left( x\right) =\left\{ \begin{array}{l}\frac{x^{\frac{1}{2}-1}}{\sqrt{\pi }}\exp \left( -x\right) \text{ si }x>0 \\ 0\text{ si }x\leqslant 0\end{array}\right.

f_{T} étant une densité, on a \int_{-\infty }^{+\infty}f_{T}\left( t\right) dt=1, donc \int_{0}^{+\infty }\frac{t^{\left( \frac{1}{2}-1\right) }}{\,\sqrt{\pi }}\exp \left( -t\right) dt=1.

Donc, on a \: \frac{\Gamma \left( \frac{1}{2}\right) }{\sqrt{\pi }}=1.

Donc \sqrt{\pi }=\Gamma \left( \frac{1}{2}\right) , et on trouve :

    \[\fbox{\text{$f_{T}\left( x\right) =\left\{ \begin{array}{l}\frac{x^{\left( \frac{1}{2}-1\right) }}{\,\Gamma \left( \frac{1}{2}\right) }\exp \left( -x\right) \text{ si }x>0 \\ 0\text{ si }x\leqslant 0\end{array}\right. $}}\]

. Donc

    \[\fbox{\text{$T$ suit la loi $\gamma \left( \frac{1}{2}\right) .$}}\]

\bullet On note, pour 1\leqslant i\leqslant n, T_{i}=\frac{1}{2}\left( \frac{X_{i}-\mu }{\sigma }\right) ^{2}. Comme \frac{X_{i}-\mu }{\sigma }\hookrightarrow \mathcal{N}\left( 0,1\right) , on sait que T_{i}\hookrightarrow \mathcal{\gamma }\left( \frac{1}{2}\right) par le point précédent.

Les variables T_{i},1\leqslant i\leqslant n, sont indépendantes (par le lemme des coalitions car les X_{i},1\leqslant i\leqslant n, le sont), et toutes de loi \gamma \left( \frac{1}{2}\right).

Donc, par stabilité de la loi \gamma , \sum\limits_{i=1}^{n}T_{i} suit la loi \gamma \left( \frac{n}{2}\right), donc

    \[\fbox{\text{$\frac{1}{2}\sum\limits_{i=1}^{n}\left( \frac{X_{i}-\mu }{\sigma }\right)^{2}\hookrightarrow \gamma \left( \frac{n}{2}\right) .$}}\]

donc

    \[\fbox{\text{$\sum\limits_{i=1}^{n}\left( \frac{X_{i}-\mu }{\sigma }\right)^{2}\hookrightarrow \chi ^{2}\left( n\right) .$}}\]

11/ a/ On pose M=\left( m_{i,j}\right) _{1\leqslant i,j\leqslant n}.

H=MG, donc pour i\in \left[ \!\left[ 1,n\right] \!\right] , H_{i}=\sum\limits_{j=1}^{n}\underset{\text{r\'eel}}{\underbrace{m_{i,j}}}G_{j}.

\left( G_{1},...,G_{n}\right) est un vecteur gaussien, donc par définition, pour i\in \left[ \!\left[ 1,n\right] \!\right] , H_{i} est une variable gaussienne centrée.

Soit alors a=\left( a_{1},...,a_{n}\right) dans \mathbb{R}^{n}.

\sum\limits_{i=1}^{n}a_{i}H_{i}=\sum\limits_{i=1}^{n}\left(a_{i}\sum\limits_{j=1}^{n}m_{i,j}G_{j}\right)=\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{n}a_{i}m_{i,j}G_{j}=\sum\limits_{j=1}^{n}\underset{\text{r\'eel}}{\underbrace{\left(\sum\limits_{i=1}^{n}m_{i,j}a_{i}\right) }}G_{j}.

\left( G_{1},...,G_{n}\right) est un vecteur gaussien, donc par définition, \sum\limits_{i=1}^{n}a_{i}H_{i} est une variable gaussienne centrée.

Donc

    \[\fbox{\text{$\left( H_{1},...,H_{n}\right) $ est un vecteur gaussien.}}\]

b/ Pour tout i\in \left[ \!\left[ 1,n\right] \!\right] , G_{i} admet un moment d’ordre 2, donc d’après le cours,

    \[\fbox{\text{pour tout $\left( i,j\right) \in \left[ \!\left[ 1,n\right] \!\right]^{2},$ $G_{i}G_{j}$ admet une esp\'erance.}}\]

12/ a/ Soit a=\left( a_{1},...,a_{n}\right) .

Si a=0, alors \sum\limits_{i=1}^{n}a_{i}G_{i}=0 et \sum\limits_{i=1}^{n}a_{i}G_{i} est une gaussienne centrée.

On suppose a\neq 0 pour la suite du raisonnement.

Soit i\in \left[ \!\left[ 1,n\right] \!\right] .

\bullet ou bien a_{i}\neq 0. Alors a_{i}G_{i}\hookrightarrow \mathcal{N}\left(0,a_{i}^{2}\right) (stabilité par transformation affine de la loi normale).

\bullet ou bien a_{i}=0. Alors a_{i}G_{i} est la variable constante nulle.

On note I=\left\{ i\in \left[ \!\left[ 1,n\right] \!\right]\,\,/\,\,a_{i}\neq 0\right\} . I\neq \varnothing car a\neq 0.

Les variables a_{i}G_{i},\,i\in I, sont indépendantes et toutes de loi normale, donc, par stabilité de la loi normale, \sum\limits_{i\inI}a_{i}G_{i}\hookrightarrow \mathcal{N}\left( 0,\sum\limits_{i\inI}a_{i}^{2}\right) .

Or \sum\limits_{i\in I}a_{i}G_{i}=\sum\limits_{i=1}^{n}a_{i}G_{i} car on rajoute des variables constantes nulles et \sum\limits_{i\inI}a_{i}^{2}=\sum\limits_{i=1}^{n}a_{i}^{2} car on rajoute des termes nuls,
donc \sum\limits_{i=1}^{n}a_{i}G_{i}\hookrightarrow \mathcal{N}\left(0,\sum\limits_{i=1}^{n}a_{i}^{2}\right) .

Donc \sum\limits_{i=1}^{n}a_{i}G_{i} est une gaussienne centrée.

Donc pour tout a=\left( a_{1},...,a_{n}\right),\,\,\sum\limits_{i=1}^{n}a_{i}G_{i} est une gaussienne centrée,

donc

    \[\fbox{\text{$\left( G_{1},G_{2},...,G_{n}\right) $ est un vecteur gaussien.}}\]

Soit \left( i,j\right) \in \left[ \!\left[ 1,n\right] \!\right] ^{2} avec i\neq j.

E\left( G_{i}G_{j}\right) =E\left( G_{i}\right) E\left( G_{j}\right) car G_{i} et G_{j} sont indépendantes.

Donc E\left( G_{i}G_{j}\right) =0 car E\left( G_{i}\right) =0.

Soit i\in \left[ \!\left[ 1,n\right] \!\right] . Alors E\left(G_{i}G_{i}\right) =E\left( G_{i}^{2}\right) \underset{\text{Koenig-Huygens}}{\underbrace{=}}\underset{=1}{\underbrace{V\left( G_{i}\right) }}+\underset{=0}{\underbrace{\left[ E\left( G_{i}\right) \right] ^{2}}}=1.

Donc

    \[\fbox{\text{$\Lambda \left( G\right) =I_{n}.$}}\]

b/ On note Q=\left( q_{i,j}\right) _{1\leqslant i,j\leqslant n}.

H=QG, donc par définition du produit matriciel, on a \forall i\in\left[ \!\left[ 1,n\right] \!\right],\,\,H_{i}=\sum\limits_{j=1}^{n}q_{i,j}G_{j}.

Q est orthogonale, donc Q\,^{t}Q=I_{n}

\bullet Soit i\in \left[ \!\left[ 1,n\right] \!\right] .

\left( G_{1},...,G_{n}\right) est un vecteur gaussien d’après la question précédente.

Donc \left( H_{1},...,H_{n}\right) est un vecteur gaussien d’après la question 11/ a/.

En prenant a=\left( 0,...,0,1,0,...,0\right) , avec 1 en i^{\grave{e}me} position, on a H_{i} est une gaussienne centrée.

Or V\left( H_{i}\right) = V\left(\sum\limits_{j=1}^{n}q_{i,j}G_{j}\right) =\sum\limits_{j=1}^{n}\left(q_{i,j}\right) ^{2}\underset{=1}{\underbrace{V\left( G_{j}\right) }} car les variables G_{j},1\leqslant j\leqslant n, sont mutuellement indépendantes.

Donc V\left( H_{i}\right) =\sum\limits_{j=1}^{n}\left( q_{i,j}\right)^{2}=\sum\limits_{j=1}^{n}q_{i,j}\times q_{i,j}=1 car on reconnaît un terme diagonal de Q\,^{t}Q=I_{n}.

Donc

    \[\fbox{\text{$H_{i}\hookrightarrow \mathcal{N}\left( 0,1\right) .$}}\]

\bullet Soit \left( i,j\right) \in \left[ \!\left[ 1,n\right] \!\right] ^{2}.

E\left( H_{i}H_{j}\right) =E\left( \left(\sum\limits_{k=1}^{n}q_{i,k}G_{k}\right) \left(\sum\limits_{l=1}^{n}q_{j,l}G_{l}\right) \right)

=E\left(\sum\limits_{k=1}^{n}\sum\limits_{l=1}^{n}q_{i,k}q_{j,l}G_{k}G_{l}\right)

=\sum\limits_{k=1}^{n}\sum\limits_{l=1}^{n}q_{i,k}q_{j,l}E\left( G_{k}G_{l}\right) par linéarité de l’espérance

=\sum\limits_{k=1}^{n}q_{i,k}q_{j,k}\underset{=1}{\underbrace{E\left(G_{k}^{2}\right) }}+\sum\limits_{k\neq l}q_{i,k}q_{j,l}\underset{=0}{\underbrace{E\left( G_{k}G_{l}\right) }} d’après a)

=\sum\limits_{k=1}^{n}q_{i,k}q_{j,k}

On reconnaît le terme général de Q\,^{t}Q.

Donc \Lambda \left( H\right) =Q\,^{t}Q=I_{n} car Q est une matrice orthogonale.

Donc

    \[\fbox{\text{$\Lambda \left( H\right) =\Lambda \left( G\right) .$}}\]

Donc pour tout \left( x_{1},...,x_{n}\right) \in \mathbb{R}^{n},\,\,\,

P\left( \bigcap\limits_{i=1}^{n}\left( H_{i}\leqslant x_{i}\right) \right)=P\left( \bigcap\limits_{i=1}^{n}\left( G_{i}\leqslant x_{i}\right) \right)

=\prod\limits_{i=1}^{n}P\left( G_{i}\leqslant x_{i}\right) par indépendance des G_{i},1\leqslant i\leqslant n

=\prod\limits_{i=1}^{n}P\left( H_{i}\leqslant x_{i}\right) car H_{i} et G_{i} ont même loi \mathcal{N}\left( 0,1\right).

Donc

    \[\fbox{\text{les variables $H_{1},H_{2},...,H_{n}$ sont mutuellement ind\'ependantes.}}\]

13/ a/ \sum\limits_{i=1}^{k}P_{i}=I_{n} et \sum\limits_{i=1}^{k}r_{i}=n, donc d’après la question 3.c/, P_{1},P_{2},...,P_{k} sont des matrices de projecteurs notés respectivement p_{1},p_{2},...,p_{k}.

De plus, P_{1}=mat_{\mathcal{B}}\left( p_{1}\right) ,...,P_{k}=mat_{\mathcal{B}}\left( p_{k}\right) sont symétriques réelles et \mathcal{B} est une base orthonormée, donc d’après la question 4.a),

    \[\fbox{\text{$P_{1},...,P_{k}$ sont des matrices de projecteurs orthogonaux.}}\]

Soit \left( i,j\right) \in \left[ \!\left[ 1,k\right] \!\right] ^{2}, avec i\neq j.

Soit \left( x,y\right) \in \func{Im}\left( p_{i}\right) \times \func{Im}\left( p_{j}\right) .

\left\langle x,y\right\rangle =\left\langle p_{i}\left( x\right),p_{j}\left( y\right) \right\rangle car \func{Im}\left( p_{i}\right)=\ker \left( p_{i}-Id_{\mathbb{R}^{n}}\right) et \func{Im}\left(p_{j}\right) =\ker \left( p_{j}-Id_{\mathbb{R}^{n}}\right)

Donc \left\langle x,y\right\rangle =\left\langle x,p_{i}\left( p_{j}\left(y\right) \right) \right\rangle car p_{i} est un endomorphisme symétrique (sa matrice représentative dans la base \mathcal{B} orthonormée est symétrique réelle)

Or p_{i}\circ p_{j}=0_{\mathcal{L}\left( \mathbb{R}^{n}\right) } d’après la question 3.c/ puisque i\neq j, donc \left\langle x,y\right\rangle =0.

Donc

    \[\fbox{\text{$\func{Im}\left( p_{i}\right) $ et $\func{Im}\left( p_{j}\right) $sont orthogonaux.}}\]

b/ D’après la question 3, on a \mathbb{R}^{n}=\bigoplus\limits_{i=1}^{k}\func{Im}\left( p_{i}\right) .

On note, pour i\in \left[ \!\left[ 1,k\right] \!\right] ,\mathcal{B}_{i}^{\prime } une base orthonormée de \func{Im}\left( p_{i}\right) , et \mathcal{B}^{\prime } la concaténation des \mathcal{B}_{i}^{\prime},1\leqslant i\leqslant k. \mathcal{B}^{\prime } est donc une base orthonormée de \mathbb{R}^{n}.

On note Q la matrice de passage de \mathcal{B}^{\prime } à \mathcal{B}. Q est la matrice de passage d’une base orthonormée à une base orthonormée, c’est donc une matrice orthogonale.

On note pour i\in \left[ \!\left[ 1,k\right] \!\right] ,\Delta_{i}=\,Q\,P_{i}\,^{t}Q=mat_{\mathcal{B}^{\prime }}\left( p_{i}\right) .

Pour i\in \left[ \!\left[ 1,k\right] \!\right] , p_{i} est le projecteur orthogonal sur \func{Im}\left( p_{i}\right) . Donc les vecteurs de \mathcal{B}_{i}^{\prime } ont pour image eux-mêmes car ils sont dans \func{Im}\left( p_{i}\right), et les vecteurs de \mathcal{B}^{\prime}\backslash \mathcal{B}_{i}^{\prime } sont dans \left( \func{Im}\left(p_{i}\right) \right) ^{\perp } d’après la question précédente, donc dans \ker \left( p_{i}\right) .

Donc pour i\in \left[ \!\left[ 1,k\right] \!\right] ,\Delta _{i}=Diag\left( \underset{r_{1}\text{ fois}}{\underbrace{0,...,0}},...,\underset{r_{i-1}\text{ fois}}{\underbrace{0,...,0}},\underset{r_{i}\text{ fois}}{\underbrace{1,...,1}},\underset{r_{i+1}\text{ fois}}{\underbrace{0,...,0}},...,\underset{r_{k}\text{ fois}}{\underbrace{0,...,0}}\right) .

Donc

    \[\fbox{\text{il existe $Q$ orthogonale telle que pour tout $i\in \left[\!\left[ 1,k\right] \!\right] ,$ $Q\,P_{i}\,^{t}Q$ est diagonale.}}\]

c/ On suppose que r_{1}\neq 0. ^{t}G\,P_{1}\,G=\,^{t}G\,^{t}Q\,\Delta _{1}\,Q\,G=\,^{t}\left( QG\right) \,\Delta _{1}\,\left( QG\right)

\left( G_{1},...,G_{k}\right) est un vecteur gaussien et toutes les variables aléatoires ont une variance égale à 1, donc avec la même démarche qu’à la question 12.a), on montre que G_{1},...,G_{k} suivent toutes la loi \mathcal{N}\left( 0,1\right) .

On pose H=QG.

Q est une matrice orthogonale, et G_{1},G_{2},...,G_{k} sont mutuellement indépendantes et toutes de loi \mathcal{N}\left(0,1\right) , donc d’après la question 12.b/, H_{1},...,H_{k} sont mutuellement indépendantes et toutes de loi \mathcal{N}\left(0,1\right) .

De plus, ^{t}\left( QG\right) \,\Delta _{1}\,\left( QG\right)=\sum\limits_{i=1}^{r_{1}}H_{i}^{2}, et les variables aléatoires H_{1},...,H_{k} sont mutuellement indépendantes et toutes de loi \mathcal{N}\left( 0,1\right) , donc, d’après la question 10, avec \mu=0 et \sigma =1, \sum\limits_{i=1}^{r_{1}}H_{i}^{2}\hookrightarrow \chi^{2}\left( r_{1}\right) . Donc

    \[\fbox{\text{$^{t}G\,P_{1}\,G\hookrightarrow \chi^{2}\left( r_{1}\right) .$}}\]

d/ Avec les mêmes notations qu’au c/, on a

^{t}G\,P_{1}\,G=\sum\limits_{i=1}^{r_{1}}H_{i}^{2},\,\,\,\,^{t}G\,P_{2}\,G=\sum\limits_{i=r_{1}+1}^{r_{2}}H_{i}^{2},\,\,\,...\,\,\,\,,^{t}G\,P_{k}\,G=\sum\limits_{i=r_{k-1}+1}^{r_{k}}H_{i}^{2}.

Or les variables H_{1},H_{2},...,H_{k} sont mutuellement indépendantes, donc par le lemme des coalitions,

    \[\fbox{\text{$^{t}G\,P_{1}\,G,^{t}G\,P_{2}\,G,...,^{t}G\,P_{k}\,G$ sont mutuellement ind\'ependantes.}}\]

 

Contact

  • 3 rue de l'Estrapade 75005 Paris
  • contact@groupe-reussite.fr
  • 01 84 88 32 69
Qui sommes-nous ?
  • Témoignages et avis
  • Notre équipe
Nous rejoindre
  • Devenir professeur particulier
Copyright @ GROUPE REUSSITE - Mentions légales
groupe-reussite.fr est évalué 4,9/5 par 1049 clients sur Google France