Corrigé ESSEC eco maths II 2001 par Pierre Veuillez

PARTIE I

On considère deux variables aléatoires X et Y définies sur un même espace probabilisé et admettant des espérances E ( X ) et E ( Y ) et des variances V ( X ) et V ( Y ) et on suppose V ( X ) > 0 (on rappelle que V ( X ) = 0 si et seulement si, avec une probabilité égale à 1 , X est constante). La covariance des deux variables aléatoires X et Y (que celles-ci soient discrètes ou à densité) est alors le nombre réel défini par :

C o v ( X , Y ) = E [ ( X E ( X ) ) ( Y E ( Y ) ) ] ,  ou encore  E ( X Y ) E ( X ) E ( Y ) .

  1. Covariance des variables aléatoires X et Y

    1. Pour tout X ayant une variance on a : C o v ( X , X ) = E ( X 2 ) E ( X ) 2 = V ( X )

      donc C o v ( λ X + Y , λ X + Y ) = V ( λ X + Y ) et V ( λ X + Y ) = E ( ( λ X + Y ) 2 ) E ( λ X + Y ) 2 = E ( λ 2 X 2 + 2 λ X Y + Y 2 ) [ λ E ( X ) + E ( Y ) ] 2 = λ 2 E ( X 2 ) + 2 λ E ( X Y ) + E ( Y 2 ) λ 2 E ( X ) 2 2 λ E ( X ) E ( Y ) E ( Y ) 2 = λ 2 V ( X ) + 2 λ C o v ( X , Y ) + V ( Y )

    2. Comme une variance est positive ou nulle, le polyôme du second degré P ( λ ) = λ 2 V ( X ) + 2 λ C o v ( X , Y ) + V ( Y ) a un discriminant négatif ou nul.

      Δ = 4 C o v ( X , Y ) 2 4 V ( X ) V ( Y ) = 4 [ C o v ( X , Y ) 2 V ( X ) V ( Y ) ] 0 Donc C o v ( X , Y ) 2 V ( X ) V ( Y )
      On a égalité si et seulement si Δ = 0 donc si le polynôme s'anulle, i.e. s'il existe Λ tel que V ( λ X + Y ) = 0

      Or (c'est le rappel de début) cela équivaut à λ X + Y constante presque surement.

      Conclusion :

      Il y a égalité il esxiste μ tel que Y = λ X + μ presque surement

  2. Coefficient de corrélation linéaire des variables aléatoires X et Y .
    On suppose dans cette question les variances V ( X ) et V ( Y ) de X et Y strictement positives.

    1. Le coefficient de corrrélationlinéaire est ρ = C o v ( X , Y ) σ ( X ) σ ( Y ) .

      Et comme C o v ( X , Y ) 2 V ( X ) V ( Y ) alors C o v ( X , Y ) 2 V ( X ) V ( Y ) 1 et en prenant la racine, | C o v ( X , Y ) σ ( X ) σ ( Y ) | 1 (la covariance peut être négative !)

      Conclusion :

      ρ [ 1 , 1 ]

      Et l'on a ρ = ± 1 ρ 2 = 1 C o v ( X , Y ) 2 = V ( X ) V ( Y ) donc à la conditionnécessaire et suffisante qu'il existe une constante μ telle que Y = λ X + μ presque surement.

    2. Si X et Y sont indépendante, C o v ( X , Y ) = 0 et odn ρ = 0.

    3. On suppose enfin que X suit une loi normale centrée réduite N ( 0 , 1 ) et Y = X 2 .
      On a E ( X ) = 0 et V ( X ) = 1

      Comme V ( X ) = E ( X 2 ) E ( X ) 2 alors E ( X 2 ) = 1 donc E ( Y ) = 1.

      Enfin, pour E ( Y 2 ) = E ( X 4 ) , par le théorème de transfert, on test la convergence absolue (=cv simple car tout est positif) de + t 4 ϕ ( t ) t :

      0 M t 4 ϕ ( t ) t = 1 2 π 0 M t 4 e t 2 / 2 t par intégration par parties : u ( t ) = t 3 : u ( t ) = 3 t 2 : v ( t ) = t e t 2 / 2 : v ( t ) = e t 2 / 2 avec u et v de classse C 1 0 M t 4 e t 2 / 2 t = [ t 3 e t 2 / 2 ] 0 M 0 M 3 t 2 e t 2 / 2 t = 0 + M 3 e M 2 / 2 + 3 0 M t 2 e t 2 / 2 t 3 0 + t 2 e t 2 / 2 t  qui converge donc  0 + t 4 ϕ ( t ) t = 3 0 + t 2 ϕ ( t ) t et de même en : 0 t 4 ϕ ( t ) t = 3 0 t 2 ϕ ( t ) t

      Avec + t 2 ϕ ( t ) t = E ( X 2 ) = 1 on trouve alors E ( Y 2 ) = 3 D'où V ( Y ) = E ( Y 2 ) E ( Y ) 2 = 3 1 = 2

      On a également C o v ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) = E ( X 3 ) E ( X ) E ( X 2 ) et comme + t 3 ϕ ( t ) t converge et est nulle (fonction impaire) alors C o v ( X , Y ) = 0 et ρ ( X , Y ) = 0 .

      Conclusion :

      réciproque fausse : X et X 2 ne sont pas indépendantes bien que ρ ( X , X 2 ) soit nul.

      Non indépendantes : ( X 2 1 ) = ( 1 X 1 ) et donc

      P [ ( X 2 1 ) ( 1 X 1 ) ] = P ( X 2 1 ) P ( X 2 1 ) P ( 1 X 1 )

PARTIE II

  1. Calculs préliminaires

    1. Pour n = q on a : k = q q ( k q ) = ( q q ) = 1 = ( q + 1 q + 1 ) Soit n q tel que k = q n ( k q ) = ( n + 1 q + 1 ) alors k = q n + 1 ( k q ) = k = q n ( k q ) + ( n + 1 q ) = ( n + 1 q + 1 ) + ( n + 1 q ) = ( n + 2 q + 1 )  (triangle de Pascal) Conclusion :

      pour n q : k = q n ( k q ) = ( n + 1 q + 1 )

    2. En faisant q = 1 , on trouve : k = 1 n ( k 1 ) = k = 1 n k = ( n + 1 2 ) = ( n + 1 ) n 2 pour q = 2 : k = 2 n ( k 2 ) = k = 2 n k ( k 1 ) 2 = ( n + 1 3 ) = ( n + 1 ) n ( n 1 ) 3 2  et  k = 2 n k ( k 1 ) = ( n + 1 ) n ( n 1 ) 3 enfin pour q = 3 : k = 3 n ( k 3 ) = k = 2 n k ( k 1 ) ( k 2 ) 3 2 = ( n + 1 4 ) = ( n + 1 ) n ( n 1 ) ( n 2 ) 4 3 2  et  k = 2 n k ( k 1 ) ( k 2 ) = ( n + 1 ) n ( n 1 ) ( n 2 ) 4

      On considère dans toute la suite de cette partie un nombre entier n 2 et une urne contenant n jetons numérotés de 1 à n .
      On extrait de cette urne successivement et sans remise 2 jetons et on désigne alors par :

      • N 1 la variable aléatoire indiquant le numéro du premier jeton tiré.

      • N 2 la variable aléatoire indiquant le numéro du second jeton tiré.

      • X la variable aléatoire indiquant le plus petit des numéros des 2 jetons tirés.

      • Y la variable aléatoire indiquant le plus grand des numéros des 2 jetons tirés.

      On note E ( N 1 ) et V ( N 1 ) , E ( N 2 ) et V ( N 2 ) , E ( X ) et V ( X ) , E ( Y ) et V ( Y ) les espérances et variances des quatre variables aléatoires N 1 , N 2 , X , Y .

  2. Lois conjointe et marginales des variables aléatoires N 1 et N 2 .

    1. Les numéros présents dans l'urne sont équiprobables donc P ( N 1 = i ) = 1 n pour 1 i n

      P N 1 = i ( N 2 = j ) = 1 n 1 pour 1 j n , j i et P N 1 = j ( N 2 = j ) = 0 car la boule j est retirée de l'urne.
      ( N 1 = i ) i [ [ 1 , n ] ] est un système complet d'événements donc

      P ( N 2 = j ) = i = 1 n P N 1 = i ( N 2 = j ) P ( N 1 = i ) = i = 1 : i j n 1 n 1 1 n + P N 1 = j ( N 2 = j ) P ( N 1 = j ) = ( n 1 ) 1 n 1 1 n = 1 n Conclusion :

      Donc la loi de N 2 est la même que celle de N 1 .

      N.B. On aurait aussi pu raisonner directement : sans conditionnement par le premier tirage, tous les numéros sont possibles et équiprobables pour le second tirage.

      On a E ( N 1 ) = E ( N 2 ) = n + 1 2 (loi uniforme sur [ [ 1 , n ] ] )

      E ( N 1 2 ) = k = 1 n k 2 n = 1 n n ( n + 1 ) ( 2 n + 1 ) 6 = ( n + 1 ) ( 2 n + 1 ) 6 et V ( N 1 ) = E ( N 1 2 ) E ( N 1 ) 2 = ( n + 1 ) ( 2 n + 1 ) 6 ( n + 1 2 ) 2 = n + 1 12 ( 4 n + 2 3 n 3 ) = n 2 1 12

      Conclusion :

      E ( N 1 ) = E ( N 2 ) = n + 1 2 et V ( N 1 ) = V ( N 2 ) = n 2 1 12

    2. On a P ( N 1 = i N 2 = j ) = 0 si i = j (événement impossible)

      et si i j : P ( N 1 = i N 2 = j ) = P ( N 1 = i ) P N 1 = i ( N 2 = j ) = 1 n ( n 1 )

      On a alors (on ne pense pas que N 1 et N 2 soient indépendantes) E ( N 1 N 2 ) = i = 1 n j = 1 n i j P ( N 1 = i N 2 = j ) = i = 1 n i [ j = 1 : j i n j P ( N 1 = i N 2 = j ) + 0 ] = i = 1 n i 1 n ( n 1 ) [ j = 1 n j i ] = i = 1 n i n ( n + 1 ) 2 n ( n 1 ) i = 1 n i 2 1 n ( n 1 ) = n 2 ( n + 1 ) 2 4 n ( n 1 ) n ( n + 1 ) ( 2 n + 1 ) n ( n 1 ) 6 = n ( n + 1 ) n ( n 1 ) 12 ( 3 ( n + n 2 ) 4 ( 2 n + 1 ) ) = ( n + 1 ) ( n 1 ) 12 ( 3 n 2 n 2 )  que l'on factorise = ( n + 1 ) ( 3 n + 2 ) ( n 1 ) ( n 1 ) 12 Conclusion :

      On a donc bien E ( N 1 N 2 ) = ( n + 1 ) ( 3 n + 2 ) 12

      La covariance de ( N 1 , N 2 ) est alors C o v ( N 1 , N 2 ) = E ( N 1 N 2 ) E ( N 1 ) E ( N 2 ) = ( n + 1 ) ( 3 n + 2 ) 12 ( n + 1 ) 2 4 = ( n + 1 ) 12 [ 3 n + 2 3 n 3 ] = n + 1 12 ρ ( N 1 , N 2 ) = C o v ( N 1 , N 2 ) V ( N 1 ) V ( N 2 ) = n + 1 12 12 n 2 1 = 1 n 1 Conclusion :

      le coefficient de corrélation linéaire de N 1 et N 2 vaut 1 n 1

      (Le signe négatif est cohérent : plus l'un est grand, moins l'auter a de chance de l'être.

    3. On a alors V ( N 1 + N 2 ) = V ( N 1 ) + V ( N 2 ) + 2 C o v ( N 1 , N 2 ) = 2 n 2 1 12 2 n + 1 12 = n + 1 6 ( n 1 1 ) = ( n + 1 ) ( n 2 ) 6 Conclusion :

      V ( N 1 + N 2 ) = ( n + 1 ) ( n 2 ) 6

  3. Lois conjointe, marginales et conditionnelles des variables aléatoires X et Y

    1. 1 i < j n . on a ( X = i Y = j ) = " le plus grand vaut j e tle plus petit vaut i " et comme on a bien i < j

      ( X = i Y = j ) = " l'un vaut i et l'autre j "= ( N 1 = i N 2 = j ) ( N 1 = j N 2 = i ) incompatibles donc P ( X = i Y = j ) = P ( N 1 = i N 2 = j ) + P ( N 1 = j N 2 = i ) = 2 n ( n 1 )

      Et sinon, l'événement est impossible et la probabilité est nulle.

    2. Les lois de X et de Y sont les lois marginales du couple donc

      pour j 2 P ( Y = j ) = i = 1 n P ( X = i Y = j ) = i = 1 : i < j j 1 2 n ( n 1 ) + 0  car   j 1 1 = 2 ( j 1 ) n ( n 1 ) et pour j = 1 on P ( Y = 1 ) = 0 (car le numéro 1 sera le plus petit et ne pourra pas être le plus grand), ce que donne encore la formule.

      Pour i n 1 P ( X = i ) = j = 1 n P ( X = i Y = j ) = j = i + 1 : j > i n 2 n ( n 1 ) + 0  car  i + 1 n = 2 ( n ( i + 1 ) + 1 ) n ( n 1 ) qui donne bien 0 pour i = n .

      Conclusion :

      pour i et j de [ [ 1 , n ] ] : P ( Y = j ) = 2 ( j 1 ) n ( n 1 ) et P ( X = i ) = 2 ( n i ) n ( n 1 )

    3. Pour 1 i < j n :

      Quand Y = j le plus petit peut prendre toutes les valeurs de [ [ 1 , j 1 ] ] équiprobablement et P Y = j ( X = i ) = 1 j 1 pour i [ [ 1 , j 1 ] ] .

      Pour plus de sureté, on revient à la définition :

      P Y = j ( X = i ) = P ( X = i Y = j ) P ( Y = j ) = 2 n ( n 1 ) 2 ( j 1 ) n ( n 1 ) = 1 j 1

      et de même P X = i ( Y = j ) = 1 n i

    4. On a X ( Ω ) = [ [ 1 , n 1 ] ] donc ( n + 1 X ) ( Ω ) = [ [ 2 , n ] ] = Y ( Ω )

      Pour 2 j n on a P ( n + 1 X = j ) = P ( X = n + 1 j ) = 2 ( n ( n + 1 j ) ) n ( n 1 )  car  1 n + 1 j n 1 = 2 ( j 1 ) n ( n 1 ) = P ( Y = j ) Conclusion :

      n + 1 X et Y ont la même loi.
      ,

      Donc ils ont même espérance et variance. E ( n + 1 X ) = E ( Y ) et V ( n + 1 X ) = V ( Y ) ,

      Or E ( n + 1 X ) = n + 1 E ( X ) d'où E ( X ) = n + 1 E ( Y )

      et V ( n + 1 X ) = ( 1 ) 2 V ( X ) donc

      Conclusion :

      E ( X ) = n + 1 E ( Y ) et V ( X ) = V ( y )

  4. Espérances et variances des variables aléatoires X et Y

    1. Idée : X + Y = N 1 + N 2 donc E ( X ) + E ( Y ) = E ( N 1 ) + E ( N 2 ) ne conduit à rien ici car on a simplification...

      On revient à la défintion:

      E ( Y ) = j = 2 n j 2 ( j 1 ) n ( n 1 ) = 2 n ( n 1 ) j = 2 n j ( j 1 ) = 2 n ( n 1 ) ( n + 1 ) n ( n 1 ) 3 = 2 3 ( n + 1 ) d'après les formules du début.

      D'où E ( X ) = n + 1 E ( Y ) = 1 3 ( n + 1 )

    2. On a : E [ Y ( Y 2 ) ] = j = 2 n j ( j 2 ) 2 ( j 1 ) n ( n 1 ) = 2 n ( n 1 ) j = 2 n j ( j 1 ) ( j 2 ) = 2 n ( n 1 ) ( n + 1 ) n ( n 1 ) ( n 2 ) 4 = ( n + 1 ) ( n 2 ) 2

      Or E [ Y ( Y 2 ) ] = E [ Y 2 2 Y ] = E ( Y 2 ) 2 E ( Y ) et E ( Y 2 ) = E [ Y 2 2 Y ] + 2 E ( Y ) donc E ( Y 2 ) = ( n + 1 ) ( n 2 ) 2 + 4 3 ( n + 1 ) = ( n + 1 ) 6 ( 3 n 6 + 8 ) = ( n + 1 ) ( 3 n + 2 ) 6

      et

      V ( Y ) = E ( Y 2 ) E ( Y ) 2 = ( n + 1 ) ( 3 n + 2 ) 6 4 9 ( n + 1 ) 2 = n + 1 18 ( 9 n + 6 8 n 8 ) = ( n + 1 ) ( n 2 ) 18

      Conclusion :

      V ( X ) = V ( Y ) = ( n + 1 ) ( n 2 ) 18

  5. Covariance et coefficient de corrélation linéaire des variables aléatoires X et Y

    1. Comme X est l'une des deux valeur et Y l'autre alors X + Y = N 1 + N 2

      Donc V ( X + Y ) = V ( N 1 + N 2 ) = ( n + 1 ) ( n 2 ) 6 D'auter part V ( X + Y ) = V ( X ) + V ( Y ) + 2 C o v ( X , Y ) donc C o v ( X , Y ) = 1 2 [ V ( X + Y ) V ( X ) V ( Y ) ] = 1 2 ( ( n + 1 ) ( n 2 ) 6 2 ( n + 1 ) ( n 2 ) 18 ) = ( n + 1 ) ( n 2 ) 2 18 Conclusion :

      C o v ( X , Y ) = ( n + 1 ) ( n 2 ) 36

    2. On a alors ρ ( X , Y ) = C o v ( X , Y ) V ( X ) V ( Y ) = ( n + 1 ) ( n 2 ) 36 18 ( n + 1 ) ( n 2 ) = 1 2 Conclusion :

      ρ ( X , Y ) = 1 2 indépendant de n (étonnant, non ?)

  6. Utilisation de la fonction génératrice des variables aléatoires X et Y
    On se propose de retrouver les résultats précédents par une autre méthode, en ne supposant connues que les probabilités P ( X = i Y = j ) pour 1 i n et 1 j n .
    On désigne par G la fonction génératrice du couple de variables aléatoires ( X , Y ) , définie par : G ( u , v ) = j = 1 n i = 1 n P ( X = i Y = j ) ( 1 + u ) i ( 1 + v ) j

    1. La fonction G est de classe C 2 en ( u , v ) tels que u > 1 et v > 1 et G u ( u , v ) = j = 1 n i = 1 n P ( X = i Y = j ) i ( 1 + u ) i 1 ( 1 + v ) j  donc G u ( 0 , 0 ) = j = 1 n i = 1 n P ( X = i Y = j ) i  on inverse les sommes = i = 1 n [ i j = 1 n P ( X = i Y = j ) ]  loi marginale = i = 1 n i P ( X = i ) = E ( X ) et de même pour G v G ( 0 , O ) = E ( Y ) .
      On a 2 G u 2 ( u , v ) = j = 1 n i = 2 n P ( X = i Y = j ) i ( i 1 ) ( 1 + u ) i 2 ( 1 + v ) j  et  2 G u 2 ( 0 , 0 ) = j = 1 n i = 2 n P ( X = i Y = j ) i ( i 1 )  nul pour  i = 1 = i = 1 n i ( i 1 ) P ( X = i ) = i = 1 n i 2 P ( X = i ) i = 1 n i P ( X = i ) = E ( X 2 ) E ( X ) et de même 2 G v 2 ( 0 , 0 ) = E ( Y 2 ) E ( Y )

      et enfin 2 G u v ( u , v ) = j = 1 n i = 1 n P ( X = i Y = j ) i j ( 1 + u ) i 1 ( 1 + v ) j 1 2 G u v ( 0 , 0 ) = j = 1 n i = 1 n P ( X = i Y = j ) i j = E ( X Y )

      Conclusion :

      2 G u 2 ( 0 , 0 ) = E ( X 2 ) E ( X ) ; 2 G v 2 ( 0 , 0 ) = E ( Y 2 ) E ( Y ) ; 2 G u v ( 0 , 0 ) = E ( X Y )

    2. On doit ici revenir à la loi du couple : si 1 i < j n alors P ( X = i Y = j ) = 2 n ( n 1 ) donc pour u , v , w 0 :

      G ( u , v ) = j = 1 n i = 1 n P ( X = i Y = j ) ( 1 + u ) i ( 1 + v ) j = j = 1 n [ i = 1 : i < j j 1 2 n ( n 1 ) ( 1 + u ) i ( 1 + v ) j + 0 ] = 2 n ( n 1 ) j = 1 n [ ( 1 + v ) j i = 1 j 1 ( 1 + u ) i ] = 2 n ( n 1 ) j = 1 n [ ( 1 + v ) j ( 1 + u ) 1 ( 1 + u ) j 1 u ]  car  1 + u 1 = 2 n ( n 1 ) [ 1 u j = 1 n [ ( 1 + u ) ( 1 + v ) ] j + 1 + u u j = 1 n ( 1 + v ) j ]  et  1 + v 1 = 2 n ( n 1 ) [ ( 1 + w ) u ( 1 + w ) n 1 w + ( 1 + u ) ( 1 + v ) u ( 1 + v ) n 1 v ] = 2 ( 1 + w ) n ( n 1 ) u [ ( 1 + w ) n 1 w ( 1 + v ) n 1 v ] En développant par le binome G ( u , v ) = 2 ( 1 + w ) n ( n 1 ) u [ 1 w k = 1 n ( n k ) w k 1 v k = 1 n ( n k ) v k ] = 2 ( 1 + w ) n ( n 1 ) u k = 1 n ( n k ) ( w k 1 v k 1 )

    3. w = u + v + u v est C 1 sur 2 et w u = 1 + v : w v = 1 + u

      On a donc G ( u , v ) = 2 ( 1 + w ) n ( n 1 ) u H ( u , v )  avec  H ( u , v ) = k = 1 n ( n k ) ( w k 1 v k 1 ) Mais écrite ainsi, la fonction G n'est pas dérivable par th en ( 0 , 0 ) .

      N.B. : la suite est hors de portée en 4H...et même en davantage !

      Il est nomral de ne pas savoir le faire.

      On peut encore factorier par ( w v ) : w k 1 v k 1 = ( w v ) i = 0 k 2 w i v k 2 i

      avec w = u + v + u v donc w v = u ( 1 + v ) G ( u , v ) = 2 ( 1 + u ) ( 1 + v ) 2 n ( n 1 ) k = 2 n ( n k ) i = 0 k 2 w i v k 2 i + 0  (pour  k = 1 ) Pour dériver G , on dérivera 2 ( 1 + u ) ( 1 + v ) 2 n ( n 1 ) et H ( u , v ) = k = 2 n ( n k ) i = 0 k 2 ( w ( u , v ) ) i v k 2 i

      Dans les deux premières dérivées partielles de H ( u , v ) , les de degré > 2 seront nuls en ( 0 , 0 ) .

      On ne détails que ceux de degré 2 : (calculs pour n 4 )

      H ( u , v ) = ( n 2 ) + ( n 3 ) ( w + v ) + ( n 4 ) ( w 2 + v w + v 2 ) + \dots H ( 0 , 0 ) = ( n 2 ) = n ( n 1 ) 2 H u ( u , v ) = ( n 3 ) w u + ( n 4 ) ( 2 w w u + v w u ) + \dots = H u ( 0 , 0 ) = ( n 3 ) = n ( n 1 ) ( n 2 ) 6 2 H u 2 ( u , v ) = ( n 4 ) ( 2 ( 1 + v ) 2 ) + \dots 2 H u 2 ( 0 , 0 ) = 2 ( n 4 ) = n ( n 1 ) ( n 2 ) ( n 3 ) 12 2 H v u ( u , v ) = ( n 3 ) + ( n 4 ) ( 2 ( 1 + v ) 2 + 2 w + 2 v + 1 ) + \dots 2 H v u ( 0 , 0 ) = ( n 3 ) + 3 ( n 4 ) = n ( n 1 ) ( n 2 ) 6 ( 1 + 3 ( n 3 ) 4 ) = n ( n 1 ) ( n 2 ) ( 3 n 5 ) 24 H v ( u , v ) = ( n 3 ) ( 1 + u + 1 ) + ( n 4 ) [ 2 w ( 1 + u ) + w + v ( 1 + u ) + 2 v ] + \dots = ( n 3 ) ( 2 + u ) + ( n 4 ) [ w ( 3 + 2 u ) + v ( 3 + u ) ] + \dots H v ( 0 , 0 ) = 2 ( n 3 ) 2 H v 2 ( u , v ) = ( n 4 ) [ ( 1 + u ) ( 3 + 2 u ) + ( 3 + u ) ] + \dots 2 H v 2 ( 0 , 0 ) = 6 ( n 4 ) = n ( n 1 ) ( n 2 ) ( n 3 ) 4

      Donc G u ( u , v ) = 2 ( 1 + v ) 2 n ( n 1 ) H ( u , v ) + 2 ( 1 + u ) ( 1 + v ) 2 n ( n 1 ) H u ( u , v )  donc  G u ( 0 , 0 ) = 2 n ( n 1 ) H ( 0 , 0 ) + 2 n ( n 1 ) H u ( 0 , 0 ) = 2 n ( n 1 ) n ( n 1 ) 2 + 2 n ( n 1 ) n ( n 1 ) ( n 2 ) 6 = 1 + n 2 3 = n + 1 3

      Conclusion :

      On retrouve E ( X ) = G u ( 0 , 0 ) = n + 1 3

      Pour E ( Y ) : G v ( u , v ) = 4 ( 1 + u ) ( 1 + v ) n ( n 1 ) H ( u , v ) + 2 ( 1 + u ) ( 1 + v ) 2 n ( n 1 ) H v ( u , v )  donc  G u ( 0 , 0 ) = 4 n ( n 1 ) H ( 0 , 0 ) + 2 n ( n 1 ) H v ( 0 , 0 ) = 4 n ( n 1 ) n ( n 1 ) 2 + 2 n ( n 1 ) n ( n 1 ) ( n 2 ) 3 = 2 + 2 n 4 3 = 2 n + 2 3

      Conclusion :

      On retrouve E ( Y ) = G v ( 0 , 0 ) = 2 3 ( n + 1 )

      Et on continue .... 2 G u 2 ( u , v ) = 2 ( 1 + v ) 2 n ( n 1 ) H u ( u , v ) + 2 ( 1 + v ) 2 n ( n 1 ) H u ( u , v ) + 2 ( 1 + u ) ( 1 + v ) 2 n ( n 1 ) 2 H u 2 ( u , v ) 2 G u 2 ( 0 , 0 ) = 4 n ( n 1 ) H u ( 0 , 0 ) + 2 n ( n 1 ) 2 H u 2 ( 0 , 0 ) = 4 n ( n 1 ) n ( n 1 ) ( n 2 ) 6 + 2 n ( n 1 ) n ( n 1 ) ( n 2 ) ( n 3 ) 12 = 2 3 ( n 2 ) + 1 6 ( n 3 ) ( n 2 ) = ( n 2 ) ( n + 1 ) 6 = E ( X 2 ) E ( X )

      D'où E ( X 2 ) = ( n 2 ) ( n + 1 ) 6 + n + 1 3 = n ( n + 1 ) 6 et V ( X ) = E ( X 2 ) E ( X ) 2 = n ( n + 1 ) 6 ( n + 1 ) 2 9 = ( n + 1 ) ( n 2 ) 18

      Conclusion :

      E ( X 2 ) = n ( n + 1 ) 6 et V ( X ) = ( n + 1 ) ( n 2 ) 18

      Etc ...