Mémento de probabilités discrètes

par Pierre Veuillez

Préalables :

Passer du temps pour avoir en tête toutes les données de l'énoncé : signification des notations et conditions de l'expérience.

Prendre des notations adaptées et standard : majuscules pour les événements et les variables aléatoires, minuscules pour leurs probabilités.

Quand il y a répétition de l'expérience, noter en indice le numéro de l'expérience.

Traduction

Formalisation de la langue :

Tous, aucun, jamais, toujours, le premier : la probabilité est le produit des probabilités (indépendants) conditionnés par les précédents (en général)

P ( k = 1 + A k ) = lim N + ( P ( k = 1 N A k ) )

au moins un, ou : la probabilité est la somme ou la somme de la série (incompatible) le crible (petites réunions) ou l'événement contraire.

si A alors B : A B et P ( A ) P ( B )

Si A : on parle alors de probabilités conditionnelle sachant A .

Concrétisation :

les probabilités conditionnelles se calculent le plus souvent par traduction du conditionnement.

On reconnaît alors souvent une loi usuelle, ou bien une même situation avec un décalage.

Ce n'est que lorsque l'on ne peut pas que l'on passe par la formule de Bayes.

Les situations usuelles :

Espérance

E ( X ) = k X ( Ω ) k P ( X = k ) ou somme de série si convergence absolue.

E ( f ( X ) ) = k f ( k ) P ( X = k ) si convergence absolue (théorème de transfert)

E ( i X i ) = i E ( X i ) si chacune existe (cf Bernouilli)

E ( f ( X , Y ) ) = i j f ( i , j ) P ( X = i Y = j ) si convergence absolue

E ( X Y ) = E ( X ) E ( Y ) si indépendants.

V ( a X + b ) = a 2 V ( X ) et V ( X + Y ) = V ( X ) + V ( Y ) si indépendants.

Quand l'expérience se déroule en deux temps,

et que les conditions du second temps dépendent du résultat du premier.

En particulier quand le second temps dépend de la valeur d'une variable aléatoire définie dans le premier temps !

En particulier quand on reconnaît une loi usuelle, à condition de connaître le résultat du premier temps.

Probabilités totales

On donne comme système complet d'événement tous les résultats possibles du premier temps, (typiquement, ( N = n ) n * ) et on applique la formule des probabilités totales (indexée par le système complet)

Loi marginale

On détermine la loi du couple puis on a la loi de l'une comme loi marginale en sommant sur l'autre paramètre

Quand l'expérience suivante dépend du résultat précédent : C n + 1 = M C n

Le SCE est formé des résultats possibles à l'étape n .

Leurs probabilités sont mises en matrice colonne C n

On applique les probabilités totales pour la probabilité de chacun des valeurs suivantes.

Et on écrit la matrice colonne des résultat sous forme de produit matricielle C n + 1 = M C n .

L'espérance -qui est une somme de produit- peut aussi s'écrire en produit ligne des valeurs *colonne.des probabilités.

Quand on répète une même expérience à deux issues (échec ou succès)

le rang X du premier succès est donné

le nombre X de succès est donné

Lois usuelles :

Géométrique

X 𝒢 ( p ) si X ( Ω ) = [ [ 1 , + [ [ et pour tout k [ [ 1 , + [ [ : P ( X = k ) = ( 1 p ) k 1 p

E ( X ) = 1 p et V ( X ) = 1 p p 2

à noter : P ( X > k ) = ( 1 p ) k (que des échecs jusqu'à k )

Bernouilli

X ( 1 , p ) si X ( Ω ) = { 0 ; 1 } et P ( X = 1 ) = p

E ( X ) = p et V ( X ) = p ( 1 p )

à noter : une somme de variable de Bernouilli est le nombre total de succès.

Binomiale

X ( n , p ) si si X ( Ω ) = [ [ 0 , n ] ] et pour tout k [ [ 0 , n ] ] : P ( X = k ) = ( n k ) p k ( 1 p ) n k

E ( X ) = n p et V ( X ) = n p ( 1 p )

à noter : Si X ( n , p ) et Y ( m , p ) indépendantes de même paramètre de succès p alors X + Y ( n + m , p ) .

Poisson

X 𝒫 ( α ) si si X ( Ω ) = et pour tout k : P ( X = k ) = e α α k k !

E ( X ) = α et V ( X ) = α

à noter : Si X 𝒫 ( α ) et Y 𝒫 ( β ) indépendantes alors X + Y 𝒫 ( α + β ) .

Hypergéométrique

X ( N , n , p ) avec a = N p (nombre de favorables) et b = n ( 1 p ) nombre de défavorables

P ( X = k ) = ( a k ) ( b n k ) ( N n ) pour tout k [ [ max ( 0 , n b ) ; min ( a , n ) ] ] = X ( Ω ) les bornes se retrouvent par les conditions sur les coefficients du binôme. ( 0 k a et 0 n k b )

E ( X ) = n p comme pour la loi binomiale.

Uniforme

X 𝒰 [ [ 1 , n ] ] si X ( Ω ) = [ [ 1 , n ] ] et pour tout k [ [ 1 , n ] ] : P ( X = k ) = 1 n

E ( X ) = n + 1 2 et V ( X ) = n 2 1 12

à noter : Si X 𝒰 [ [ a , b ] ] ((valeurs de [ [ a , b ] ] équiprobables) alors Y = X a + 1 𝒰 [ 1 , b a + 1 ] ce qui permet de calculer son espérance a + b 2 et sa variance.

Approximations

Programmation

Compteur

un compteur, est initialisé à 0 avant les boucles : c:=0; et il est augmenté de 1 chaque fois qu'il le faut : c:=c+1;

Accumulateur

Un accumulateur est initialisé à 0 (sommes) ou 1 (produit ou puissance) et il est augmenté (somme) ou multiplié (produit)de la quantité à chaque fois S:=S+?; ou P:=P*?;

Tirage

randomize; initialise le générateur de nombre aléatoire.

random; donne un nombre au hasard de [0,1[ suivant une loi uniforme.

N.B.

(random<x) a une probabilité de x pour tout x [ 0 , 1 ]

N.B.

(x<random<x+y) a une probabilité de y pour tout x et x + y [ 0 , 1 ]

random(a); donne un nombre aléatoire de l'intervalle [0,a[ si a est un réel ou de [[0,a-1]] si a est un entier, suivant une loi uniforme

N.B.

Pour simuler un lancer de dé : D:=randomize(6)+1
(dans [[0,5]]+1 donc dans [[1,6]] )

Pour avoir un événement de probabilité 0,28 : if (random<0,28) then...

Rang du premier succès, nombre de succès, total des résultats.

Pour obtenir le rang du premier succès, on a besoin d'un compteur pour le nombre d'expérience, et de répéter l'expérience jusqu'à obtenir le succès.

Pour obtenir en plus la somme des résultats du dé, on utilise un accumulateur de somme.

Pour connaître le nombre de 2 obtenus entre temps, il faut un second compteur.

var c,c2,S,D:integer;

begin

randomize

c:=0;S:=0;c2:=0;

repeat

D:=random(6)+1;

c:=c+1;S:=S+D;

if (D=2) then c2:=c2+1;

until D=6;

writeln(c,' ',S,' ',c2)

end.