Probabilités

Tirages

Soit E un ensemble et |E| = k. Soit n le nombre d'éléments choisis dans E.

Tirage dans l'ordre

//a chaque fois qu'une valeur est tirée, elle est retirée
//donc le nombre de de valeurs possibles (k) diminue de 1
Donc : k * (k-1) * ... * (k-n+1) tirages possibles
//on reconnait la factorielle donc
k! / (k-n)! = Arrangement(n, k)

//si n=k; alors il y a k! permutations

Tirage dans l'ordre avec remise

//chaque valeur peut être tirée n fois car n tirages
Donc: K ^ n tirages possibles
// k éléments ont n endroits où être choisis

Tirage sans ordre

//il s'agit du nombre de tirages possibles sur le nombre de permutations
//n=3, [0,1,2] il existe 3! façon d'écrire cette ensemble = nombre de permutations
K! /(k-n)! n!

Tirage sans ordre avec remise

Combinaisons(k-1, n+k-1) = (n+k-1)!/(k-1)!n! = Combinaisons(n, n+k-1)
//Explication: soit n = tirages = 2, on veut au minimum 0 fois un élément, |E|=cardinal=k=3
//donc on peut écrire le nombre de tirage de chaque élément comme suit :
n1 /* tirages de l'élément 1 */ + n2 + ... + nk = n, avec ni >= 0
ici : n1 + n2 + n3 = 2, avec ni >= 0
//on cherche donc le nombre de combinaisons de soit k-1, n+k-1
ici: Combinaisons(3-1, 2+3-1) = 6

//il se pouvait que par exemple on veuille au moins 1 fois  n2, il n'y aurait
//donc plus n tirages mais n - le tirage de n2 soit ici n=1
Probabilités

On note Ω (omega) l'ensemble des issues possibles. (ex: 6 pour un dé)

On appelle un ensemble A (inclus) dans Ω un événement (expérience aléatoire). On veut attribuer une valeur P(A) soit la probabilité que A se réalise.

On appelle espace probabilité, l'ensemble comprenant l'univers Ω et ses événements.

//P(omega) = P(l'un de tous les événements possibles se réalise)
P(Ω) = 1
P() = 0
P(¬ A) = 1 - P(A)

Si A B = donc les événements sont imcompatibles

P(A  B) = P(A) + P(B)

P(A) est la somme des probabilités de d'obtenir chaque valeur pouvant être prise par l'événement A.

p(A) = Somme(wi  A, p(wo)).

Quelques autres formules

p(A  B) = p(A) + p(B) - p(A  B)
 
p(A  B  C) = p(A) + p(B) + p(C)
//sans les intersections
- p(A  B) - p(A  C) - p(B  C)
//on ajoute l'intersection retirée 3 fois donc plus comptée
+ p(A  B  C)

Distribution uniforme : |Ω|=n, et que toutes les issues ont la même probabilité (dé : 1/6).

// w  Ω
p(w) = 1/n = 1/|Ω|
//donc dans ce cas
p(A) = |A| / |Ω|
Probabilité conditionnelle

Il s'agit de définir la probabilité d'un événement sachant un autre.

p(A sachant B) = p(A  B) / p(B)
 
//autre écritures
P(A sachant B) = P(A|B)
P(A sachant B) = Pb (A)

//autres
P(B  C sachant A) = P(A|B  C) = p(A (B  C)) / p(A) 
= p(AB  AC) / p(A) = p(AB)/p(A) + p(AC)/p(A)
= Pa (B) + Pa (C)

//si p est uniforme sur Ω
Pa(w) = 1 / |A|

Attention, si vous voyez que dans le intersection, un événement englobe un autre alors c'est le plus petit ensemble qui reste. (permet de simplifier le calcul)

Multiplication

p(A  B) = p(A) * P(B|A)

Formule des probabilités totales

//Ai Aj =  si i != j
//A1  A2  ... = Ω
p(B) = p( Ω B) //toutes les branches qui mènent vers B
= p(A1  B  ....) = p(A1  B) + ....
= p(A1) * Pa1 (B) + .... 

Formule de Bayes

P(A|B)=P(A  B)/P(B) = (P(A) * P(B|A))/P(B)

Indépendance

//deux événements sont indépendants si
P(B|A) = p(B)
//ou
p(AB)/p(A) = p(A) * p(B)
Épreuves indépendantes

Le principe est de répéter des épreuves supposées indépendantes et établir pour toutes les valeurs une probabilité.

Les événements qui dépendent d'épreuves disjointes sont indépendant

//on lance 1 dé, 1 pièce, 1 dé
//la probabilité pour la somme des dés dépends de 2 événements disjoints (1er et 3ème)
p(somme dés = 7, pièce = F) = 1/6 * 1/2

//p(A) = |A|/|Ω| = |{toutes les combinaisons qui font 7}|/|{toutes les combinaisons possibles}|
p(somme dés=7) = (p(6+1) + p(2+5) + p(4+3) +
 				   p(1+6) + p(5+2) + p(3+4))
 				    / (6*6) //6 possibilités au premier lancé, 6 au second
 				= 6/36 = 1/6    

Épreuves de Bernoulli

On fait n épreuves indépendantes, on cherche le nombre de succès k sur n. On fait un tableau avec les probabilités d'avoir 0,1,2, ... succès. Attention à ne pas oublier les permutations.

//calculer les permutations de n éléments dans k
permutations(n, k) = (n!/(k!(n-k)!)

//formule
p(k succès sur n) = permutations(n,k) * p^k * (1-p)^(n-k)

Ex: dé, n=lancés=3, succès=6, k = nombre de succès

k0123
p(5/6)^3(5/6)^2*(1/6)(1/6)^2*(5/6)(1/6)^3

Explications

  • Il y a 1 chance sur 6 d'avoir 6. Avoir 0 succès, donc 3 échec, c'est être tombé sur les 5 autres chiffres 3 fois donc (5/6)^3
  • Pareil pour le suivant, mais seulement deux échec + 1/6 pour le succès
  • voir 1.
  • 3 succès donc 3 fois 1/6 soit (1/6)^3
Variables aléatoires (v.a.)

Espérance de X

L'espérance ou la moyenne se calcule en multipliant chaque résultat (gain ou perte) par sa probabilité.

X ~
x1x2... <- valeurs
p(x1)p(x2)...<- probas

E(X) = x1*p1+x2*p2+... = Somme(xi*pi)

On parle également de mode soit la valeur la plus probable d'une v.a.

Médiane

Il s'agit d'une valeur 5 telle que 50% des valeurs soit inférieures à n et 50% soit supérieures à n.

Variance de X

Il s'agit de l'écart autour de la moyenne.

V(X) = E((X - E(X))^2)

V(X) = E(X^2) - (E(X))^2

Écart-type

//σ=sigma, sqrt = racine carrée

σ(x) = sqrt(variance(x))

Distribution jointe

La distribution jointe de (X, Y) est un tableau à deux dimensions, dans lequel chaque dimension contient les résultats (gains/pertes) pour chaque variable. On calcule les probabilités pour toutes les combinaisons.

Ex: lancement de deux dés, X=min, Y=max

X\Y123456
11/362/362/362/362/362/36
201/362/362/362/362/36
3001/362/362/362/36
40001/362/362/36
500001/362/36
6000001/36

La colonne 1 ligne 1 donne la probabilité d'avoir 1 comme max et 1 comme minimum soit la paire (1,1) parmi les 36 résultats possibles soit 1/36.

//propriétés
E(constante * X) = constante * E(X)
E(X + Y) = E(X) + E(Y)
E(XY) = E(X) * E(Y) //si X et Y indépendants

V(constante * X) = constante^2 * E(X)
V(X + Y) = V(X) + V(Y) + 2 * cov(X,Y)
//si X,Y indépendant, alors cov=covariance=0 sinon
cov(x,y) = E(XY) - E(X) * E(Y)
Distribution conditionnelle

Il s'agit de trouver la probabilité que si une événement arrive, alors un autre va arriver. On note X|A le probabilité de A sachant X. On note ' P(A) ~ [tableau] ' le tableau de la distrubtion de P(A).

Soit X une v.a. sur \( \Omega \) et soit A \( \subseteq \Omega \) et P(A) != 0

X|A ~
x1x2...
\(P_a(X=x1)\)\(P_a(X=x2)\)...

\(P_a(X=x_i)\) est défini comme \( \frac{P(X=x_i, A)}{p(A)} \).

\[ E(x) = p(A_1) * E(x_1) + p(A_2) * E(x_2) + ... \]

Exemple du procédé

On sait que X = X1 + ... + Xn. On définit \( X_i \ = \ \begin{cases} 1 & événement vrai \\ 0 & sinon \end{cases} \)

P(Xi=1) = p. P(Xi=0) = 1 - p.

On sait que E(x) = n*p or p = probabilité d'une événement soit E(Xi). Donc E(x) = n * E(Xi) = p.

On sait que V(X) = E(x^2) - E(X)^2 et cov(x,y) = E(XY) - E(X) * E(Y).

V(Xi) = p - p^2
= p(1-p)/p
= (1-p) / p

cov(Xi Xj) = E(XiXj) - E(Xi) * E(Xj) //on va supposer que E(XiXj) = q mais normalement il faut le calculer (cas 0, cas 1)
//vous allez faire comme avant : calculer 0 = p(Xi=0,Xj=0) + p(Xi=1,Xj=0) + p(Xi=0,Xj=1). Calculer 1 = p(Xi=1,Xj=1)
= q - p^2

V(X) = n * V(Xi) + 2 * cov(Xi, Xj) //n = n événements
= n * ((1-p) / p) + 2 * (q - p^2)

Indicatrice

\( \mathbb{1}_{ B } \) est appelé l'indicatrice de B.

Elle vaut

  • 0 si w \( \in B \)
  • 1 si w \( \notin B \)
Loi de distributions uniformes

Loi hypergéométrique

Soit N éléments au total et K le nombre d'éléments voulus. On fait n tirages sans remise.

Notation : X ~ H(N, K, n)

On pose \( X_i \ = \ \begin{cases} 1 & si & le & tirage & est & bon \\ 0 & sinon \end{cases} \)

\(EX_i = \frac{K}{N} \ et \ V(X_i) = \frac{K}{N} * (1 - \frac{K}{N})\)

\(EX = n * EX_i = n * \frac{K}{N} \)

\(VX = n * \frac{K}{N} * (1 - \frac{K}{N}) * \frac{N-n}{N-1} \)

Loi de Poisson

L'objectif est de trouver le nombre de succès sachant un certain nombre d'épreuves n indépendantes. On suppose n très grand et p très petit.

Notation : X ~ P(\( \lambda \))

On suppose que \( \lambda \) = np = E(X) et donc p = \( \frac{\lambda}{n} \)

P(X=k) ~= \( \frac{\lambda^k}{k!} * e^{-\lambda} \)

Loi de distributions continues et normales

Loi de distribution continue

Il s'agit de définir des v.a. qui peuvent prendre toutes les valeurs réelles.

\(F_x(X)\) est continue et donc dérivable. On pose \(f_x(x) = F_x'(x)\). On a alors \( F_x(b) - F_x(a) = \int_{a}^{b} f_x(x) \ dx = \ aire \ sous \ la \ courbre \ en \ a \ et \ b \).

Loi normale

La densité \( f_x(x) = \frac{1}{\sqrt{2 \pi}} * e^{\frac{-x^2}{2}} \) est dite normale, de paramètres 0, 1 notée N(0,1).

Loi normale centrée réduite

Soit X tel que l'espérance E(x)=m et l'écart-type \( \sigma(x) = \sigma \) alors \( \tilde{X} = \frac{X-m}{\sigma}\) est centrée et réduite.

Chaîne de Markov

Soit un graphe dans lequel on passe d'un sommet à un autre selon une certaine probabilité notée \(P_{ij}\) (= probabilité de passer de i à j).

Matrice de passage/transition

Il s'agit de la représentation du graphe précédent sous la forme d'une matrice. Le total de chaque ligne vaut 1.

Il s'agit d'une matrice qui est multipliée par la matrice initiale et donne la matrice suivante.

\[ \mathbf{X} = \left( \begin{array}{ccc} 0 & \frac{1}{3} & \frac{2}{3} \\ \frac{1}{6} & \frac{1}{2} & \frac{1}{3} \\ 1 & 0 & 0 \end{array} \right) \]

Transition

La matrice de transition est multipliée par la matrice initiale et donne la matrice des probabilités avec n déplacements.

Par exemple, supposons \(X_0\) la matrice initiale et p la matrice de transition, alors \(X_1 = X_0 * p \).

\(X_n = X_0 * p^n\) = matrice de passage en n pas.

La matrice \(X_n\) contient les probabilités d'aller au sommet 0, 1, ... après n déplacements.

État stable

Après un certain nombre de transition (1000? 10 000? ...) la plupart des matrices atteignent un état stable c'est à dire que les probabilité d'aller à un certain état restent les mêmes.

Soit \(\vec{u}\) l'état stable \(\vec{u} p = \vec{u}\) car \(P^{n+1} \simeq P^n\)

\( \begin{cases} \vec{u}_1 & = & P_{\vec{u}_1 \vec{u}_1} & P_{\vec{u}_1 \vec{u}_2} & \ldots \\ \vec{u}_2 & = & P_{\vec{u}_2 \vec{u}_1} & P_{\vec{u}_2 \vec{u}_2} & \ldots \\ \vdots & & \vdots & \vdots & \ddots \end{cases} \)

Résoudre le système nous donne les probabilités.