Théorème de Chebyshov Ce qu'il contient, applications et exemples



Le Le théorème de Chebyshov (ou l'inégalité de Chebyshov) est l'un des résultats classiques les plus importants de la théorie des probabilités. Cela nous permet d'estimer la probabilité d'un événement décrit en termes de variable aléatoire X, en nous fournissant une dimension qui ne dépend pas de la distribution de la variable aléatoire mais de la variance de X.

Le théorème est nommé d'après le mathématicien russe Tchebychev Pafnuty (également écrit Tchebychev ou Tchebycheff) qui, en dépit de ne pas être le premier à énoncer ce théorème, fut le premier à faire une démonstration en 1867.

Cette inégalité, ou celles qui, par leurs caractéristiques, s'appellent l'inégalité de Chebyshov, servent principalement à estimer les probabilités au moyen du calcul des dimensions.

Index

  • 1 Qu'est ce que c'est?
  • 2 applications et exemples
    • 2.1 Limitation des probabilités
    • 2.2 Démonstration des théorèmes limites
    • 2.3 Taille de l'échantillon
  • 3 inégalités type Chebyshov
  • 4 références

En quoi consiste?

Dans l'étude de la théorie des probabilités se produit si la fonction de distribution d'une variable aléatoire X est connue, vous pouvez calculer votre espérance, ou espérance mathématique E (X) - et sa variance Var (X), à condition que lesdits montants existent. Cependant, la réciproque n'est pas nécessairement vraie.

Autrement dit, sachant E (X) et Var (X) ne peut pas nécessairement obtenir la fonction de distribution de X, de sorte que des quantités P (| X |> k) pour un k> 0, sont très difficiles à obtenir. Mais grâce à l'inégalité de Chebyshov, il est possible d'estimer la probabilité de la variable aléatoire.

Le théorème de Chebyshov nous dit que si nous avons une variable aléatoire X sur un espace échantillon S avec une fonction de probabilité p et si k> 0, alors:

Applications et exemples

Parmi les nombreuses applications que possède le théorème de Chebyshov, on peut citer:

Amincissement des probabilités

C'est l'application la plus courante et est utilisée pour donner une limite supérieure pour P (| XE (X) | ≥k) où k> 0, seule la variance et l'attente de la variable aléatoire X, sans connaître la fonction de probabilité .

Exemple 1

Supposons que le nombre de produits fabriqués dans une entreprise pendant une semaine soit une variable aléatoire avec une moyenne de 50.

Si l'on sait que la variance d'une semaine de la production est égale à 25, alors que pouvons-nous dire au sujet de la probabilité que la production de cette semaine diffère de plus de 10 aux médias?

Solution

En appliquant l'inégalité de Chebyshov, nous devons:

On peut en déduire que la probabilité que, dans la semaine de production, le nombre d'articles dépasse de plus de 10, la moyenne est au maximum de 1/4.

Démonstration des théorèmes limites

L'inégalité de Chebyshov joue un rôle important dans la démonstration des théorèmes limites les plus importants. Par exemple, nous avons les éléments suivants:

Loi faible des grands nombres

Cette loi stipule que, étant donné une séquence X1, X2, ..., Xn, ... des variables aléatoires indépendantes avec le même E de distribution moyenne (Xi) = μ et la variance Var (X) = σ2, et un échantillon moyen connu de:

Alors pour k> 0 il faut:

Ou, de manière équivalente:

Démonstration

Commençons par noter ce qui suit:

Puisque X1, X2, ..., Xn sont indépendants, il en résulte que:

Par conséquent, il est possible d'affirmer ce qui suit:

Ensuite, en utilisant le théorème de Chebyshov, nous devons:

Enfin, le théorème résulte du fait que la limite à droite est nulle lorsque n tend vers l'infini.

Il convient de noter que ce test a été effectué uniquement pour le cas où la variance de Xi existe; c'est-à-dire qu'il ne divergent pas. On observe donc que le théorème est toujours vrai si E (Xi) existe.

Théorème limite de Chebyshov

Si X1, X2, ..., Xn, ... est une séquence de variables aléatoires indépendantes de telle sorte que il y a un C <infini, de telle sorte que Var (Xn) ≤ C pour tout n naturel, alors pour tout k> 0:

Démonstration

Comme la succession des variances est uniformément bornée, nous avons Var (Sn) ≤ C / n, pour tout naturel n. Mais nous savons que:

En faisant n tendre vers l'infini, les résultats suivants:

Comme une probabilité ne peut pas dépasser la valeur de 1, le résultat souhaité est obtenu. En conséquence de ce théorème, nous pourrions mentionner le cas particulier de Bernoulli.

Si un essai est répété indépendamment n fois avec deux résultats possibles (succès ou l'échec), où p est la probabilité de succès dans chaque expérience et X est la variable aléatoire représentant le nombre de succès, alors pour chaque k> 0 il faut que:

Taille de l'échantillon

En ce qui concerne la variance, l'inégalité de Chebyshev nous permet de trouver une taille de l'échantillon n qui est suffisant pour faire en sorte que la probabilité que | Sn-μ |> = k se produit est aussi faible que souhaité, ce qui permet une approximation à la moyenne.

Précisément, soit X1, X2, ... Xn taille de l'échantillon n variables aléatoires indépendantes et supposons que E (Xi) = μ et la variance σ2. Puis, par l'inégalité de Chebyshev vous devez:

Maintenant, laissez δ> 0 être corrigé. Nous devons:

Exemple

Supposons que X1, X2, ... Xn sont un échantillon de variables aléatoires indépendantes avec une distribution de Bernoulli, de sorte qu'elles prennent la valeur 1 avec une probabilité p = 0.5.

Quelle devrait être la taille de l'échantillon pour pouvoir garantir que la probabilité que la différence entre la moyenne arithmétique Sn et sa valeur attendue (supérieure à 0,1) soit inférieure ou égale à 0, 01?

Solution

On a que E (X) = μ = p = 0.5 et que Var (X) = σ2= p (1-p) = 0,25. Pour l'inégalité de Chebyshov, pour tout k> 0 nous devons:

Maintenant, en prenant k = 0.1 et δ = 0.01, nous devons:

De cette manière, il est conclu qu’il faut une taille d’échantillon d’au moins 2500 pour que la probabilité de l’événement | Sn - 0.5 |> = 0.1 soit inférieure à 0.01.

Les inégalités de type Chebyshov

Il existe diverses inégalités liées à l’inégalité de Chebyshov. L’inégalité de Markov est l’une des plus connues:

Dans cette expression, X est une variable aléatoire non négative avec k, r> 0.

L'inégalité de Markov peut prendre différentes formes. Par exemple, soit Y une variable aléatoire non négative (donc P (Y> = 0) = 1) et supposons que E (Y) = μ existe. Supposons aussi que (E (Y))rr existe pour un entier r> 1. Ensuite:

Une autre inégalité est celle de Gauss, qui nous indique que pour une variable aléatoire unimodale X avec mode à zéro, alors pour k> 0,

Références

  1. Kai Lai Chung Théorie élémentaire de la proabilité avec processus stochastiques. Springer-Verlag New York Inc
  2. Kenneth.H. Rosen, les mathématiques discrètes et leurs applications. S.A.MCGRAW-HILL / INTERAMERICANA DE ESPAÑA.
  3. Paul L. Meyer. Applications probabilistes et statistiques. S.A. ALHAMBRA MEXICANA.
  4. Seymour Lipschutz Ph.D. 2000 Problèmes résolus de mathématiques discrètes. McGRAW-HILL.
  5. Seymour Lipschutz Ph.D. Théorie et problèmes de probabilité. McGRAW-HILL.