Sauter à un chapitre clé
Variable aléatoire
Les variables dans les équations, nous les appelons aussi les inconnues. En probabilités, le concept est similaire pour une variable aléatoire.
Une variable aléatoire (réelle) est une fonction qui associe une valeur (réelle) à chaque issue possible pour une expérience aléatoire.
Nous utilisons souvent l'abréviation v.a.r. pour parler des variables aléatoires réelles.
Souvent, la valeur donnée par la variable aléatoire est la même que le résultat de l'expérience. Par exemple, la durée de vie d'une ampoule peut être considérée comme une variable aléatoire, car nous ne savons pas exactement au bout de combien de temps elle va arrêter de fonctionner. Or, nous pouvons définir des variables aléatoires différemment.
Imaginons que nous lançons un dé. Si le résultat est supérieur à \(5\), nous gagnons un euro. Sinon, nous ne gagnons rien. Nous pouvons définir cette variable aléatoire de la façon suivante :
\( X( \omega) = \begin{cases} 1 & \text{si} \ \omega = 5 \ \text{ou} \ 6 \\ 0 & \text{sinon} \end{cases} \)
Une loi de probabilité caractérise une expérience aléatoire via la distribution de ses probabilités. Parfois, elle est même appelée distribution de probabilité. Quel est donc le lien entre une variable aléatoire et une loi de probabilité ?
La loi de probabilité d'une variable aléatoire \(X\), donne la probabilité de chaque événement pour lequel la variable aléatoire est définie.
Espérance et variance
Certaines lois de probabilité, comme la loi normale, peuvent être entièrement caractérisées avec son espérance et sa variance (ou de manière équivalente, son écart-type). De plus, connaître l'espérance et la variance permet d'avoir une meilleure compréhension du comportement de l'expérience aléatoire. Par exemple, plus la variance est grande, plus variables sont les résultats. Cette information peut donc aider dans la prise d'une décision.
Notons \(x_i\) les issues d'une expérience aléatoire, \(X\) la variable aléatoire associée et \(\mathbb{P}(X= x)\) la probabilité que \(X\) soit égale à \(x\).
L'espérance est donnée par la somme : \[ \mathbb{E}(X) = \sum_{i = 1}^n x_i\mathbb{P}(X= x_i) \]
La variance est donnée par la somme : \[ Var(X) = \sum_{i = 1}^n \mathbb{P}(X= x_i) \times (x_i - \mathbb{E}(X))^2 \]
L'écart-type est la racine carrée de la variance : \[ \sigma(X) = \sqrt{Var(X)} \]
Rappel : la notation somme \( \sum_{i = 1}^n a_i\) signifie \( a_1 + ... + a_n \).
Lois à densité
Une loi à densité est une loi de probabilité qui peut se définir à l'aide d'une (fonction de) densité.
Une densité est la fonction qui donne la probabilité d'une variable aléatoire continue, c'est-à-dire, une variable aléatoire qui peut prendre un nombre infini de valeurs sur une intervalle.
La température est une variable continue, car elle peut être de 10 °C ou de 10,5 °C ou encore de 9,99 °C.
Pour une loi à densité, la probabilité que la variable aléatoire soit une valeur en particulier est nulle. La variable aléatoire peut prendre une infinité de valeurs, il est donc extrêmement rare que nous allons obtenir cette valeur spécifique. C'est pour cela que nous calculons plutôt la probabilité d'une intervalle de valeurs avec les lois à densité. Nous faisons cela grâce à la fonction de répartition.
La fonction de répartition d'une variable aléatoire \(X\) est la probabilité que la variable soit inférieure à une valeur donnée \(x\) : \[F_{X} = \mathbb{P}(X\leq x)\]
Si \(X\) est une variable à densité, en notant \(f_{X}\) sa densité, nous avons la formule suivante pour la fonction de répartition : \[ F_{X}(x) = \int_{- \infty}^{x} f_{X}(t) dt\]
Regardons comment nous pourrions mettre en oeuvre ces concepts avec diverses lois de probabilité.
Loi uniforme
Si toute issue a une probabilité égale d'arriver, la variable aléatoire associée suit une loi uniforme. Il faut distinguer entre la loi uniforme discrète et la loi uniforme continue.
Soit une expérience aléatoire avec \(n\) issues possibles. Si une variable aléatoire suit une loi uniforme discrète, alors pour toute issue \(\omega\), \(\mathbb{P}(\omega) = \frac{1}{n} \).
Soit une variable aléatoire \(X\) ayant des valeurs dans l'intervalle \([a, b]\). Si \(X\) suit une loi uniforme continue, alors sa densité est \(\frac{1}{b-a} \).
Le résultat du lancer d'un dé équilibré suit une loi uniforme discrète. Chacun des résultats a une probabilité de \( \frac{1}{6}\) d'arriver.
Soit X une variable aléatoire qui suit une loi uniforme continue sur \([a, b]\). Voici quelques propriétés utiles pour la loi uniforme continue :
\(F_{X}(x) = \frac{x-a}{b-a} \), pour \( x \in [a, b] \)
\( \mathbb{E}(X) = \frac{a+b}{2} \)
\( Var(X) = \frac{{b-a}^2}{12} \)
Ces propriétés peuvent être démontrées à l'aide des définitions de la fonction de répartition, de l'espérance et de la variance, respectivement.
Loi de Bernoulli
Une épreuve de Bernoulli est une expérience dans laquelle il n'y a que deux issues : réussite ou échec. Pour définir la loi de Bernoulli, nous n'avons besoin que de la probabilité de réussite.
Une variable aléatoire \(X\) suit une loi de Bernoulli de paramètre \(p\) si : \[ \mathbb{P}(X = x) = \begin{cases} p & \text{si} \ x = \ 1 \\ 1-p & \text{si} \ x = \ 0 \\ 0 & \text{sinon} \end{cases} \]
Un jeu de pile ou face fournit un exemple d'une loi de Bernoulli. Nous pouvons considérer pile comme une « réussite » et face comme un « échec » — ou inversément.
Si X est une variable aléatoire qui suit une loi de Bernoulli, il faut garder à l'esprit quelques propriétés pour la manipuler :
\( \mathbb{E}(X) = p \)
\( Var(X) = p(1-p) \)
La loi de Bernoulli peut être utilisée pour définir d'autres lois de probabilité, comme la loi binomiale.
Loi binomiale
Nous pouvons résumer la répétition de \(n\) épreuves de Bernoulli indépendantes dans une loi binomiale. Cette succession est appelée un schéma de Bernoulli. En effet, la loi binomiale s'utilise pour modéliser le nombre de succès parmi \(n\) expériences. Pour caractériser cette loi, il faut connaître le taux de réussite, \(p\), et le nombre d'expériences, \(n\).
Si \(X\) suit une loi binomiale, alors la probabilité de \(k\) succès en ayant effectué \(n\) expériences est égale à : \[ \mathbb{P}(X = k) = \binom{n}{k} p^{k}(1-p)^{n-k} \]
Une équipe de foot jouera huit matchs. D'après sa saison précédente, elle a un taux de réussite de 60 %. Estimons la probabilité que l'équipe gagne la moitié de ses matchs.
Ici, \(p=0{,}6\), \(n=8\) et \(k=4\).
\( \mathbb{P}(X = 4) = \binom{8}{4} 0{,}6^{4} \times (0{,}4)^{4} \)
\( \mathbb{P}(X = 4) = 0{,}23 \)
Comme pour toute loi de probabilité, il est important de connaître les formules pour son espérance et pour sa variance.
\( \mathbb{E}(X) = np \)
\( Var(X) = np(1-p) \)
Loi géométrique
Très similaire à la loi binomiale est la loi géométrique. La loi géométrique donne la probabilité d'un succès après un certain nombre de tentatives.
Soit \(p\) la probabilité d'un succès. Si la variable aléatoire \(X\) suit une loi géométrique, alors la probabilité d'obtenir un succès après \(k\) essais est : \[ \mathbb{P}(X = k) = p(1-p)^{k-1} \]
L'espérance et la variance d'une variable aléatoire qui suit une loi géométrique sont :
- \( \mathbb{E}(X) = \frac{1}{p} \)
- \( Var(X) = \frac{1-p}{p^2} \)
Loi de Poisson
Non, rien à voir avec l'animal. Cette loi au dûe au scientifique Siméon Denis Poisson. Nous utilisons la loi de Poisson pour modéliser des événements qui arrivent dans une intervalle ou un espace donné. Il est nécessaire de connaître la probabilité en moyenne que l'événement en question se produise, \( \lambda\). De plus, cette probabilité devrait être faible.
Soit une variable aléatoire \(X\) qui suit une loi de Poisson de paramètre \( \lambda \). La probabilité qu'un événement se produise \(k\) fois dans une intervalle donnée est : \[ \mathbb{P}(X = k) = \frac{ e^{-\lambda} \lambda^k}{k!} \]
Sur une route principale, de nombreuses voitures passent au cours d'une heure. En moyenne, 5 % des voitures roulent en excès de vitesse. Calculons la probabilité que 3 voitures dépassent la limite de vitesse en une heure.
Ici, \(\lambda = 0{,}05\) et \(k = 3\).
\( \mathbb{P}(X = 3) = \frac{ e^{-0{,}05} \times 0{,}05^3}{3!} \)
\( \mathbb{P}(X = 3) = 0{,}00002\)
L'espérance d'une loi de Poisson est \( \lambda\), par définition. Sa variance est également \( \lambda\).
Loi exponentielle
La loi exponentielle peut être utilisée pour modéliser la radioactivité ou le temps d'attente dans une queue.
Si la variable aléatoire \(X\) suit la loi exponentielle de paramètre \( \lambda \), alors sa densité est : \[ \mathbb{P}(X = x) = \begin{cases} \lambda e^{-\lambda x} & \text{si} \ x \geq \ 0 \\ 0 & \text{si} \ x < 0 \end{cases} \]
L'espérance d'une loi exponentielle avec paramètre \(\lambda\) est \( \frac{1}{\lambda}\), et sa variance est \( \frac{1}{\lambda}^2\). De plus, sa fonction de répartition est \(F_{X}(x) = 1 - e^{-\lambda x}\)
La durée de vie moyenne d'une certaine marque d'ampoule est de deux ans et demi. Nous pouvons modéliser la durée de vie de ces ampoules avec une loi exponentielle de paramètre qui vérifie :
\( \frac{1}{\lambda} = 2{,}5\)
\( \lambda = 0{,}4\)
Loi de probabilité - Points clés
- Une variable aléatoire (réelle) est une fonction qui associe une valeur (réelle) à chaque issue possible pour une expérience aléatoire.
- Si toute issue a une probabilité égale d'arriver, la variable aléatoire associée suit une loi uniforme.
- Une variable aléatoire \(X\) suit une loi de Bernoulli de paramètre \(p\) si : \[ \mathbb{P}(X = x) = \begin{cases} p & \text{si} \ x = \ 1 \\ 1-p & \text{si} \ x = \ 0 \\ 0 & \text{sinon} \end{cases} \]
- Si \(X\) suit une loi binomiale, alors la probabilité de \(k\) succès en ayant effectué \(n\) expériences est égale à : \[ \mathbb{P}(X = k) = \binom{n}{k} p^{k}(1-p)^{n-k} \]
- Si \(X\) suit la loi de Poisson de paramètre \( \lambda \), la probabilité qu'un événement se produise \(k\) fois dans une intervalle donnée est : \[ \mathbb{P}(X = k) = \frac{ e^{-\lambda} \lambda^k}{k!} \]
- Si \(X\) suit la loi exponentielle de paramètre \( \lambda \), alors sa densité est : \[ \mathbb{P}(X = x) = \begin{cases} \lambda e^{-\lambda x} & \text{si} \ x \geq \ 0 \\ 0 & \text{si} \ x < 0 \end{cases} \]
Apprends plus vite avec les 2 fiches sur Loi de probabilité
Inscris-toi gratuitement pour accéder à toutes nos fiches.
Questions fréquemment posées en Loi de probabilité
Quelles sont les lois de la probabilité ?
Les lois probabilité couramment utilisées sont la loi normale, loi de Bernoulli, la loi binomiale, la loi géométrique et la loi de Poisson.
Comment s'écrit une loi de probabilité ?
Nous pouvons écrire une loi de probabilité à l'aide d'une fonction ou sous forme de tableau.
Qu'est-ce que la loi normale en probabilité ?
La loi normale est une fonction qui donne la probabilité qu'une variable soit égale à une valeur donnée. Nous avons besoin de l'espérance et de la variance pour complètement définir cette loi. La courbe de sa fonction de densité prend la forme d'une cloche, avec un pic à la valeur de l'espérance.
Comment justifier une loi de probabilité ?
Pour justifier l'utilisation d'une certaine loi de probabilité, nous devons vérifier que les conditions de cette loi se trouvent dans le phénomène que nous souhaitons modéliser.
À propos de StudySmarter
StudySmarter est une entreprise de technologie éducative mondialement reconnue, offrant une plateforme d'apprentissage holistique conçue pour les étudiants de tous âges et de tous niveaux éducatifs. Notre plateforme fournit un soutien à l'apprentissage pour une large gamme de sujets, y compris les STEM, les sciences sociales et les langues, et aide également les étudiants à réussir divers tests et examens dans le monde entier, tels que le GCSE, le A Level, le SAT, l'ACT, l'Abitur, et plus encore. Nous proposons une bibliothèque étendue de matériels d'apprentissage, y compris des flashcards interactives, des solutions de manuels scolaires complètes et des explications détaillées. La technologie de pointe et les outils que nous fournissons aident les étudiants à créer leurs propres matériels d'apprentissage. Le contenu de StudySmarter est non seulement vérifié par des experts, mais également régulièrement mis à jour pour garantir l'exactitude et la pertinence.
En savoir plus