Course Prerequisites and Syllabus

Sin tarjetas

This note is about the prerequisites for the course, including the syllabus, recommended readings, and course content.

Voici un résumé en français, formaté comme un aide-mémoire, des concepts clés des probabilités et statistiques.

1. L'Aléatoire et les Probabilités

La théorie des probabilités offre un cadre pour analyser les épreuves aléatoires.

1.1. Épreuve Aléatoire

Définition 1.1.1: Une épreuve aléatoire est une situation qui peut donner lieu à différents résultats, sans qu'on puisse prédire lequel se produira.

  • Exemples: lancer de dés, sexe des enfants à naître, durée de vie d'une ampoule.

1.2. Ensemble des Résultats Possibles ()

  • On doit pouvoir décrire l'ensemble de tous les résultats possibles, noté .

  • Exemple 1 (lancer d'un dé):

  • Exemple 2 (lancer de deux dés): (36 couples)

  • Exemple 3 (sexe de 2 enfants): (4 couples)

  • peut être fini ou infini (mais dénombrable dans ce chapitre).

1.3. Distribution de Probabilité

  • Les probabilités sont des nombres entre 0 et 1 attribués aux résultats possibles, dont la somme est égale à 1.

  • Équiprobabilité: Tous les résultats ont la même probabilité (ex: pièce équilibrée , dé non truqué ).

  • Dé non truqué: .

  • Dé pipé: Probabilités différentes (ex: ).

Définition 1.3.1: Pour résultats possibles désignés par , une distribution de probabilité est un ensemble de couples tels que:

  • pour tout .

  • .

  • Le couple (ensemble des résultats possibles - distribution de probabilité) forme un modèle de probabilité.

1.4. Événement et Probabilité d'un Événement

Définition 1.4.1: Un événement est une proposition logique relative à l'issue d'une épreuve aléatoire, qui peut être vraie ou fausse selon le résultat.

  • Exemple (jet d'un dé): "obtenir un 6", "obtenir un nombre pair".

  • Événement élémentaire (ou simple): Se réalise pour un seul résultat possible (ex: "obtenir un 6").

Calcul de la Probabilité d'un Événement

  1. Cas équiprobable:

Définition 1.4.2: Pour résultats équiprobables, et un événement , , où est le nombre de résultats favorables à .

  • Cas non équiprobable:

Définition 1.4.3: Pour résultats possibles avec probabilités , , somme des probabilités des résultats réalisant .

  • La Définition 1.4.2 est un cas particulier de la Définition 1.4.3 (où ).

Propriété 1.4.4: La probabilité d'un événement est toujours comprise entre 0 et 1: .

  • Astuce!: Si vous obtenez une probabilité > 1 ou négative, il y a une erreur.

2. Le Calcul des Probabilités – I

2.1. Représentation Ensembliste d'un Événement

  • Les événements peuvent être représentés comme des parties (sous-ensembles) de .

  • Exemple (lancer d'un dé):

    • "obtenir un nombre pair"

    • "obtenir un multiple de 3"

2.2. Événements Équivalents

Définition 2.2.1: Deux événements sont équivalents si l'un se réalise chaque fois que l'autre se réalise. En termes ensemblistes, ils correspondent au même sous-ensemble de . On note .

Propriété 2.2.2: Deux événements équivalents ont la même probabilité.

2.3. Événement Certain et Événement Impossible

Définition 2.3.1:

  • Événement certain: Se réalise quel que soit le résultat de l'épreuve. Noté .

  • Événement impossible: Ne se réalise pour aucun résultat. Noté .

Propriété 2.3.2: et .

  • Attention: La réciproque n'est pas toujours vraie (sauf pour fini).

2.4. Événement Contraire ()

Définition 2.4.1: L'événement contraire (ou complémentaire) de , noté , se réalise si et seulement si ne se réalise pas. Il correspond à la partie complémentaire de dans .

  • Exemple: "obtenir un nombre pair" () ; "obtenir un nombre impair" ().

  • L'événement contraire de est , et vice-versa.

Propriété 2.4.2: Pour tout événement , .

2.5. Événements "A ou B", "A et B" et Loi d'Addition

Définition 2.5.1: L'événement "A ou B" (noté ) se réalise si au moins l'un des deux événements ou se réalise. Ensembliste: réunion .

Définition 2.5.2: L'événement "A et B" (noté ) se réalise si et se réalisent tous les deux. Ensembliste: intersection .

  • "A ou B" peut se réaliser de 3 manières: seulement, seulement, ou et .

  • "A et B" se réalise d'une seule manière.

Lois de De Morgan et autres propriétés

Propriété 2.5.3 (Loi de De Morgan):

Propriété 2.5.4:

Loi d'Addition

Propriété 2.5.5: Quels que soient les événements , .

  • Cette loi s'étend à plus de deux événements mais devient complexe.

2.6. Événements Mutuellement Exclusifs

Définition 2.6.1: Deux événements sont mutuellement exclusifs (ou incompatibles) s'ils ne peuvent pas être réalisés en même temps. En termes ensemblistes: (intersection vide).

  • Deux événements contraires sont mutuellement exclusifs, mais l'inverse n'est pas vrai.

Propriété 2.6.2: Si sont mutuellement exclusifs, alors , ce qui implique .

  • Cette loi d'addition se généralise pour événements mutuellement exclusifs: .

2.7. Système Complet d'Événements Mutuellement Exclusifs (Partition)

Définition 2.7.1: Des événements forment un système complet d'événements mutuellement exclusifs (ou partition) si:

  1. L'événement " ou ou " est certain (couvre ).

  2. Les événements sont mutuellement exclusifs.

  • En termes ensemblistes: et pour .

Propriété 2.7.2: Si est une partition, alors .

Propriété 2.7.3: Si est une partition et un événement quelconque, .

  • Cas particulier (): .

2.8. Implication

Définition 2.8.1: Un événement implique un événement ( ou ) si chaque fois que est réalisé, l'est aussi. Ensembliste: .

  • Exemple: "obtenir un 2" () implique "obtenir un nombre pair" ().

Propriété 2.8.2: Si implique , alors .

2.9. Remarque

  • Distinction clé: Les opérations logiques ("ou", "et") s'appliquent aux événements. Les opérations arithmétiques ("+", "x") s'appliquent aux probabilités (qui sont des nombres).

  • Il est incorrect d'écrire .

3. Le Calcul des Probabilités – II: Probabilité Conditionnelle, Dépendance et Indépendance

3.1. Probabilité Conditionnelle ()

  • La probabilité conditionnelle est une réévaluation de la probabilité d'un événement basée sur la connaissance qu'un autre événement s'est réalisé.

  • Elle est notée et se lit "probabilité de sachant ".

  • Probabilité a priori / non conditionnelle: sans information.

  • Rôles dissymétriques: apporte l'information, est l'événement dont on calcule la probabilité.

Définition 3.1.1: La probabilité conditionnelle de A sachant B est , à condition que .

  • Cas équiprobable: .

  • L'interprétation ensembliste de est la probabilité que, parmi les résultats qui réalisent , ce soit un résultat qui réalise aussi " et ".

Propriétés de la Probabilité Conditionnelle

  • Elles sont similaires aux propriétés des probabilités a priori, en remplaçant la probabilité de base par la probabilité conditionnelle sachant .

  • Toujours implicitement supposé que .

Propriété 3.1.2: .

Propriété 3.1.4: Si , alors . (En particulier, ).

Propriété 3.1.5: Si sont mutuellement exclusifs, alors . (En particulier, ).

Propriété 3.1.6: Si , alors . (En particulier, ).

Propriété 3.1.7: .

Propriété 3.1.8 (Loi d'addition conditionnelle): .

Propriété 3.1.9: Si sont mutuellement exclusifs, .

Propriété 3.1.10: Si forment une partition, alors .

Propriété 3.1.11: Si , alors .

Probabilité Conditionnelle et Loi de Multiplication

Propriété 3.1.12 (Loi de multiplication): Pour tout événement , .

  • Cette loi permet de calculer la probabilité de l'intersection de deux événements.

  • Generalisation pour trois événements: .

Propriété 3.1.14 (Loi de multiplication conditionnelle): .

Théorème de Bayes

  • Relie à .

Propriété 3.1.15 (Formule de Bayes I): .

Propriété 3.1.16 (Formule de Bayes II): Si forment une partition, .

  • Utilisation: Permet de mettre à jour des probabilités a priori () en probabilités a posteriori () grâce à une nouvelle information ().

Propriété 3.1.18: Si forment une partition, . (Loi des probabilités totales)

3.2. Dépendance et Indépendance

Définition 3.2.1: est indépendant de si (sachant ).

  • La connaissance de ne change pas la probabilité de .

  • Si , est dépendant de .

Définition 3.2.2: Deux événements sont indépendants si .

  • Cette définition est symétrique (si A est indépendant de B, B est indépendant de A).

  • Elle est plus générale car elle est valable même si ou .

Propriété 3.2.3: Si et sont indépendants, alors (), () et () sont également indépendants.

Événements Mutuellement Exclusifs et Indépendants

Propriété 3.2.4: Deux événements mutuellement exclusifs sont généralement dépendants (sauf si l'un a une probabilité nulle).

  • Erreur fréquente: Ne pas confondre mutuellement exclusifs () et indépendants ().

Indépendance de Plus de Deux Événements

  • Indépendance deux à deux: Chaque paire d'événements est indépendante.

Définition 3.2.6: Trois événements sont indépendants dans leur ensemble s'ils sont indépendants deux à deux et si .

  • L'indépendance deux à deux n'implique pas l'indépendance dans leur ensemble, et vice-versa.

Définition 3.2.7: Des événements sont indépendants dans leur ensemble si, pour toute sélection de événements, la probabilité de leur intersection est le produit de leurs probabilités individuelles.

Indépendance et Loi de Multiplication

  • Si les événements sont indépendants (par hypothèse ou nature de l'épreuve), la probabilité de leur intersection est le produit de leurs probabilités a priori.

  • Pour indépendants: .

  • Pour indépendants: .

4. Variables Aléatoires

Ce chapitre introduit la notion de variable aléatoire pour décrire les résultats numériques d'une épreuve aléatoire.

4.0. Introduction aux Variables Aléatoires

Définition 4.0.1: Une variable aléatoire (v.a.) est une variable qui prend différentes valeurs selon une distribution de probabilité. Elle décrit une épreuve aléatoire et ses résultats possibles.

  • Exemple: Gain d'un jeu de dé .

  • Exemple: Durée de vie d'une ampoule .

  • Notation: Variables aléatoires en majuscules (), valeurs prises en minuscules ().

Types de Variables Aléatoires

  • Variables aléatoires discrètes: Prennent des valeurs isolées (fini ou infini dénombrable).

  • Variables aléatoires continues: Prennent un continuum de valeurs dans un intervalle.

4.1. Variables Aléatoires Discrètes

Définition 4.1.1: Une v.a. discrète prend un nombre fini, ou infini mais dénombrable, de valeurs .

4.1.1. Loi d'une Variable Aléatoire Discrète

Définition 4.1.2: La loi (ou distribution de probabilité) d'une v.a. discrète est un ensemble de couples , où , tels que:

  • pour tout .

  • .

  • Pas très différente de la distribution de probabilité d'une épreuve aléatoire, mais les résultats sont numériques.

  • Calcul des probabilités d'événements: Somme des pour les concernés par l'événement.

  • Les lois discrètes sont souvent représentées par un diagramme en bâtons.

  • Lien avec la statistique descriptive: La loi de est la distribution de fréquence dans la population si est "tiré au hasard".

4.1.2. Fonction de Répartition d'une Variable Aléatoire Discrète

Définition 4.1.3: La fonction de répartition d'une v.a. discrète est .

  • Probabilités cumulées.

  • Représentée graphiquement par une fonction en escalier.

  • Croissante, de 0 à 1. Points de discontinuité aux valeurs .

4.1.3. Espérance et Variance d'une Variable Aléatoire Discrète

  • Il s'agit d'indicateurs synthétiques de la loi de (tendance centrale, dispersion).

Définition 4.1.4: L'espérance (ou moyenne) d'une v.a. discrète est .

  • Moyenne pondérée par les probabilités. Elle est un indicateur de la tendance centrale.

  • Corresponds à la moyenne en statistique descriptive.

Définition 4.1.5: La variance d'une v.a. discrète est , où . L'écart-type est .

  • La variance est une mesure de la dispersion autour de l'espérance.

  • L'écart-type a la même unité que .

  • Corresponds à et en statistique descriptive.

Propriété 4.1.6 (Formule de Koenig-Huygens): . Cette forme est souvent plus pratique pour le calcul.

4.2. Variables Aléatoires Continues

Définition 4.2.1: Une v.a. continue prend un continuum de valeurs dans un ou plusieurs intervalles.

  • Exemple: Point d'impact d'une boule de bowling sur un intervalle .

  • Impossible de faire la liste des valeurs possibles comme pour les discrètes.

4.2.1. Loi d'une Variable Aléatoire Continue (Densité de Probabilité)

Définition 4.2.2: La densité de probabilité d'une v.a. continue est une fonction telle que:

  • pour tout .

  • .

La probabilité qu'une valeur soit dans un intervalle est .

  • L'aire totale sous la courbe de est 1.

  • Le passage du discret au continu: devient , devient .

Propriété 4.2.3: Si est une v.a. continue, pour toute valeur .

  • La probabilité d'une valeur ponctuelle est nulle.

Propriété 4.2.4: pour les v.a. continues.

  • Interprétation de : . Elle donne les probabilités relatives d'observer dans un même petit intervalle autour de .

  • Lien avec la statistique descriptive: La densité est l'analogue de l'histogramme de fréquence limite pour une grande population et des classes fines.

4.2.2. Fonction de Répartition d'une Variable Aléatoire Continue

Définition 4.2.5: La fonction de répartition d'une v.a. continue est .

  • est la primitive de , et est la dérivée de .

  • Elle est continue (contrairement au cas discret).

  • Croissante, de 0 à 1.

Propriété 4.2.6: . (Permet d'éviter le calcul d'intégrales si est connue, souvent tabulée).

4.2.3. Espérance et Variance d'une Variable Aléatoire Continue

Définition 4.2.7: L'espérance d'une v.a. continue est .

Définition 4.2.8: La variance d'une v.a. continue est , où . L'écart-type est .

  • Ces définitions sont des transpositions au cas continu des formules discrètes (somme remplacée par intégrale).

Propriété 4.2.9 (Formule de Koenig-Huygens pour le continu): .

4.3. Fonction d'une Variable Aléatoire

  • Si est une v.a., alors (où est une fonction) est aussi une v.a. (ex: ).

4.3.1. Loi d'une fonction d'une variable aléatoire

  • Cas discret:

    • Les valeurs possibles de sont .

    • . (Somme des probabilités de tous les qui donnent le même ).

  • Cas continu:

    • Plus complexe, on se limite aux fonctions strictement croissantes ou décroissantes et différentiables.

Propriété 4.3.1: Si est v.a. continue de densité , et (avec strictement croissante ou décroissante et différentiable), alors la densité de est .

4.3.2. Espérance et Variance d'une fonction d'une variable aléatoire

  • On peut calculer et en utilisant la loi de (calculée précédemment) ou directement à partir de la loi de .

Propriété 4.3.2: Pour ,

  • Discret: .

  • Continu: .

  • La variance est un cas particulier d'espérance: .

Propriété 4.3.3: .

Propriété 4.3.4: Pour ,

  • Discret: .

  • Continu: .

Propriétés des fonctions linéaires ()

Propriété 4.3.5: . (En particulier, ).

  • Attention: n'est vrai que pour les fonctions linéaires.

Propriété 4.3.6: et . (En particulier, ).

4.3.3. Standardisation d'une Variable Aléatoire

  • On peut créer une v.a. d'espérance 0 et variance 1 (v.a. centrée réduite ou standardisée) à partir de toute v.a. .

  • On vérifie que et .

5. Couples et Vecteurs de Variables Aléatoires

Ce chapitre étend le concept de variable aléatoire à plusieurs dimensions, en se concentrant sur les couples de variables aléatoires.

5.1. Couples de variables aléatoires discrètes

Définition 5.1.1: Un couple de variables aléatoires discrètes prend un nombre fini, ou infini mais dénombrable, de couples de valeurs .

  • Décrit une épreuve aléatoire avec deux aspects (ex: nombre de clients et de ventes).

5.1.1. Loi jointe d'un couple de variables aléatoires discrètes

Définition 5.1.2: La loi (ou distribution de probabilité) jointe d'un couple est un ensemble de couples , où , tels que:

  • .

  • .

  • Représentée généralement par un tableau à double entrée.

  • Calcul des probabilités d'événements: Somme des pour les couples réalisant l'événement.

5.1.2. Lois marginales d'un couple de variables aléatoires discrètes

  • Elles décrivent la distribution de chaque variable prise isolément à partir de la loi jointe.

Définition 5.1.3:

  • Loi marginale de : .

  • Loi marginale de : .

  • En pratique, on somme les probabilités sur les lignes (pour ) ou sur les colonnes (pour ) du tableau de loi jointe.

  • Les lois marginales sont des lois de variables aléatoires discrètes univariées, toutes les notions du Chapitre 4 s'appliquent.

5.1.3. Lois conditionnelles d'un couple de variables aléatoires discrètes

  • Elles décrivent la distribution d'une variable sachant la valeur de l'autre.

Définition 5.1.4:

  • Loi conditionnelle de sachant : .

  • Loi conditionnelle de sachant : .

  • Il y a autant de lois conditionnelles qu'il y a de valeurs possibles pour la variable conditionnante.

  • Propriété 5.1.5: et . (Permet de construire des lois jointes).

Espérance et Variance Conditionnelles

Définition 5.1.6:

  • Espérance conditionnelle de sachant : .

  • Variance conditionnelle de sachant : .

  • Ces quantités sont souvent des fonctions de , appelées respectivement fonction d'espérance conditionnelle (ou courbe de régression) et fonction de variance conditionnelle.

5.2. Couples de variables aléatoires continues

Définition 5.2.1: Un couple de variables aléatoires continues prend un continuum de couples de valeurs dans un ou plusieurs intervalles.

  • Exemple: Distances horizontale et verticale d'impact d'une flèche sur une cible.

5.2.1. Loi jointe d'un couple de variables aléatoires continues (Densité jointe)

Définition 5.2.2: La densité de probabilité jointe d'un couple est une fonction telle que:

  • .

  • .

La probabilité qu'un couple soit dans un rectangle est .

  • Le volume total sous la surface de est 1.

  • La probabilité d'un couple de valeurs ponctuel est 0.

  • est approximativement proportionnelle à la probabilité d'observer dans un petit carré autour de .

5.2.2. Lois marginales d'un couple de variables aléatoires continues

  • Obtenues en intégrant la densité jointe sur l'autre variable.

Définition 5.2.3:

  • Densité marginale de : .

  • Densité marginale de : .

  • Ces fonctions et sont bien des densités de probabilité univariées.

5.2.3. Lois conditionnelles d'un couple de variables aléatoires continues

  • Décrivent la distribution d'une variable sachant la valeur de l'autre.

Définition 5.2.4:

  • Densité conditionnelle de sachant : (pour ).

  • Densité conditionnelle de sachant : (pour ).

  • Propriété 5.2.5: et .

  • On peut définir des probabilités conditionnelles même pour des événements de probabilité nulle (ex: ).

Espérance et Variance Conditionnelles Continues

Définition 5.2.6:

  • Espérance conditionnelle de sachant : .

  • Variance conditionnelle de sachant : .

5.3. Indépendance de deux variables aléatoires

  • L'indépendance de v.a. repose sur l'indépendance de tous les événements qui leurs sont relatifs.

Définition 5.3.1: Deux v.a. et sont indépendantes si et seulement si:

  • Cas discret: (loi jointe = produit des marges). Ou ou .

  • Cas continu: (densité jointe = produit des densités marges). Ou ou .

  • Intuitivement: La connaissance de l'une n'apporte pas d'information sur l'autre.

  • Hypothèse: L'indépendance est souvent admise par la nature de l'épreuve (ex: deux dés lancés).

5.4. Fonction de deux variables aléatoires ()

  • Si est une fonction de deux v.a., est une nouvelle v.a.

5.4.1. Loi d'une fonction de deux variables aléatoires

  • Cas discret:

    • Les valeurs possibles de sont .

    • .

  • Cas continu: Plus complexe, non abordé.

5.4.2. Espérance et Variance d'une fonction de deux variables aléatoires

  • On peut calculer et directement à partir de la loi jointe de .

Propriété 5.4.1: Pour ,

  • Discret: .

  • Continu: .

Propriété 5.4.2: Pour ,

  • Discret: .

  • Continu: .

Propriétés des fonctions linéaires ()

Propriété 5.4.3: . (En particulier, et ).

5.4.3. Covariance et corrélation entre deux variables aléatoires

  • Mesurent le type et le degré de la relation linéaire entre et .

Définition 5.4.4: La covariance entre et est .

  • Discret: .

  • Continu: .

  • .

  • Signe de la covariance:

    • : Relation positive (croissante) entre et .

    • : Relation négative (décroissante) entre et .

Propriété 5.4.5 (Formule de Koenig-Huygens pour la covariance): .

Propriété 5.4.6: Pour , .

  • En particulier: et .

  • Attention: La variance d'une somme n'est pas la somme des variances, sauf si .

  • Dépendance de la covariance aux unités de mesure: .

Coefficient de Corrélation Linéaire ()

  • Mesure le degré de dépendance linéaire, indépendant des unités.

Définition 5.4.8: Le coefficient de corrélation linéaire est .

  • Égal à la covariance entre les versions standardisées de et .

  • Même signe que la covariance.

Propriété 5.4.9: si , et si . (Indépendance aux changements d'échelle).

Propriété 5.4.10: . (Toujours borné).

  • Inégalité de Schwarz: .

Propriété 5.4.11: ssi avec . ssi avec . (Relation linéaire exacte).

  • Plus est proche de 1, plus la dépendance linéaire est forte.

Variables non-corrélées

Si et sont non-corrélées, alors .

Propriété 5.4.12: Si sont non-corrélées, .

Propriété 5.4.13: Si et sont indépendantes, alors .

Propriété 5.4.14: Si et sont indépendantes, alors . (L'indépendance implique la non-corrélation).

  • Attention: La réciproque est fausse! La non-corrélation n'implique pas l'indépendance (elle ne mesure que la dépendance linéaire).

5.5. Vecteurs de variables aléatoires (Généralisation à variables)

  • Concepts directs de généralisation des couples: -uples de valeurs, densités jointes multivariées, etc.

Définition 5.5.5: v.a. sont indépendantes si leur loi jointe est le produit de leurs lois marginales.

  • Discret: .

  • Continu: .

Propriété 5.5.6: Pour ,

  • .

  • .

Propriété 5.5.7: Si sont indépendantes, alors pour , et .

6. Lois Discrètes Usuelles

Ce chapitre présente des lois de probabilité paramétriques "prêtes à l'emploi" pour des épreuves aléatoires "types".

6.1. La Loi Discrète Uniforme ()

Définition 6.1.1: Une v.a. suit une loi discrète uniforme si elle prend valeurs avec probabilités égales . On note .

  • Souvent utilisée pour des valeurs entières consécutives dans un intervalle .

6.2. La Loi de Bernoulli ()

  • Décrit une épreuve de Bernoulli (deux résultats possibles: succès/échec).

  • Convention: 1 pour succès, 0 pour échec.

Définition 6.2.1: Une v.a. suit une loi de Bernoulli de paramètre () si , et , . On note .

  • La loi est entièrement déterminée par .

Propriété 6.2.2: Si , alors et .

6.3. La Loi Binomiale ()

6.3.1. Préliminaires: Permutations, Arrangements et Combinaisons

  • Ces concepts de combinatoire sont essentiels pour la loi binomiale.

  • Permutations (): Nombre de façons d'ordonner objets distincts: . ( par convention).

  • Arrangements (): Nombre de suites ordonnées de objets distincts choisis parmi : .

  • Combinaisons ( ou ): Nombre de suites non ordonnées de objets distincts choisis parmi : .

    • .

    • , .

6.3.2. Processus de Bernoulli et Loi Binomiale

  • Un processus de Bernoulli est une suite de v.a. de Bernoulli indépendantes et de même loi.

Définition 6.3.3: La v.a. donnant le nombre de succès (1) lors de répétitions indépendantes d'une épreuve de Bernoulli est une variable aléatoire binomiale.

Définition 6.3.4: Une v.a. suit une loi binomiale de paramètres et si et . On note .

  • est la probabilité de succès, est le nombre de répétitions.

  • La somme des probabilités est 1 (Binôme de Newton: ).

Propriété 6.3.5: Si , alors et .

  • La loi binomiale est symétrique si et le devient approximativement pour grand.

Propriété 6.3.7 (Additivité): Si sont indépendantes, alors .

6.4. La Loi de Poisson ()

  • Décrit le nombre d'événements rares survenant aléatoirement et indépendamment dans le temps/espace.

  • Exemples: Nombre d'accidents, de ventes, d'appels téléphoniques.

Définition 6.4.1 (Processus de Poisson): Phénomène où les événements surviennent aléatoirement avec une probabilité proportionnelle à , et indépendamment sur des intervalles disjoints.

Définition 6.4.2: Une v.a. suit une loi de Poisson de paramètre si (infini dénombrable) et . On note .

  • .

Propriété 6.4.3: Si , alors et .

  • est l'espérance du nombre d'événements par unité de temps.

  • La loi de Poisson est étalée à droite pour petit et devient symétrique pour grand.

Propriété 6.4.5 (Additivité): Si sont indépendantes, alors .

Approximation de la Loi Binomiale par une Loi de Poisson

  • Conditions: grand, petit, pas trop grand.

  • Règle pratique: .

  • . (Les deux lois ont même espérance ).

  • .

7. Lois Continues Usuelles

7.1. La Loi Continue Uniforme ()

  • Densité constante sur un intervalle.

Définition 7.1.1: Une v.a. suit une loi continue uniforme sur si pour , et 0 ailleurs. On note .

  • Dépend de deux paramètres et . Représentation graphique: un rectangle.

  • L'aire sous la densité est 1.

Propriété 7.1.2: Si , alors et .

  • est le milieu de l'intervalle.

Propriété 7.1.3: La fonction de répartition est 0 pour , pour , et 1 pour .

7.2. La Loi Normale ()

  • La loi la plus importante en statistiques, souvent appelée loi de Laplace-Gauss ou gaussienne.

  • Courbe en cloche, symétrique.

Définition 7.2.1: Une v.a. suit une loi normale de paramètres et si sa densité est . On note .

  • Ensemble de valeurs possibles: .

  • La densité est unimodale, symétrique autour de . Les queues s'approchent de zéro sans jamais l'atteindre.

Propriété 7.2.2: Si , alors et .

  • est l'espérance, est la variance ( l'écart-type).

  • Influence des paramètres: déplace la courbe, (ou ) modifie sa dispersion.

7.2.1. Loi normale centrée réduite ()

  • Cas particulier où et .

Définition 7.2.3: Une v.a. suit une loi normale centrée réduite si .

  • Densité .

  • Fonction de répartition .

  • ne peut être calculée numériquement et est tabulée.

  • Symétrie: .

  • Probabilité dans un intervalle: .

  • Intervalle centré autour de 0: .

Définition 7.2.4: Le quantile d'ordre de , noté , est tel que . ( est la médiane, égale à 0 pour ).

7.2.2. Loi normale quelconque et loi normale centrée réduite

Propriété 7.2.5 (Combinaison linéaire): Si et , alors .

Propriété 7.2.6 (Centrage-réduction):

  • Si , alors .

  • Si , alors .

  • Permet de calculer des probabilités pour toute loi normale en utilisant la table de .

  • Règle des :

Autres propriétés de la loi normale

  • La loi normale peut être utilisée pour approximer la loi de Poisson (pour grand) ou la loi Binomiale (pour grand).

  • Approximation de Poisson par la Normale:

  • Conditions: grand (pratique: ).

  • .

  • Correction de continuité pour v.a. discrètes: , où .

  • Approximation Binomiale par la Normale:

  • Conditions: grand, ni trop petit ni trop grand (pratique: ).

  • .

  • Correction de continuité similaire: , où .

  • Négligeable pour intervalles longs: La correction de continuité peut être ignorée si l'intervalle est large.

Propriété 7.2.8 (Additivité d'indépendantes): Si sont indépendantes, alors toute combinaison linéaire .

  • Très important: Une combinaison linéaire de v.a. normales indépendantes est elle-même normale.

7.3. Lois liées à la loi normale

  • Importance dans l'échantillonnage.

7.3.1. La Loi du Khi-deux ()

  • Loi continue, dépend d'un paramètre (degrés de liberté: entier positif).

  • Ensemble de valeurs possibles: .

Définition 7.3.1: Si sont indépendantes, alors .

  • Densité unimodale et étalée à droite, tend vers la normale pour grand.

Propriété 7.3.2: Si , alors et .

Définition 7.3.3: Le quantile d'ordre de , noté , est tel que . (Tabulé).

Propriété 7.3.5 (Additivité): Si sont indépendantes, alors .

7.3.2. La Loi de Student ()

  • Loi continue, dépend d'un paramètre (degrés de liberté: entier positif).

  • Ensemble de valeurs possibles: .

  • Similaire à la mais plus "plate" avec des queues plus épaisses.

Définition 7.3.6: Si , et indépendantes, alors .

  • Tend vers la quand .

Propriété 7.3.7: Si , alors et (pour ).

Définition 7.3.8: Le quantile d'ordre de , noté , est tel que . (Tabulé).

7.3.3. La Loi de Fisher-Snedecor ()

  • Loi continue, dépend de deux paramètres (degrés de liberté).

  • Ensemble de valeurs possibles: .

Définition 7.3.9: Si , et indépendantes, alors .

  • Courbes unimodales, étalées à droite.

Propriété 7.3.10: Si , alors (pour ). est plus complexe. (Pas définis pour )

Définition 7.3.11: Le quantile d'ordre de , noté , est tel que . (Tabulé).

7.4. La Loi Exponentielle ()

  • Liée aux processus de Poisson, décrit la durée entre deux événements.

  • Ensemble de valeurs possibles: .

Définition 7.4.1: Une v.a. suit une loi exponentielle de paramètre si sa densité est pour , et 0 ailleurs. On note .

  • Densité décroît très rapidement.

  • Complémentarité avec la loi de Poisson: (nombre d'événements en temps ) correspond à (durée entre événements).

Propriété 7.4.2: Si , alors et .

  • L'espérance est l'inverse de .

Propriété 7.4.3: La fonction de répartition est 0 pour , et pour .

7.5. La Loi Normale Bivariée ()

  • Généralisation de la loi normale à deux variables.

Définition 7.5.1: Un couple suit une loi normale bivariée de paramètres (avec ) avec une densité jointe complexe. On note .

Propriété 7.5.2: Les paramètres sont directement les espérances, variances et corrélation: . Donc .

Propriété 7.5.3: Si suit une loi normale bivariée:

  • Marginales: et . (Attention, la réciproque est fausse).

  • Combinaison linéaire: .

Propriété 7.5.4: Les lois conditionnelles et sont également normales (avec des espérances linéaires et variances constantes).

Propriété 7.5.5: Si suit une loi normale bivariée et sont non-corrélées (), alors elles sont indépendantes. (Unique cas où non-corrélation indépendance).

8. Population, Échantillon et Échantillonnage Aléatoire

Ce chapitre introduit les bases de l'inférence statistique: tirer des conclusions sur une population à partir d'un échantillon.

8.1. Population et Échantillon

  • Population: Totalité des objets d'intérêt. Ses éléments sont appelés individus. Sa taille est .

  • Caractéristique d'une population: Résumé statistique des valeurs d'une variable d'intérêt dans la population (ex: revenu moyen).

  • Échantillon: Ensemble d'individus tirés de la population. Sa taille est .

  • Caractéristique d'un échantillon: Résumé statistique des valeurs d'une variable d'intérêt dans l'échantillon.

8.2. Recensement et Sondage

  • Recensement: On observe tous les individus de la population.

    • Avantages: Résultats exacts.

    • Inconvénients: Coûteux et long pour les grandes populations.

  • Sondage: On observe un échantillon d'individus.

    • Avantages: Coût limité, rapidité.

    • Inconvénients: Résultats approximatifs.

  • Fiabilité du sondage: Nécessite des méthodes rigoureuses d'échantillonnage.

8.3. Échantillonnage Aléatoire

  • Méthode clé pour la fiabilité des sondages.

L'échantillonnage aléatoire simple consiste à tirer au hasard et avec remise individus de la population.

  • Un échantillon obtenu ainsi est un échantillon aléatoire.

  • Avec ou sans remise: Si est petit par rapport à ( faible), on peut traiter les tirages sans remise comme avec remise. Sinon, les tirages sans remise sont plus complexes.

  • En général, on travaille avec l'hypothèse de tirages avec remise ou l'équivalent.

  • Implémentation: Utilisation de nombres aléatoires.

9. Propriétés de l'Échantillonnage Aléatoire

Ce chapitre explore les liens probabilistes entre les caractéristiques d'une population et celles d'un échantillon aléatoire.

9.1. Caractéristiques de la population, échantillon aléatoire et caractéristiques d'un échantillon aléatoire

9.1.1. La population et ses caractéristiques

  • Une population est décrite par la loi d'une variable aléatoire .

  • Les paramètres de cette loi (ex: ) identifient les caractéristiques de la population.

  • Pour une variable d'intérêt continue, est sa fonction de densité.

  • Loi de la population: Loi de la v.a. représentant la population.

9.1.2. Échantillon aléatoire

  • Prélever individus avec remise dans une population revient à répéter fois l'épreuve aléatoire "tirer un individu et observer sa valeur".

  • Ceci est représenté par un -uple de v.a. .

  • Ces v.a. sont indépendantes et identiquement distribuées (i.i.d.) avec la même loi que (loi de la population).

Définition 9.1.2: Un échantillon aléatoire de taille est un -uple de v.a. i.i.d. avec la même loi que .

  • et pour tout .

  • La vraisemblance est la loi jointe de l'échantillon: .

  • Un échantillon d'observations est une réalisation d'un échantillon aléatoire.

9.1.3. Caractéristiques d'un échantillon aléatoire (Statistiques)

  • Les caractéristiques d'un échantillon aléatoire sont décrites par des statistiques.

Définition 9.1.3: Une statistique est toute v.a. définie comme une fonction d'un échantillon aléatoire.

  • Exemple: La moyenne-échantillon .

9.2. Moyenne dans la population et moyenne-échantillon

  • Lien entre et .

Définition 9.2.1: La moyenne-échantillon est la statistique .

Distribution d'échantillonnage de

  • C'est la loi de la v.a. . Elle dépend de la loi de et de .

Propriété 9.2.2: Pour un échantillon aléatoire issu d'un avec et :

  • .

  • .

  • Cette propriété est vraie quelle que soit la loi de et la taille .

  • L'espérance de la moyenne-échantillon est , et sa variance diminue avec .

  • Convergence: est de plus en plus concentrée autour de quand augmente.

Comportement asymptotique de : Loi des grands nombres et théorème central limite

  • Décrit ce qui se passe lorsque .

Concepts de Convergence

  1. Convergence en probabilité ():

Définition 9.2.4: Une suite de v.a. converge en probabilité vers si pour tout .

  • Intuitivement: La probabilité que soit proche de tend vers 1.

Propriété 9.2.5 (Critère de convergence en probabilité): Si et , alors .

  • La preuve utilise l'inégalité de Bienaymé-Tchebychev.

Propriété 9.2.6 (Inégalité de Bienaymé-Tchebychev): .

  • Convergence en loi ():

Définition 9.2.7: Une suite de v.a. converge en loi vers la loi de si en chaque point de continuité de .

  • Intuitivement: La forme de la distribution de tend vers celle de .

Approximations de lois basées sur la convergence en loi

  • Propriété 9.2.8 (Poisson-Binomiale): si . (Approximation ).

  • Propriété 9.2.9 (Normale-Poisson): si . (Approximation si ).

  • Propriété 9.2.10 (Normale-Binomiale): si . (Approximation si ).

  • Propriété 9.2.11 (Normale-Student): si .

  • Propriété 9.2.12 (Normale-Khi-deux): si .

Loi des grands nombres

Propriété 9.2.13 (Loi des grands nombres): .

  • La moyenne-échantillon converge en probabilité vers la vraie moyenne de la population.

  • Formalise l'intuition que l'estimateur de la moyenne est de plus en plus fiable avec un grand échantillon.

Théorème central limite (TCL)

Propriété 9.2.14 (Théorème central limite): .

  • La version standardisée de converge en loi vers la loi normale centrée réduite.

  • Central: Vrai quelle que soit la loi de (si et existent).

  • Justifie l'approximation pour suffisamment grand (pratique: ).

9.3. Variance dans la population et variance-échantillon

9.3.1. La variance-échantillon

Définition 9.3.1: La variance-échantillon est la statistique .

  • Intuitivement: reflète .

Propriété 9.3.2: .

  • Bias: L'espérance de est légèrement inférieure à . (Mais s'en approche pour grand).

9.3.3. La variance-échantillon modifiée

  • Version corrigée pour s'assurer que l'espérance est égale à .

Définition 9.3.3: La variance-échantillon modifiée (corrigée) est la statistique . (Liée à par ).

Propriété 9.3.4: .

  • Sans biais: L'espérance de est exactement .

Comportement asymptotique de et

  • Semblable à celui de .

Propriété 9.3.5: et .

  • Les deux estimateurs convergent en probabilité vers la vraie variance de la population.

Propriété 9.3.6: et .

  • Pour grand, les distributions d'échantillonnage de et sont approximativement normales.

  • Les distributions asymptotiques de et sont identiques (elles s'égalent pour grand).

9.4. Fréquence dans la population et fréquence-échantillon

  • Lorsque la variable d'intérêt est binaire (oui/non, succès/échec), la population est décrite par une loi de Bernoulli .

  • est la fréquence (proportion) de la caractéristique.

Définition 9.4.1: La fréquence-échantillon est la statistique , où .

  • a la même forme que la moyenne-échantillon.

Distribution d'échantillonnage de

  • Les sont i.i.d. de Bernoulli, donc leur somme .

Propriété 9.4.2: peut prendre les valeurs , avec .

Propriété 9.4.3: et .

  • Sans biais: L'espérance de est .

  • La variance diminue avec .

  • est un cas particulier de la moyenne-échantillon, toutes ses propriétés s'appliquent.

Comportement asymptotique de

Propriété 9.4.4 (Loi des grands nombres de Bernoulli): .

  • La fréquence-échantillon converge en probabilité vers la vraie fréquence de la population.

Propriété 9.4.5 (TCL pour ): .

  • Justifie l'approximation pour grand (pratique: ).

9.5. Distributions d'échantillonnage sous l'hypothèse de normalité

  • Résultats exacts pour si la population est normale.

Propriété 9.5.1: Si , alors . (Résultat exact, quelle que soit la taille ).

  • Ceci est plus précis que le TCL, qui est asymptotique.

Propriété 9.5.2: Si , alors . (Résultat exact).

Propriété 9.5.3: Si , et sont indépendantes.

Propriété 9.5.4: Si , alors . (Résultat exact). Très important.

  • Ce dernier résultat utilise la loi de Student et est crucial quand est inconnu.

10. Estimation Ponctuelle et Intervalle de Confiance

Ce chapitre se concentre sur les procédures d'estimation en inférence statistique.

10.1. Estimation ponctuelle

  • On cherche à estimer un paramètre inconnu de la loi de .

  • peut être .

10.1.1. Estimateur et estimation

Définition 10.1.1: Un estimateur de est une statistique (une règle de décision).

Définition 10.1.2: Une estimation de est une réalisation (un nombre).

  • Ne pas confondre: Estimateur (v.a.) et estimation (valeur numérique).

  • Estimateurs suggérés: pour , (ou ) pour , pour .

10.1.3. Qualité des estimateurs

  • La qualité d'un estimateur se juge sur les caractéristiques de sa distribution d'échantillonnage.

Estimateur sans biais (non biaisé)

Définition 10.1.3: Un estimateur est sans biais de si .

  • Signifie que la distribution de l'estimateur est centrée sur .

  • Si biaisé, .

Propriété 10.1.4: et sont sans biais pour et (respectivement).

Propriété 10.1.5: est sans biais pour .

  • Attention: est biaisé (). Son biais est .

Définition 10.1.6: Un estimateur est asymptotiquement sans biais si .

  • est asymptotiquement sans biais pour .

  • sont aussi asymptotiquement sans biais.

Efficacité

Définition 10.1.8: Pour deux estimateurs sans biais , est plus efficace si .

  • On préfère l'estimateur sans biais avec la plus faible variance.

Propriété 10.1.9: est le meilleur estimateur linéaire sans biais de . Il est aussi le meilleur estimateur sans biais pour si est normale ou Poisson.

Propriété 10.1.10: Si , est le meilleur estimateur sans biais de .

Propriété 10.1.11: est le meilleur estimateur sans biais de .

Estimateur convergent

Définition 10.1.12: Un estimateur est convergent de si .

  • La distribution de l'estimateur se concentre sur quand augmente.

  • La convergence est une propriété essentielle.

Propriété 10.1.13: sont convergents pour et .

Propriété 10.1.14: est convergent pour .

10.2. Intervalles de confiance

  • Associe un intervalle de valeurs à une estimation ponctuelle pour rendre compte de sa fiabilité.

  • Un intervalle de confiance est une règle de décision pour calculer un intervalle pour le paramètre .

Définition 10.2.1: Un intervalle de confiance (IC) de niveau pour est un intervalle aléatoire tel que .

  • La réalisation de cet intervalle est .

  • Signification: Si on répète l'échantillonnage, des IC calculés contiendront la vraie valeur de .

  • Généralement, on utilise des IC à risque symétrique: .

10.2.2. Intervalle de confiance pour la moyenne ()

  • Cas 1: est connu (irréaliste en pratique, mais pédagogique).

  • Basé sur le TCL: pour grand ().

Propriété 10.2.2: L'IC approximatif de niveau pour est .

  • Centré sur , longueur dépend de et de l'écart-type de l'estimateur .

  • La longueur de l'intervalle reflète la précision: plus court pour plus de précision (n grand ou petit).

  • Plus est grand, plus l'intervalle est long.

  • Cas 2: est inconnu (réaliste en pratique).

  • On remplace par son estimateur .

  • Basé sur l'approximation: pour grand (). (Double approximation).

Propriété 10.2.3: L'IC approximatif de niveau pour est .

  • Détermination de la taille nécessaire: Pour une précision et niveau , , où est une estimation préalable de .

10.2.4. Intervalle de confiance pour une fréquence ()

  • Concerne les populations décrites par une loi de Bernoulli .

  • Basé sur l'approximation: pour grand ().

Propriété 10.2.4: L'IC approximatif de niveau pour est .

  • Conditions d'applicabilité: .

  • Détermination de la taille nécessaire: Pour une précision et niveau , . Si inconnu, prendre (car est max pour ).

10.2.6. Cas d'une population normale: intervalle de confiance pour la moyenne (), la variance () et l'écart-type ()

  • Si , on peut obtenir des IC exacts, valables quelle que soit la taille .

IC pour la moyenne () sous normalité (avec inconnu)

  • Basé sur le résultat exact: (Propriété 9.5.4).

Propriété 10.2.5: L'IC exact de niveau pour est .

  • Différence avec l'IC approximatif: Quantile au lieu de .

  • Pour grand (), est très proche de , donc les quantiles sont similaires.

  • Cet IC est souvent utilisé même pour grand et loi de inconnue.

IC pour la variance () sous normalité (avec inconnu)

  • Basé sur le résultat exact: (Propriété 9.5.2).

Propriété 10.2.6: L'IC exact de niveau pour est .

  • Pas centré sur car la loi du Khi-Deux est asymétrique.

  • Ce résultat est exact, valable quelle que soit la taille .

  • Limitation: N'est valable que si la loi de la population est normale.

IC pour l'écart-type () sous normalité

  • Dérivé de l'IC pour en prenant la racine carrée des bornes. ( est un estimateur convergent de ).

Propriété 10.2.7: L'IC exact de niveau pour est .

  • Limitation: N'est valable que si la loi de la population est normale.

11. Tests d'Hypothèses

Ce chapitre introduit les tests d'hypothèses pour évaluer la crédibilité d'assertions sur un paramètre basées sur des observations.

11.1. Tests relatifs à une fréquence ()

  • Concerne une population avec une proportion inconnue de la caractéristique.

  • Hypothèse nulle (): L'assertion à tester (donnée comme vraie).

  • Hypothèse alternative (): L'assertion contraire (accréditée si est rejetée).

  • On "teste contre ".

Formes courantes de tests

  • Test bilatéral: contre .

  • Test unilatéral à droite: contre .

  • Test unilatéral à gauche: contre .

11.1.1. Test bilatéral

  • contre .

  • Estimateur pour : .

  • Sous (si ), la statistique de test (pour grand, ).

  • Sous , prend des valeurs éloignées de 0.

L'erreur de première espèce (type I) est le rejet de alors que est vraie. Le risque de première espèce est la probabilité de commettre cette erreur, aussi appelé seuil ou niveau de signification du test.

  • La décision se base sur : si elle est trop grande, est rejetée.

Propriété 11.1.1 (Règle de décision test bilatéral): Au seuil , on rejette si , sinon on ne rejette pas .

  • est la valeur critique.

  • Région de rejet: Valeurs de où on rejette .

  • Risque de première espèce: . Contrôlé par le choix de .

  • Erreur de deuxième espèce (type II): Non-rejet de alors que est fausse. Risque .

  • Puissance du test: .

  • Arbitrage vs : Plus est petit, plus est grand (et faible).

  • dépend de l'ampleur de la fausseté de et de la précision d'estimation. si .

  • Interprétation: Rejeter est une preuve solide qu'elle est fausse. Ne pas rejeter n'est pas une preuve qu'elle est vraie, surtout si la puissance est faible.

11.1.3. Tests unilatéraux

  • Test unilatéral à droite: contre .

    • On rejette si est trop grande et positive.

    Propriété 11.1.2 (Règle de décision test unilatéral droite): Au seuil , on rejette si , sinon on ne rejette pas .

  • Test unilatéral à gauche: contre .

    • On rejette si est trop petite et négative.

    Propriété 11.1.3 (Règle de décision test unilatéral gauche): Au seuil , on rejette si , sinon on ne rejette pas .

  • Risque de première espèce pour les tests unilatéraux: Maximum , toujours sous contrôle.

  • Interprétation de et : Identique au cas bilatéral.

11.2. Tests relatifs à la moyenne ()

  • On suppose et inconnus.

11.2.1. Test bilatéral

  • contre .

  • Statistique de test: .

  • Sous , pour grand ().

Propriété 11.2.1 (Règle de décision test bilatéral): Au seuil , on rejette si , sinon on ne rejette pas .

  • Validité: Quelle que soit la loi de , tant que est grand.

  • Interprétation de : Identique aux tests de fréquence.

11.2.2. Tests unilatéraux

  • Test unilatéral à droite: contre .

  • Test unilatéral à gauche: contre .

Propriété 11.2.2 (Règles de décision tests unilatéraux): Au seuil :

  • Pour , on rejette si .

  • Pour , on rejette si .

  • Validité: Quelle que soit la loi de , tant que est grand.

11.2.3. Cas d'une population normale

  • Si , on dispose de versions exactes des tests pour la moyenne, valables quelle que soit la taille .

  • Basé sur le résultat exact: sous .

Propriété 11.2.3 (Règles de décision sous normalité): Au seuil :

  • Pour vs , rejeter si .

  • Pour vs , rejeter si .

  • Pour vs , rejeter si .

  • Différence avec les tests approximatifs: Utilisation des quantiles de Student au lieu de .

  • Avantage: Valable pour les petits échantillons (si la population est normale).

  • Pour grand, les quantiles de Student sont proches des quantiles normaux, donc les tests sont interchangeables.

Empezar cuestionario

Prueba tus conocimientos con preguntas interactivas