mardi 17 mai 2016

Poker : les probabilités indispensables à connaitre


cette leçon de statistiques vous présente les probabilités indispensables à connaitre au poker. En maîtrisant parfaitement les probabilité des carte du jeu de poker vous deviendrez un joueur aguéri capable de gagner des tournois.

Pour aller plus loin, découvrez notre sélection pour apprendre les probabilités au poker en cliquant ici !

Vous ne savez pas encore jouer au poker ? Apprenez à jouer au poker en cliquant ici !

Probabilités et Variables Aléatoires

Ce cours de statistiques présentes les probabilités sur les variables aléatoires.

Si vous souhaitez approfondir le sujet des variables aléatoires, cliquez sur notre sélection ici !

1ère leçon du cours de Statistique de l'Ecole des Mines de Nancy



Opérations sur les variables aléatoires

Probabilités niveau 3ème

Ce cours de statistique présente un cours de probabilité niveau 3ème.

cours vidéo de mathématiques - 3ème.

Retrouvez notre sélection pour améliorer votre niveau de mathématique de niveau 3ème en cliquant ici !

Révisions BTS Probabilités

Ce cours de statistique en video présente un cours en ligne sur les probabilité niveau BTS, idéal pour les révisions du BTS.

Probabilités conditionnelles. Evénements indépendants. Les explications sont excellentes mais en plus le fait de le revoir tout seul chez soi en analysant chaque mot permet de comprendre mieux, plus vite, et définitivement ce qui est difficile à appliquer en cours.

Vous souhaitez aller plus loin ? Retrouvez notre sélection pour réviser vos probabilités pour le BTS en cliquant ici !

Cours de probabilité en ligne

Ce cours de stats en vidéo est cours de probabilité en ligne gratuit et complet.

Découvrez notre sélection concernant les probabilité en cliquant ici !

Statistiques niveau seconde

Ce cours vidéo de statistique est destinés aux élèves de seconde (2nde).

cours vidéo de mathématiques niveau seconde.

Retrouvez notre sélection pour vous aider en mathématiques niveau seconde en cliquant ici !

Probabilités niveau seconde

Ce cours de statistiques en video présente les probabilités de niveau seconde.

cours vidéo de mathématiques niveau seconde.

Retrouvez notre sélection pour vous aider en mathématiques niveau seconde en cliquant ici !



probabilités - seconde - aide en direct

Probabilité mathématique, facile à comprendre

Ce cours de statistiques en video vous présente comment comprendre facilement les probabilités mathématiques.

À l'aide d'un jeu de carte nous vous ferons comprendre ce que c'est que la probabilité, ses applications et autres. Vous vous rendrez vite compte que vous en faites usage tous les jours!

Découvrez notre sélection concernant les probabilité en cliquant ici !

Logiciels de statistiques


Il existe de très nombreux
 logiciels destiné à l'analyse statistique. Nous avons souhaité vous présenter les principaux logiciels de statistiques existant sur le marché.

Logiciels statistiques commerciaux

  • AMOS (Analysis of MOment Structures)
  • Analytica - logiciel de modélisation visuelle,
  • APIQual - Logiciel de spc / msp simplifie temps reel, les bases des statistiques pour les opérateurs.
  • ASReml - pour l'analyse de ressemblance,
  • B34S - un des logiciels les plus compréhensibles techniquement,
  • CORICO - plan d'expériences, analyse de données, Iconographie des corrélations, séries temporelles,
  • CHARTrunner - pour des schéma d'amélioration de la qualité,
  • EasyFit - logiciel pour la distribution des probabilités,Logiciels de statistiques
  • EViews - pour l'économétrie,
  • GAUSS - langage de programmation pour les statistiques,
  • GenStat - statistiques générales,
  • IMSL - bibliothèques mathématiques et statistiques,
  • JMP - statistiques générales,
  • KITTAG - plans d'expériences Taguchi + Plans de mélange,
  • Le sphinx - traitement statistique des données d'enquêtes d'opinion,
  • MATLAB - langage de programmation ayant des caractéristiques de statistiques,
  • Mentor - pour la recherche de marché,
  • Minitab - statistiques générales,
  • Modalisa, simple, adapté aux questionnaires
  • O-Matrix - langage de programmation,
  • Point Horizon - statistiques et analyse non-linéaire (pour la prédiction de séries et l'approximation de système)
  • PRISM - grapheur scientifique en 2D et 3D avec des fonctions statistiques orientées sciences biomédicales,
  • RATS - pour l'analyse des séries temporelles,
  • SAS - un des logiciels les plus complets techniquement
  • SHAZAM - pour l'économétrie,
  • SOSstat - logiciel de statistique appliqué à la qualité,
  • SPAD 7 - le logiciel français d'analyse de données, de statistique et de data mining,
  • SPSS - un des logiciels les plus compréhensibles techniquement,
  • Stata - statistiques générales,
  • Statgraphics
  • Statistica - statistiques générales, data mining et informatique décisionnelle
  • Stat/Transfer - transfert de données statistiques entre différents formats de fichier,
  • StatXact
  • SOCR - outils en ligne d'apprentissage des statistiques et de la théorie des probabilités,
  • Systat - statistiques générales,
  • S-PLUS - statistiques générales,
  • Vitalnet - pour l'analyse des données de santé,
  • XploRe

Add-ons statistiques pour logiciels

  • Analyse-it - add-on à Microsoft Excel pour l'analyse statistique,
  • SUDAAN - add-on à SAS et SPSS pour les études statistiques,
  • Unistat - statistiques générales fonctionnant aussi avec Excel,
  • XLSTAT - Statistiques générales et analyse de données, fonctionnant depuis Excel
  • StatEL - Module d'analyse statistique généraliste, biomédicale et d'analyse factorielle sur Excel, accessible aux non-professionnels de la statistique

Logiciels statistiques Open-source

  • Apohenia - une bibliothèque de fonctions statistiques pour le C
  • Bayesian Filtering Library
  • gretl - Gnu Regression, Econometrics and Time-series Library
  • JMulTi
  • OpenBUGS
  • PSPP
  • R - un langage de programmation pour les statistiques,
  • SciGraphica
  • Shogun - une boite à outils pour l'Apprentissage automatique
  • SOCR
  • Statistiklabor (de) - basé sur R et développé à des fins éducatives
  • Tanagra - Université Lumière Lyon 2
  • Weka - logiciel d'apprentissage automatique écrit par l'université du Waikato en Nouvelle-Zélande
  • WinBUGS

Logiciels statistiques appartenant au domaine public

  • CDC Epi Info Epidemiologic statistics, tables, graphs, and maps
  • CDC EZ-Text
  • CSPro - Census and Survey Processing System
  • X-12-ARIMA (en)

logiciels de statistiques gratuits

  • WinIDAMS
  • BV4.1
  • GenStat Discovery Edition - version de GenStat à utiliser gratuitement dans les pays en développement,
  • web:reg
  • xLispStat, un logiciel libre multi-plateformes d'analyse statistique.
Il existe de très nombreux autres logiciels de statistiques gratuits.
pour apprendre à utiliser ces logiciels de statistiques, prenez des cours de statistiques.

Loi Discrète


En théorie des probabilités, la
 loi discrète uniforme est une loi de probabilité discrète indiquant une probabilité de se réaliser identique (équiprobabilité) à chaque valeur d’un ensemble fini de valeurs possibles.

Une variable aléatoire qui peut prendre n valeurs possibles k1 ,k2, ... , kn équiprobables, suit une loi uniforme lorsque la probabilité de n’importe quelle valeur ki  est égale à 1/n.
Un exemple simple de loi discrète uniforme est le lancer d’un dé honnête. Les valeurs possibles de k sont 1, 2, 3, 4, 5, 6; et à chaque fois que le dé est lancé, la probabilité d’un score donné est égale à 1/6.
Dans le cas où les valeurs d’une variable aléatoire suivant une loi discrète uniforme sont réelles, il est possible d’exprimer la fonction de répartition en termes de distribution déterministe ; ainsi
Loi DiscrèteF(k;a,b,n)={1\over n}\sum_{i=1}^n H(k-k_i)
où H(x-x0 ) désigne la fonction marche de Heaviside, est la fonction de répartition (ou distribution cumulative) de la distribution déterministe centrée enx0 , aussi appelée masse de Dirac en x0 . Cela suppose que les hypothèses suffisantes soient vérifiées aux points de transition.
Pour en savoir plus sur la loi discrète et les différentes lois de probabilité, suivez des cours de statistiques. 

Loi de Bernouilli


En mathématiques, la
 distribution de Bernoulli ou loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, est une distribution discrète de probabilité, qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité \scriptstyle\ q = 1 - p.

 \mathbb{P}(X=x) = \left\{\begin{array}{ll} p &\quad\mbox {si }x=1, \\ 1-p &\quad\mbox {si }x=0, \\ 0 &\quad\mbox {sinon.}\end{array}\right.
L'espérance mathématique d'une variable aléatoire de Bernoullivaut p et la variance vaut p(1-p).
Le kurtosis tend vers l'infini pour des valeurs hautes et basses dep, mais pour \scriptstyle\ p=1/2\  la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, c’est-à-dire 1.
Loi de BernoulliUne variable aléatoire suivant la loi de Bernoulli est appelée variable de Bernoulli.
La loi de Bernoulli est la loi de la variable aléatoire qui code le résultat d'une épreuve de Bernoulli de la manière suivante : 1 pour "succès", 0 pour "échec", ou quel que soit le nom qu'on donne aux deux issues d'une épreuve de Bernoulli.
Plus généralement, toute application mesurable à valeur dans {0,1} est une variable de Bernoulli. Autrement dit, toute fonction indicatrice mesurable suit la loi de Bernoulli.
Réciproquement, pour toute variable de Bernoulli X définie sur (Ω,A,P), on peut trouver un ensemble mesurable B tel que X et la fonction indicatrice de B soient presque sûrement égales : toute variable de Bernoulli est presque sûrement égale à une fonction indicatrice.
Pour en savoir plus sur la loi de Bernoulli et les différentes lois de probabilité, suivez des cours de statistiques.

Loi de Student

La loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ².
Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ² à k degrés de liberté. Par définition la variable
T = \frac{Z}{\sqrt{U/k}}
suit une loi de Student à k degrés de liberté.
La densité de \scriptstyle\ T, notée \scriptstyle\ f_T, est donnée par :
f_T(t)=\frac{1}{\sqrt{k\pi}}\frac{\Gamma(\frac{k+1}{2})}{\Gamma(\frac{k}{2})}\frac{1}{(1+\frac{t^2}{k})^{\frac{k+1}{2}}}, pour k ≥ 1.
Loi de Studentoù Γ est la fonction Gamma d'Euler.
La densité \scriptstyle\ f_T\  associée à la variable \scriptstyle\ T\  est symétrique, centrée sur 0, en forme de cloche.
Son espérance ne peut pas être définie pour k = 1, et est nulle pour k> 1.
Sa variance est infinie pour k ≤ 2 et vaut \frac{k}{k-2} pour k > 2.
Pour en savoir plus sur la loi de student et les différentes lois de probabilité, suivez des cours de statistiques.

Loi Exponentielle E(l)


Une
 loi exponentielle correspond au modèle suivant:

X est une variable aléatoire définissant la durée de vie d'un phénomène. Si l'espérance de vie du phénomène est E(X) et si la durée de vie est sans vieillissement, c'est-à-dire si la durée de vie au-delà de l'instant T est indépendante de l'instant T, alors X a pour densité de probabilité :
  • f(t) = 0 si t < 0
  • f(t) = \dfrac{1}{E(X)}\mathrm{e}^{-\frac{t}{E(X)}} pour tout t ≥ 0.
On dit que X suit une loi exponentielle de paramètre  \lambda = \dfrac{1}{E(X)}
Loi ExponentielleDe façon plus formelle on peut caractériser la loi exponentielle de la façon suivante:
\forall (s, t)\in \R^{+\,2},\; \mathbb{P}(X>s+t|X>t)=\mathbb{P}(X>s)
Une loi à valeurs dans \R^+ qui vérifie cette propriété est alors exponentielle et toute loi exponentielle vérifie cette probabilité. Cette propriété traduit l'absence de mémoire de la loi exponentielle. Par exemple, la probabilité qu'un phénomène se produise entre les temps t et t+s s'il ne s'est pas produit avant est la même que la probabilité qu'il se produise entre les temps 0 et s.
On peut oublier l'instant de départ pour modéliser la probabilité. Cette caractérisation est importante car elle permet de montrer que certains phénomènes peuvent être modélisés par une distribution exponentielle. Cette loi permet entre autres de modéliser la durée de vie de la radioactivité ou d'un composant électronique.
Pour en savoir plus sur la loi exponentielle et les différentes lois de probabilité, suivez des cours de statistiques.

Loi Normale centrée réduite


On appelle
 loi normale (ou gaussienne) centrée réduite la loi définie par la densité de probabilité \varphi : \R \to \R^+ définie par :

\varphi(t)=\frac{1}{\sqrt{2\;\pi}}\, \mathrm{e}^{-\frac{t^2}{2}}
On vérifie que la loi normale centrée réduite est continue et que son intégrale sur \ \R est égale à 1.
On sait en effet que \ \int_{-\infty}^{+\infty}\mathrm{e}^{-\frac{t^2}{2}}\, \mathrm{d}t = \sqrt{2\, \pi} (intégrale de Gauss).
On démontre (voir plus bas) que la loi définie par cette densité de Loi Normale centrée réduiteprobabilité admet une espérance nulle et une variance égale à 1.
Remarques :
  • la densité \ \varphi est paire ;
  • elle est indéfiniment dérivable et vérifie, pour tout \ t \in \R, l'identité \varphi'(t) = - t\, \varphi(t).
La représentation graphique de cette densité est une courbe en cloche (ou courbe de Gauss).
Pour en savoir plus sur la loi Normale centrée réduite et les différentes lois de probabilité, suivez des cours de statistiques.

Loi Gamma


En théorie des probabilités et en statistiques, une
 distribution Gamma, ou loi Gamma (ou Γ, qui correspond au g (gamma) majuscule en grec), est un type de loi de probabilité de variables aléatoires réelles positives.

La famille des distributions Gamma inclut entre autres les lois exponentielles, les lois de sommes de variables aléatoires indépendantes suivant une même loi exponentielle, ainsi que la loi du χ². Elle permet donc de modéliser une grande variété de phénomènes pour des grandeurs positives.

Une variable aléatoire X suit une loi Gamma de paramètres k etθ (strictement positifs), ce que l'on note aussi X \, \sim \Gamma(k, \theta), si sa fonction de densité de probabilité peut se mettre sous la forme :
f(x;k,\theta) = \frac{{x^{k - 1} e^{ - \frac{x}{\theta }} }}{{\Gamma \left( k \right) \theta ^k }}
Loi gammaAlternativement, la distribution Gamma peut être paramétrée à l'aide d'un paramètre de forme α = k et d'un paramètre d'intensité β = 1 / θ:
 f(x;\alpha,\beta) = x^{\alpha-1} \frac{\beta^{\alpha} \, e^{-\beta\,x} }{\Gamma(\alpha)} \ \mathrm{pour}\ x > 0 \,\!.
Les deux paramétrages sont aussi répandus, selon la configuration.
Pour en savoir plus sur la loi gamma et les différentes lois de probabilité, suivez des cours de statistiques.

Loi du Khi-deux (χ²)


La
 loi du χ2 (prononcer « khi-deux » ou « khi carré ») est une loi à densité de probabilité. Cette loi est caractérisée par un paramètre dit degrés de liberté à valeur dans l'ensemble des entiers naturels (non nuls).

Soient X_1, \ldots , X_k k variables aléatoires indépendantes de même loi normale centrée et réduite, alors par définition la variable X \ , telle que
X: \ =\sum_{i=1}^k X_i^2
suit une loi du χ² à k degrés de liberté.
Soit X~ une variable aléatoire suivant une loi du χ² à k~ degrés deLoi du khi deuxliberté, on notera \chi^2(k)~ la loi de X~.
Alors la densité de X~ notée f_X~ sera :
f_X(t)=\frac{1}{2^\frac{k}{2}\Gamma(\frac{k}{2})} t^{\frac{k}{2} - 1} e^{-\frac{t}{2}}\, pour tout t positif
où Γ est la fonction gamma.
L'espérance mathématique de X vaut k et sa variance vaut 2k.
La principale utilisation de cette loi consiste à apprécier l'adéquation d'une loi de probabilité à une distribution empirique en utilisant le test du χ² basé sur la loi multinomiale. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).
Pour en savoir plus sur la loi du khi deux et les différentes lois de probabilité, suivez des cours de statistiques. 

Loi de Poisson


En théorie des
 probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'évènements se produisant dans un laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l'évènement précédent.

La loi de Poisson est également pertinente pour décrire le nombre d'évènements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.
La loi de Poisson a été introduite en 1838 par Siméon-Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires N qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées “arrivées”) qui prennent place pendant un laps de temps de longueur donnée.
Loi de poissonSi le nombre moyen d'occurrences dans cet intervalle est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2, ...) est
p(k) = P(X = k)= e^{-\lambda}\frac{\lambda ^k}{k!}\,
  • e est la base de l'exponentielle (2,718...)
  • k! est la factorielle de k
  • λ est un nombre réel strictement positif.
On dit alors que X suit la loi de Poisson de paramètre λ.
Par exemple, si un certain type d'évènements se produit en moyenne 4 fois par minute, pour étudier le nombre d'évènements se produisant dans un laps de temps de 10 minutes, on choisit comme modèle une loi de Poisson de paramètre λ = 10× 4 = 40.

Cours Vidéo sur la loi de poisson

Loi de Poisson : Loi des événements rares

Utilisation de la loi de poisson

Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz).
Mais depuis quelques décennies son champ d'application s'est considérablement élargi. Actuellement, on l'utilise beaucoup dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné), le contrôle de qualité statistique (nombre de défauts en SPC), la description de certains phénomènes liés à la désintégration radioactive (la désintégration des noyaux radioactifs suivant, par ailleurs, une loi exponentielle de paramètre noté aussi lambda), la biologie (mutations), la météorologie, la finance pour modéliser la probabilité de défaut d'un crédit…
Pour en savoir plus sur la loi de poisson et les différentes lois de probabilité, suivez des cours de statistiques.

Loi Binomiale B(n,p)


En mathématiques, une
 loi binomiale de paramètres n et p est une loi de probabilité qui correspond à l'expérience suivante :

On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = (1 − p)). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire correspondant à ce nombre de succès.
L'univers X(\Omega )~ désigne l'ensemble des entiers naturels de 0 àn.
La variable aléatoire suit une loi de probabilité définie par :

p(k) = P(X = k)= {n \choose k} \, p^k q^{n-k}
Loi binomialeCette formule fait intervenir le nombre des combinaisons de k éléments parmi n, généralement notée {n\choose k} ou \mathrm{C}_{n}^{k}, la première notation était préconisée en France pour l'enseignement des mathématiques en terminale scientifique jusque 2004. Notons que ce nombre de combinaisons se distingue du nombre des arrangements de k éléments parmi nA^k_n = \dfrac{n!}{(n-k)!} , du fait que dans une combinaison l'ordre des éléments n'importe pas. Et comme il y a k! (prononcer factorielle k) façons d'ordonner k éléments, le nombre des combinaisons se déduit du nombre des arrangements par la simple division \dfrac{A^k_n}{k!}\, et on obtient :
{n\choose k} =\frac{n!}{k!(n-k)!}
Cette loi de probabilité s'appelle la loi binomiale de paramètre (n ; p) et se note B(n ; p).

Calcul de p(k)

Une épreuve de Bernoulli conduit à la création d'un univers Ω = {S ; E}, (S pour Succès et E pour Echec).
n épreuves de Bernoulli indépendantes conduisent à la création d'un univers Ωn constitué de n-uplets d'éléments de Ω, sur lequel peut se définir une probabilité produit. La probabilité de l'éventualité (S, S, ..., S, E, E, ..., E) avec ksuccès et n - k échecs a donc pour valeur pkqn − k.
Plus généralement, tout n-uplet formé de k succès et de n-k échecs aura pour probabilité pkqn − k quel que soit l'ordre d'apparition des S et des E.
L'évènement « X = k » est formé de tous les n-uplets comportant k succès et n - k échecs. La combinatoire permet de déterminer le nombre de n-uplets de ce type : il y en a autant que de parties à k éléments d'un ensemble à n éléments ; or chaque partie correspond à une façon de placer les k succès parmi les n places du n-uplet. Il y a donc {n \choose k} n-uplets, chacun ayant une probabilité égale à pkqn − k.
Donc P(X = k) = {n \choose k} \, p^k (1-p)^{n-k} = {n \choose k} \, p^k q^{n-k}.
Pour en savoir plus sur la loi binomiale et les différentes lois de probabilité, suivez des cours de statistiques.