Entropie conjointe

Ce calculateur en ligne calcule l'entropie conjointe de deux variables aléatoires discrètes données selon un tableau de distribution conjointe (X, Y) ~ p

Cette page existe grâce aux efforts des personnes suivantes :

Timur

Timur

Gaulthier Marrel

Créé: 2021-05-23 07:49:58, Dernière mise à jour: 2021-05-23 07:49:58
Creative Commons Attribution/Share-Alike License 3.0 (Unported)

Ce contenu est sous License Creative Commons Attribution/Partage à l'Identique 3.0(Unported). Cela signifie que vous pouvez redistribuer ou modifier librement ce contenu avec les mêmes modalités de licence et que vous devez créditer l'auteur original en plaçant un lien hypertexte de votre site vers l'œuvre https://fr.planetcalc.com/8418/. Vous ne pouvez pas modifier (le cas échéant) les références dans le contenu de l'œuvre originale.

L'entropie conjointe est la mesure de "l'incertitude" associée à un ensemble de variables.

Afin de calculer l'entropie conjointe, vous devez saisir la matrice de distribution conjointe où la valeur de la cellule pour toute ligne i et colonne j représente la probabilité du résultat {x_i, y_j}, p_{(x_i, y_j)}. Vous pouvez trouver la formule de l'entropie conjointe sous le calculateur.

PLANETCALC, Entropie conjointe

Entropie conjointe

Chiffres après la virgule décimale : 2
Entropie conjointe H(X,Y)
 

Formule de l'entropie conjointe

L'entropie conjointe de Shannon (en octets) de deux variables aléatoires discrètes X et Y avec les images \mathcal {X} et \mathcal {Y} est définie comme :

\mathrm {H} (X,Y)=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}P(x,y)\log _{2}[P(x,y)]

x et y sont la valeurs particulières de X et Y, respectivement, P(x,y) est la probabilité conjointe que ces valeurs aient lieu ensemble, et P(x,y)\log _{2}[P(x,y)] est définie comme 0 si P(x,y)=01

URL copiée dans le presse-papiers
PLANETCALC, Entropie conjointe

commentaires