Entropie conditionnelle

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire Y {\displaystyle Y} , lorsque l'on connait exactement une variable aléatoire X {\displaystyle X} . On note H ( Y | X ) {\displaystyle \mathrm {H} (Y|X)} l'entropie conditionnelle de Y {\displaystyle Y} sachant X {\displaystyle X} . On dit aussi parfois entropie de Y {\displaystyle Y} conditionnée par X {\displaystyle X} [1]. Comme les autres entropies, elle se mesure généralement en bits.

Définitions

On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe. Les deux définitions sont équivalentes.

Définition directe

On définit l'entropie conditionnelle à partir de la probabilité conditionnelle de Y {\displaystyle Y} relativement à X {\displaystyle X}  :

H ( Y | X ) := y Y , x X P ( X = x , Y = y ) log 2 ( P ( Y = y | X = x ) ) {\displaystyle \mathrm {H} (Y|X):=\sum _{y\in {\mathcal {Y}},x\in {\mathcal {X}}}-\mathbb {P} (X=x,Y=y)\log _{2}(\mathbb {P} (Y=y|X=x))}

Y {\displaystyle {\mathcal {Y}}} et X {\displaystyle {\mathcal {X}}} sont respectivement les supports des variables Y {\displaystyle Y} et X {\displaystyle X} .

Par l'entropie conjointe

Étant donné deux variables aléatoires X {\displaystyle X} et Y {\displaystyle Y} avec pour entropies respectives H ( X ) {\displaystyle \mathrm {H} (X)} et H ( Y ) {\displaystyle \mathrm {H} (Y)} , et pour entropie conjointe H ( X , Y ) {\displaystyle \mathrm {H} (X,Y)} , l'entropie conditionnelle de Y {\displaystyle Y} sachant X {\displaystyle X} est définie par :

H ( Y | X ) H ( X , Y ) H ( X ) {\displaystyle \mathrm {H} (Y|X)\equiv \mathrm {H} (X,Y)-\mathrm {H} (X)}

Équivalence des définitions

Ces deux définitions sont équivalentes, c'est-à-dire qu'avec la première définition de H ( Y | X ) {\displaystyle \mathrm {H} (Y|X)} ,

H ( Y | X ) = H ( X , Y ) H ( X ) {\displaystyle \mathrm {H} (Y|X)=\mathrm {H} (X,Y)-\mathrm {H} (X)}
Démonstration

H ( X , Y ) H ( X ) = x X , y Y P ( X = x , Y = y ) log 2 ( P ( X = x , Y = y ) ) + x X , y Y P ( X = x , Y = y ) log 2 ( P ( X = x ) ) = x X , y Y P ( X = x , Y = y ) log 2 ( P ( X = x , Y = y ) P ( X = x ) ) = H ( Y | X ) {\displaystyle {\begin{aligned}\mathrm {H} (X,Y)-\mathrm {H} (X)&=-\sum _{x\in X,y\in Y}\mathbb {P} (X=x,Y=y)\log _{2}(\mathbb {P} (X=x,Y=y))+\sum _{x\in X,y\in Y}\mathbb {P} (X=x,Y=y)\log _{2}(\mathbb {P} (X=x))\\&=-\sum _{x\in X,y\in Y}\mathbb {P} (X=x,Y=y)\log _{2}\left({\frac {\mathbb {P} (X=x,Y=y)}{\mathbb {P} (X=x)}}\right)\\&=\mathrm {H} (Y|X)\end{aligned}}}

Propriétés

  • H ( Y | X ) = H ( Y ) {\displaystyle \mathrm {H} (Y|X)=\mathrm {H} (Y)} si et seulement si Y {\displaystyle Y} et X {\displaystyle X} sont indépendantes.
Démonstration

H ( Y | X ) = x X P ( X = x ) H ( Y | X = x ) = 0 {\displaystyle \mathrm {H} (Y|X)=\sum _{x\in X}\mathbb {P} (X=x)\mathrm {H} (Y|X=x)=0} lorsque tous les termes de la somme sont nulles. Soit x X {\displaystyle x\in X} tel que P ( X = x ) 0 {\displaystyle \mathbb {P} (X=x)\neq 0} , on a donc H ( Y | X = x ) = 0 {\displaystyle \mathrm {H} (Y|X=x)=0} , ce qui implique qu'il existe un unique élément y Y {\displaystyle y\in Y} vérifiant P ( Y = y | X = x ) = 1 {\displaystyle \mathbb {P} (Y=y|X=x)=1} . On peut donc définir une fonction f {\displaystyle f} telle que g ( y ) = x {\displaystyle g(y)=x} pour tous les éléments de probabilité non nulle. Comme toutes les probabilités somment à 1 {\displaystyle 1} , la probabilité de Y {\displaystyle Y} est entièrement définie

  • Règle de la chaîne : avec X 1 , . . . X n {\displaystyle X_{1},...X_{n}} variables aléatoires,
H ( X 1 , . . . , X n ) = i = 1 n H ( X i | X 1 , . . . , X i 1 ) {\displaystyle \mathrm {H} (X_{1},...,X_{n})=\sum _{i=1}^{n}\mathrm {H} (X_{i}|X_{1},...,X_{i-1})}
Démonstration

On connait la relation équivalente pour des probabilités :

P ( X 1 = x 1 , . . . , X n = x n ) = i = 1 n P ( X i = x i | X i 1 = x i 1 , . . . , X 1 = x 1 ) {\displaystyle \mathbb {P} (X_{1}=x_{1},...,X_{n}=x_{n})=\prod _{i=1}^{n}\mathbb {P} (X_{i}=x_{i}|X_{i-1}=x_{i-1},...,X_{1}=x_{1})}

Par conséquent,

H ( X 1 , . . . , X n ) = x 1 , . . . , x n P ( X 1 = x 1 , . . . , X n = x n ) log 2 ( P ( X 1 = x 1 , . . . , X n = x n ) ) = x 1 , . . . , x n i = 1 n P ( X 1 = x 1 , . . . , X n = x n ) log 2 ( P ( X i = x i | X i 1 = x i 1 , . . . , X 1 = x 1 ) ) {\displaystyle \mathrm {H} (X_{1},...,X_{n})=-\sum _{x_{1},...,x_{n}}\mathbb {P} (X_{1}=x_{1},...,X_{n}=x_{n})\log _{2}(\mathbb {P} (X_{1}=x_{1},...,X_{n}=x_{n}))=-\sum _{x_{1},...,x_{n}}\sum _{i=1}^{n}\mathbb {P} (X_{1}=x_{1},...,X_{n}=x_{n})\log _{2}(\mathbb {P} (X_{i}=x_{i}|X_{i-1}=x_{i-1},...,X_{1}=x_{1}))}

D'où en inversant les sommes

= i = 1 n H ( X i | X i 1 , . . . X 1 ) {\displaystyle =\sum _{i=1}^{n}\mathrm {H} (X_{i}|X_{i-1},...X_{1})}

Intuition

Intuitivement, si le système combiné contient H ( X , Y ) {\displaystyle \mathrm {H} (X,Y)} bits d'information, et si nous connaissons parfaitement la variable aléatoire X {\displaystyle X} , pour coder le système on peut économiser H ( X ) {\displaystyle \mathrm {H} (X)} bits, et on n'a plus besoin que de H ( Y | X ) {\displaystyle \mathrm {H} (Y|X)} bits.

Références

  1. Antoine Cornuéjols, Laurent Miclet et Vincent Barra, Apprentissage artificiel: Deep learning, concepts et algorithmes, EYROLLES, (ISBN 978-2-212-67522-1, lire en ligne), p. 446

Voir aussi

  • icône décorative Portail des mathématiques
  • icône décorative Portail de l’informatique