Podmíněná entropie

Z testwiki
Verze z 18. 11. 2021, 16:31, kterou vytvořil imported>Danik292292 (growthexperiments-addlink-summary-summary:4|2|0)
(rozdíl) ← Starší verze | zobrazit aktuální verzi (rozdíl) | Novější verze → (rozdíl)
Skočit na navigaci Skočit na vyhledávání
Vennův diagram ukazující aditivní a subtraktivní vztahy různých informačních měr přiřazených ke korelovaným proměnným X a Y. Plocha pokrytá některou z kružnic je sdružená entropie H(X,Y). Kružnice vlevo (červená a fialová) je entropie H(X), přičemž červená je podmíněná entropie H(X|Y). Kružnice vpravo (modrá a fialová) je H(Y), přičemž modrá je H(Y|X). Fialová je vzájemná informace I(X;Y).

Podmíněná entropie (Šablona:Vjazyce2) v teorii informace kvantifikuje množství informace potřebné pro popsání výsledku náhodného pokusu Y, pokud je známá hodnota jiné náhodné proměnné X. Měří se stejně jako informační entropie v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „hartleys“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie.

Entropii Y podmíněnou X zapisujeme H(Y|X), kde H je velké řecké písmeno Éta.

Definice

Podmíněná entropie Y, je-li dáno X, je definována jako

Šablona:Rámeček

kde 𝒳 a 𝒴 označuje nosič náhodných proměnných X a Y.

Poznámka: při výpočtech se neurčité výrazy 0log0 a 0logc/0 pro pevné c>0 považují za rovné nule, protože limθ0+θlogc/θ=0 a limθ0+θlogθ=0.[1]

Intuitivní vysvětlení definice: Podle definice platí, že H(Y|X)=𝔼( f(X,Y) ) kde f:(x,y) log( p(y|x) ). f přiřazuje dvojici (x,y) informační obsah (Y=y), je-li dáno (X=x), což je množství informace potřebné pro popsání události (Y=y), je-li dáno (X=x). Podle zákona velkýich čísel, H(Y|X) je aritmetický průměr velkého počtu nezávislých realizací f(X,Y).

Motivace

Nechť H(Y|X=x) je entropie diskrétní náhodné proměnné Y podmíněná tím, že diskrétní náhodná proměnná X nabývá hodnotu x. Označme nosiče funkcí X a Y 𝒳 a 𝒴. Nechť Ypravděpodobnostní funkci pY(y). Nepodmíněná entropie Y se spočítá jako H(Y):=𝔼[I(Y)], tj.

H(Y)=y𝒴Pr(Y=y)I(y)=y𝒴pY(y)log2pY(y),

kde I(yi) je informační obsah toho, že výsledek Y má hodnotu yi. Entropie Y podmíněná tím, že X nabývá hodnotu x, je definována podobně podmíněné očekávání:

H(Y|X=x)=y𝒴Pr(Y=y|X=x)log2Pr(Y=y|X=x).

Pamatujte, že H(Y|X) je výsledek průměrování H(Y|X=x) přes všechny možné hodnoty x, kterých může nabývat X. Také pokud se výše uvedený součet bere přes vzorek y1,,yn, očekávaná hodnota EX[H(y1,,ynX=x)] je známa v nějakém oboru jako ekvivokace (Šablona:Vjazyce2).[2]

Jsou-li dány diskrétní náhodné proměnné X s obrazem 𝒳 a Y s obrazem 𝒴, podmíněná entropie Y, je-li dáno X se definuje jako vážený součet H(Y|X=x) pro každou možnou hodnotu x, s použitím p(x) jako váhy:[3]Šablona:Rp

H(Y|X) x𝒳p(x)H(Y|X=x)=x𝒳p(x)y𝒴p(y|x)logp(y|x)=x𝒳y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(x,y)p(x).=x𝒳,y𝒴p(x,y)logp(x)p(x,y).


Vlastnosti

Nulová podmíněná entropie

H(Y|X)=0 právě tehdy, když hodnota Y je úplně určena hodnotou X.

Podmíněná entropie of nezávislý náhodné proměnné

Naopak H(Y|X)=H(Y) právě tehdy, když Y a X jsou nezávislé náhodné proměnné.

Řetízkové pravidlo

Předpokládejme, že kombinovaný systém určený dvěma náhodnými proměnnými X a Ysdruženou entropii H(X,Y), tj. potřebujeme průměrně H(X,Y) bitů informace pro popsání jeho přesného stavu. Pokud nejdříve zjistíme hodnotu X, získali jsme H(X) bitů informace. Pokud je X známé, potřebujeme pouze H(X,Y)H(X) bitů pro popsání stavu celého systému. Tato hodnota se přesně rovná H(Y|X), kterou dává řetízkové pravidlo podmíněné entropie:

H(Y|X)=H(X,Y)H(X).[3]Šablona:Rp

řetízkové pravidlo vyplývá z výše uvedené definice podmíněné entropie:

H(Y|X)=x𝒳,y𝒴p(x,y)log(p(x)p(x,y))=x𝒳,y𝒴p(x,y)(log(p(x))log(p(x,y)))=x𝒳,y𝒴p(x,y)log(p(x,y))+x𝒳,y𝒴p(x,y)log(p(x))=H(X,Y)+x𝒳p(x)log(p(x))=H(X,Y)H(X).

Řetízkové pravidlo platí obecně pro více náhodné proměnné:

H(X1,X2,,Xn)=i=1nH(Xi|X1,,Xi1)[3]Šablona:Rp

Tento vztah se podobá řetízkovému pravidlu z teorie pravděpodobnosti, ale místo násobení využívá sčítání.

Bayesovo pravidlo

Bayesovo pravidlo pro podmíněnou entropii říká

H(Y|X)=H(X|Y)H(X)+H(Y).

Důkaz: H(Y|X)=H(X,Y)H(X) a H(X|Y)=H(Y,X)H(Y). Symetrie má za následek H(X,Y)=H(Y,X). Odečtením obou rovnic dostaneme Bayesovo pravidlo.

Pokud Y je podmíněně nezávislé na Z, je-li dáno X máme:

H(Y|X,Z)=H(Y|X).

Další vlastnosti

Pro jakékoli X a Y:

H(Y|X)H(Y)H(X,Y)=H(X|Y)+H(Y|X)+I(X;Y),H(X,Y)=H(X)+H(Y)I(X;Y),I(X;Y)H(X),

kde I(X;Y) je vzájemná informace mezi X a Y.

Pro nezávislé X a Y:

H(Y|X)=H(Y) a H(X|Y)=H(X)

Přestože určitá podmíněná entropie H(X|Y=y) může být menší i větší než H(X) pro dané náhodné variace y Y, H(X|Y) nemůže nikdy přesáhnout H(X).

Podmíněná diferenciální entropie

Definice

Výše uvedená definice platí pro diskrétní náhodné proměnné. Spojitá verze diskrétní podmíněné entropie se nazývá podmíněná diferenciální (nebo spojitá) entropie. Nechť X a Y jsou spojité náhodné proměnné se sdruženou hustotou pravděpodobnosti f(x,y). Diferenciální podmíněná entropie h(X|Y) se definuje takto[3]Šablona:Rp

Šablona:Rámeček

Vlastnosti

Oproti podmíněné entropii pro diskrétní náhodné proměnné může být podmíněná diferenciální entropie záporná.

Stejně jako v diskrétním případě platí řetízkové pravidlo pro diferenciální entropii:

h(Y|X)=h(X,Y)h(X)[3]Šablona:Rp

Toto pravidlo však neplatí, pokud se příslušné diferenciální entropie neexistují nebo jsou nekonečné.

Sdružené diferenciální entropie se také používají v definici vzájemné informace mezi spojitými náhodnými proměnnými:

I(X,Y)=h(X)h(X|Y)=h(Y)h(Y|X)

h(X|Y)h(X), přičemž rovnost nastává právě tehdy, když X a Y jsou nezávislé.[3]Šablona:Rp

Vztah k chybě odhad

Podmíněné diferenciální entropie dává spodní mez očekávané druhé mocniny chyby odhadu. Pro jakoukoli náhodnou proměnnou X, pozorování Y a odhad X^ platí:[3]Šablona:Rp

𝔼[(XX^(Y))2]12πee2h(X|Y)

Což se podobá principu neurčitosti z kvantové mechaniky.

Zobecnění na kvantovou teorii

V kvantové teorii informace se podmíněná entropie zobecňuje na podmíněnou kvantovou entropii, která na rozdíl od svého klasického protějšku může nabývat záporných hodnot.

Odkazy

Reference

Šablona:Překlad

Související články

Šablona:Autoritní data

Šablona:Portály