Informační entropie

Z testwiki
Skočit na navigaci Skočit na vyhledávání
Dva bity entropie: Při dvou hodech poctivou mincí je informační entropie vyjádřená v bitech logaritmus o základu 2 počtu možných výsledků; při hodu dvěma mincemi existují čtyři možné výsledky, což odpovídá dvěma bitům entropie. Informační entropie je obecně průměrné množství informace obsažené v události, pokud uvažujeme všechny možné výsledky.

Informační nebo též shannonovská entropie je střední hodnota množství informace připadající na jeden symbol generovaný stochastickým zdrojem dat.

Míra informační entropie přiřazená ke každé možné datové hodnotě je záporným logaritmem pravděpodobnostní funkce dané hodnoty:

S=iPilogPi=EP[logP],

kde EP[X]=iPiXi je střední hodnota definovaná pravděpodobností P.[1]

Když datový zdroj vyprodukuje hodnotu (symbol), která má nízkou pravděpodobnost (tj. nastane událost s nízkou pravděpodobností), nese tato událost více „informace“ (způsobí větší „překvapení“), než vyprodukování hodnoty, která má pravděpodobnost vysokou. Pokud množství informace, které nese každá událost, považujeme za náhodnou veličinu, informační entropie je střední hodnota této náhodné události.

Entropie obecně vyjadřuje neuspořádanost nebo nejistotu, a definice entropie používaná v teorii informace je přímou analogií entropie používané ve statistické termodynamice. Koncept informační entropie představil Claude Shannon v roce 1948 ve svém článku „A Mathematical Theory of Communication".[2]

Základní model systému datové komunikace obsahuje tři prvky: zdroj dat, komunikační kanál a přijímač a – jak vyjádřil Shannon – „základním problémem komunikace“ je, aby přijímač byl schopen ze signálu, který přijímá z přenosového kanálu, identifikovat, jaká data byla vygenerovaná zdrojem.[3]Šablona:Rp Entropie vyjadřuje absolutní dolní mez průměrné délky bezztrátového kódování dat vytvářených zdrojem. Pokud je entropie zdroje menší než kapacita komunikační kanálu, je možné data generovaná zdrojem spolehlivě přenést k přijímači (alespoň teoreticky, případně se zanedbáním určitých praktických kritérií jako například času potřebného pro přenos dat a složitosti systému k tomuto účelu).

Informační entropie se nejčastěji měří v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „hartleys“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie.

Logaritmus rozdělení pravděpodobnosti je vhodný jako míra entropie, protože pro nezávislé zdroje je aditivní. Například entropie vrhu poctivou mincí je 1 bit a entropie Šablona:Math vrhů je Šablona:Math bitů. V přímočaré reprezentaci je potřeba Šablona:Math bitů pro reprezentaci proměnné, která může nabývat jedné z Šablona:Math hodnot, jestliže Šablona:Math je mocninou dvojky, tj. Šablona:Math. Pokud jsou všechny hodnoty stejně pravděpodobné, entropie (v bitech) bude Šablona:Math. Pokud se jedna z hodnot bude objevovat častěji než ostatní, pozorování této hodnoty je méně informativní, než kdyby došlo k méně obvyklému výsledku. Naopak pozorování vzácnější události poskytuje více informace. Protože pozorování méně pravděpodobných událostí se objevují méně často, způsobují, že entropie (braná jako průměrná informace) pocházející z nerovnoměrně distribuovaných dat je vždy menší nebo rovna Šablona:Math. Entropie je nulová, pokud je jisté, že nastane jedna určitá událost. Entropie je veličina, která kvantifikuje tato kritéria pro známé rozdělení pravděpodobnosti zdrojových dat. Entropie nezávisí na obsahu pozorovaných událostí (významu zprávy), ale bere v úvahu pouze pravděpodobnosti jejich výskytu. To znamená, že entropie závisí pouze na podkladovém rozdělení pravděpodobnosti, nikoli na významu událostí samých.

Úvod

Základní myšlenkou teorie informace je, že „informační hodnota“ předávané zprávy závisí na míře, jak je obsah zprávy překvapivý. Není žádným překvapením, když dojde k události, která je velmi pravděpodobná. Naopak, v případě málo pravděpodobných událostí, je jejich výskyt mnohem informativnější. Například znalost, že určité číslo nevyhraje v loterii, nese velmi malou informaci, protože jakékoli určité číslo téměř určitě nevyhraje. Ale znalost, že určité číslo v loterii vyhraje, má vysokou informační hodnotu, protože informuje o události s velmi nízkou pravděpodobností. Informační obsah (také nazývaný Šablona:Cizojazyčně – překvapení) události E je rostoucí funkcí převrácené hodnoty pravděpodobnosti p(E) události, přesněji I(E)=log2(p(E))=log2(1/p(E)). Entropie měří očekávané (tj. průměrné) množství informace obsažené v informaci o výsledku náhodného pokusu. Z toho vyplývá, že vrh kostkou má vyšší entropii než házení mincí, protože každý z výsledků vrhu kostkou má menší pravděpodobnost (p=16) než každý z výsledků vrhu mincí (p=12).

Entropie je míra nepředvídatelnosti výsledku, jeho průměrného informačního obsahu. Chceme-li získat intuitivní porozumění těmto termínům, můžeme si představit průzkum veřejného mínění. Takové průzkumy se provádějí, aby se zjistila informace, která není známá. To znamená, že výsledek průzkumu je těžko předpověditelný a provedení průzkumu přináší nějakou novou informaci; to je jen jiný způsob jak říct, že apriorní entropie výsledků průzkumu je velká. Pokud by se stejný průzkum prováděl znovu, krátce po prvním průzkumu, když je výsledek prvního průzkum už známý, bylo by možné výsledek druhého průzkum dobře předvídat, a jeho výsledky sotva obsahují mnoho nové informace; to znamená, že apriorní entropie výsledku druhého průzkumu je relativně malá v porovnání s prvním průzkumem.

Uvažujme vrh mincí. Pokud pravděpodobnost padnutí panny je stejná jako pravděpodobnost padnutí orla, pak entropie vrhu mincí je stejně vysoká jako u libovolného pokusu se dvěma stejně pravděpodobnými výsledky. Výsledek vrhu mincí nelze předpovědět: pokud si máme vybrat, neexistuje žádná průměrná výhoda předvídat určitý výsledek, protože každá předpověď bude správná s pravděpodobností 1/2. Takový vrh mincí má jeden bit entropie, protože existují dva možné výsledky se stejnou pravděpodobností, a víme, že výsledek má jeden bit informace. Naproti tomu, vrh mincí, které by měla dvě panny a žádného orla má nulovou entropii, protože při vrhu takovou mincí vždy padne panna a výsledek lze dokonale předpovědět. Libovolná událost se stejně pravděpodobnými výsledky má Shannonovu entropii log22=1 bit. Podobně každý pokus se třemi stejně pravděpodobnými hodnotami obsahuje log23 (asi 1,58496) bitů informace, protože může nabývat jednu ze tří hodnot.

Pokud budeme anglický text považovat za řetězec znaků, má docela nízkou entropii; to znamená, že je docela dobře předvídatelný. I v případě, že nevíme přesně, jaký znak bude následovat, můžeme si být jisti, že například 'e' bude mnohem obvyklejší než 'z', nebo že kombinace 'qu' bude mnohem obvyklejší než 'q' následované jiným písmenem, a že i kombinace 'th' bude obvyklejší než 'z', 'q' nebo 'qu'. Zbytek slova můžeme často odhadnout z několika prvních písmen. Anglický text má entropii 0,6 až 1,3 bitů na znak zprávy.[4]Šablona:Rp

Pokud je komprimační schéma bezztrátové – takové, že původní zprávu lze vždy dekomprimovat – pak komprimovaná zpráva obsahuje stejné množství informace jako původní, ale je zakódována méně znaky. Obsahuje tedy více informace na znak (má vyšší entropii). Komprimovaná zpráva má menší redundanci. Shannonova věta o zdrojovém kódování říká, že bezztrátové komprimační schéma nemůže v průměru komprimovat zprávy, aby měly více než jeden bit informace na bit zprávy, ale, že jakoukoli hodnotu menší než jeden bit informace na bit zprávy lze dosáhnout použitím vhodného kódovacího schématu. Entropie zprávy na bit znásobená délkou zprávy je mírou, kolik informace zpráva celkem obsahuje.

Uvažujme, že bychom měli vysílat posloupnosti obsahující 4 znaky 'A', 'B', 'C' a 'D' – například zprávu 'ABADDCAB'. Teorie informace říká, jak spočítat nejmenší možné množství informace, kterou je třeba přenést. Jsou-li všechna 4 písmena stejně pravděpodobná (25 %), není možné najít lepší kódovací schéma (pro binární kanál), než zakódování každého písmene dvěma bity: 'A' například jako '00', 'B' jako '01', 'C' jako '10' a 'D' jako '11'. Pokud se však 'A' objevuje s 70% pravděpodobností, 'B' s 26%, a 'C' i 'D' s 2% pravděpodobností, bylo by možné přiřadit jednotlivým znakům kódy s různou délkou, takže přijetí '1' by znamenalo, že je třeba se podívat na jiný bit pokud žádná posloupnost 2 bitů jedniček už byla přijata. V tomto případě může být 'A' kódované jako '0' (jeden bit), 'B' jako '10' a 'C' a 'D' jako '110' a '111'. Je snadno vidět, že v 70 % případů stačí jeden bit informace, v 26 % případů dvou bitů a pouze ve 4 % případů 3 bitů. Průměrně stačí méně než 2 bity, protože entropie je nižší (kvůli vysoký prevalenci symbolů 'A' následovaných 'B' – současně 96 % znaků). Tento vliv zachycuje výpočet sumy pravděpodobnosti vážené logaritmem míry pravděpodobnosti.

Ze Shannonovy věty také vyplývá, že žádné bezztrátové komprimační schéma nemůže zkrátit úplně všechny zprávy. Pokud některé zprávy vyjdou kratší, alespoň jedna musí vyjít delší kvůli Dirichletově principu. Při praktickém použití to obecně není problém, protože typicky přenášíme pouze určitý typ zpráv, například dokumenty v angličtině nikoli náhodné řetězce znaků, nebo digitální fotografie a nikoli šum, a proto není důležité, že komprimační algoritmus nějaké nepravděpodobné nebo nezajímavé posloupnosti prodlužuje.

Definice

Graf binární entropie (v intervalu <0;1>)

Shannon definoval entropii Šablona:Math diskrétní náhodné proměnné X s možnými hodnotami {x1,,xn} a pravděpodobnostní funkcí P(X) takto:

H(X)=E[I(X)]=E[log(P(X))].

Pro entropii používá znak Šablona:Math (velké řecké písmeno éta), podle Boltzmannovy Η-věty. E je operátor střední hodnoty a Šablona:Math je informační obsah Šablona:Math.[5]Šablona:Rp[6]Šablona:Rp I(X) je také náhodná proměnná.

Entropii můžeme explicitně zapsat jako

Šablona:Rámeček Šablona:Clear

kde Šablona:Math je základ použitého logaritmu. V tomto případě se nejčastěji jako základ Šablona:Math používá hodnota 2, méně často Eulerovo číslo Šablona:Math, nebo 10. Entropie je pro Šablona:Math vyjádřena v bitech, pro Šablona:Math v jednotkách nazývaných nat a pro Šablona:Math v jednotkách nazývaných ban, hartley nebo dit.[7]

Pokud Šablona:Math pro nějaké Šablona:Math, bere se hodnota odpovídajícího členu Šablona:Math nulová, což odpovídá limitě

limp0+plog(p)=0.

Můžeme také definovat podmíněnou entropii dvou událostí X a Y, které nabývají hodnot xi a yj, vzorcem

H(X|Y)=i,jp(xi,yj)logp(xi,yj)p(yj)

kde p(xi,yj) je pravděpodobnost, že X=xi a Y=yj. Tuto hodnotu chápeme jako množství náhodnosti v náhodné proměnné X pro danou hodnotu náhodné proměnné Y.

Příklad

Entropie Šablona:Math (tj. střední překvapení) vrhu mincí měřené v bitech vynesené podle poctivosti mince Šablona:Math, kde Šablona:Math reprezentuje padnutí panny.
Entropie je v tomto případě nejvýše 1 bit a předání výsledku vrhu mincí (se dvěma možnými výsledky) vyžaduje průměrně nejvýše 1 bit informace (pro poctivou minci je to přesně 1 bit). Zakódování vrhu poctivou kostkou (6 hodnot se stejnou pravděpodobností) vyžaduje průměrně log26 bitů.

Šablona:Podrobně Uvažujme házení mincí se známými, ne nutně poctivými pravděpodobnostmi, že padne panna nebo orel; to lze modelovat Bernoulliho procesem.

Entropie neznámého výsledku dalšího vrhu mincí je nejvyšší, jestliže mince je poctivá (tj. jestliže panna i orel mají stejnou pravděpodobnost 1/2). U poctivé mince je nejobtížnější předpovídat výsledek dalšího vrhu; výsledek každého vrhu mincí přináší celý jeden bit informace. Důvodem je, že

H(X)=i=1nP(xi)logbP(xi)=i=1212log212=i=1212(1)=1

Pokud však víme, že mince není poctivá, ale pravděpodobnosti hodu panny případně orla jsou Šablona:Math, příp. Šablona:Math, kde Šablona:Math, pak je nejistota menší. Při každém vrhu je pravděpodobnější, že padne jedna strana než druhá. Snížení nejistoty je kvantifikováno nižší entropií: každý vrh mincí přináší v průměru méně než jeden bit informace. Jestliže například Šablona:Math=0,7, pak

H(X)=plog2(p)qlog2(q)=0,7log2(0,7)0,3log2(0,3)0,7(0,515)0,3(1,737)=0,8816<1

Rovnoměrné rozdělení pravděpodobnosti má maximální nejistotu a tedy maximální entropii. Entropie se pak může pouze snížit z hodnoty odpovídající rovnoměrné pravděpodobnosti. Extrémním případem je, že mince má dvě panny, takže nikdy nemůže padnout orel, nebo dva orly, takže nikdy nemůže padnout panna. Vrh takovou mincí v sobě neobsahuje žádnou nejistotu, žádnou novou informaci, protože výsledek vrhu je předem známý, takže entropie je nulová.

Entropii lze normalizovat tím, že ji vydělíme délkou informace. Výsledný poměr se nazývá metrika entropie a je mírou náhodnosti informace.

Zdůvodnění

Pro pochopení významu Šablona:Math, nejdříve definujeme informační funkci Šablona:Math pomocí události Šablona:Math s pravděpodobností Šablona:Math. Množství informace získané pozorováním události Šablona:Math vyplývá z Shannonova řešení základních vlastností informace:[8]

  1. Šablona:Math je monotonně klesající v Šablona:Math: zvýšení pravděpodobnosti události snižuje množství informace získané pozorováním události a naopak.
  2. Šablona:Math: informace je nezáporná veličina.
  3. Šablona:Math: události, ke kterým dojde vždy, nepřinášejí žádnou informaci.
  4. Šablona:Math: informace nezávislých událostí je aditivní.

Klíčová je poslední vlastnost. Říká, že sdružená pravděpodobnost nezávislých zdrojů informace přináší stejné množství informace jako obě události samostatně. Speciálně jestliže první událost je jedním z Šablona:Math stejně pravděpodobných výsledků a druhá jedním z Šablona:Math stejně pravděpodobných výsledků, pak sdružená událost má Šablona:Math možných výsledků. To znamená, že jestliže je potřeba Šablona:Math bitů pro zakódování první hodnoty a Šablona:Math bitů pro zakódování druhé, potřebujeme Šablona:Math pro zakódování obou. Shannon objevil, že funkce pro určení množství informace, zachovávající tuto aditivitu, je logaritmická, tj.,

I(p)=log(1p)=log(p):

Jestliže I je informační funkce, o které předpokládáme, že je dvakrát spojitě derivovatelná, dostáváme:

I(p1p2)=I(p1)+I(p2)p2I(p1p2)=I(p1)I(p1p2)+p1p2I(p1p2)=0I(u)+uI(u)=0(uI(u))=0

Tato diferenciální rovnice má k řešení I(u)=klogu pro jakékoli k. Z podmínky 2. vyplývá, že k k<0. k lze zvolit ve tvaru k=1/logx pro x>1, což je ekvivalentní s výběrem určitého základu logaritmu. Různé jednotky informace (bity pro binární logaritmus Šablona:Math, naty pro přirozený logaritmus Šablona:Math, bany pro desítkový logaritmus Šablona:Math atd.) jsou konstantní násobky jiného. Pokud například uvažujeme vrh poctivou mincí, hození panny dává Šablona:Math bit informace, což je přibližně 0,693 natů nebo 0,301 desítkových číslic. Šablona:Math vrhů přináší díky aditivitě Šablona:Math bitů informace, což je přibližně Šablona:Math natů nebo Šablona:Math desítkových číslic.

Pokud existuje rozdělení, u kterého událost Šablona:Math může nastat s pravděpodobností Šablona:Math a provedeme Šablona:Math pokusů, při kterých výsledek Šablona:Math nastane Šablona:Math krát, celkové množství přijaté informace je

iniI(pi)=iNpilogpi.

Průměrné množství informace, kterou získáme z události je proto

ipilogpi.

Aspekty

Vztah k termodynamické entropii

Inspirace pro použití slova entropie v teorii informace pochází z podobnosti mezi Shannonovým vzorcem a velmi podobnými vzorci známými ze statistické mechaniky.

Nejobecnější vzorec pro termodynamickou entropii Šablona:Math termodynamického systému ve statistické termodynamice je Gibbsova entropie:

S=kBpilnpi

kde Šablona:Math je Boltzmannova konstanta a Šablona:Math je pravděpodobnost mikrostavu. Gibbsovu entropii definoval J. Willard Gibbs v roce 1878, krátce po publikaci díla Ludwiga Boltzmanna v roce 1872.[9]

Gibbsovu entropii lze použít téměř nezměněnou ve světě kvantové fyziky, kde dává von Neumannovu entropii, kterou zavedl John von Neumann v roce 1927:

S=kBTr(ρlnρ)

kde ρ je matice hustoty kvantově mechanického systému a Tr je stopa matice.

Při každodenním praktickém používání není spojitost mezi informační entropií a termodynamickou entropií evidentní. Fyzici a chemici se spíše zajímají o změny entropie, protože systém se vyvíjí spontánně ze svých počátečních podmínek ve shodě s druhým zákonem termodynamiky, než o neměnné rozdělení pravděpodobnosti. Malá hodnota Boltzmannovy konstanty Šablona:Math ukazuje, že změny Šablona:Math i pro velmi malé množství látky v chemických a fyzikálních procesech reprezentuje entropii, která je extrémně velká v porovnání s čímkoli při kompresi dat nebo zpracování signálu. V klasické termodynamice je entropie definována pomocí makroskopických měření bez odkazů na nějaké rozdělení pravděpodobnosti, což je hlavním aspektem pro definici informační entropie.

Spojení mezi termodynamikou a tím, co nyní nazýváme teorie informace, si poprvé všiml Ludwig Boltzmann, který je vyjádřil svou proslulou rovnicí:

S=kBln(W)

kde S je termodynamická entropie určitého makroskopického stavu (definovaná termodynamickými parametry jako například teplotou, objemem, energií, atd.), W je počet mikroskopických stavů (různých kombinací částic v různých energetických stavech), které mohou dávat daný makroskopický stav a kB je Boltzmannova konstanta. Předpokládá se, že každý mikroskopický stav je stejně pravděpodobný, takže pravděpodobnost daného mikroskopického stavu je pi = 1/W. Pokud tyto pravděpodobnosti dosadíme do výše uvedeného výrazu pro Gibbsovu entropii (nebo ekvivalentně kB krát Shannonovu entropii), dostaneme Boltzmannovu rovnici. Použijeme-li termíny z teorie informace, je informační entropie systému rovna množství „chybějící“ informace potřebné pro určení mikroskopického stavu pro daný makroskopický stav.

V přístupu Edwina Thompsona Jaynese (1957) se na termodynamickou entropii, jak ji vysvětluje statistická mechanika, musí nahlížet jako na aplikaci Shannonovy teorie informace: termodynamická entropie se interpretuje jako množství další Shannonovy informace potřebné pro určení konkrétního mikroskopického stavu systému, který při popisu systému výhradně makroskopickými proměnnými klasické termodynamiky zůstává skrytý, přičemž konstanta úměrnosti je právě Boltzmannova konstanta. Dodáváním tepla do systému se zvyšuje jeho termodynamická entropie, protože se zvyšuje počet možných mikroskopických stavů systému, které jsou konzistentní s měřitelnou hodnotou své makroskopické proměnné, což způsobuje, že jakýkoli úplný popis stavu je komplikovanější. (Viz článek: Termodynamika maximální entropie). Maxwellův demon může (hypoteticky) snižovat termodynamickou entropii systému použitím informací o stavech jednotlivých molekul; ale jak ukázal v roce 1961 Rolf Landauer se svými spolupracovníky, aby démon sám fungoval, musí sám zvyšovat termodynamickou entropii v procesu, alespoň o množství Shannonovy informace, kterou potřebuje nejdřív získat a uložit; kvůli tomu se celková termodynamická entropie nesnižuje (což vysvětluje paradox). Landauerův princip určuje mimo jiné nejnižší množství tepla, které musí počítač vyprodukovat při zpracování určitého množství informací. Ani moderní počítače se k této efektivitě ani zdaleka neblíží.

Entropie jako informační obsah

Šablona:Podrobně Entropie je definovaná v kontextu pravděpodobnostního modelu. Nezávislý vrh poctivou mincí má entropii 1 bit na hod. Zdroj, které vždy generuje dlouhý řetězec znaků B má entropii 0, protože následující znak bude vždy 'B'.

Poměr entropie datového zdroje je průměrný počet bitů na symbol potřebných pro kódování tohoto zdroje. Shannonovy pokusy s lidmi jako prediktory ukazují, že anglický text má informační poměr 0,6 až 1,3 bitů na znak.[10] Komprimační algoritmus Prediction by partial matching (PPM) může na anglickém textu dosáhnout komprimačního poměru 1,5 bitu na znak.

V předchozím příkladě jsou důležité tyto body:

  1. Entropie vyjádřená v bitech nemusí být celé číslo.
  2. Mnoho bitů dat nenese žádné informace. Datové struktury často obsahují redundantní informace nebo mají identické části bez ohledu na to, jaké informace obsahují.

Pokud je Shannonova definice entropie aplikována na zdroj informace, může určovat minimální kapacitu kanálu nezbytnou pro spolehlivý přenos dat ze zdroje, pokud jsou zakódovány jako binární hodnoty (viz varování níže v kurzívě). Vzorec pro tuto kapacitu může být odvozen výpočtem matematického očekávání množství informace obsažené v každé číslici přenášených dat. Viz také Shannonova–Hartleyova věta.

Shannonova entropie měří informaci obsaženou ve zprávě jako protiklad k části zprávy, která je pevně určena (nebo předvídatelná). K dalším příkladům patří redundance ve struktuře jazyka nebo statistické vlastnosti týkající se frekvence výskytu dvojic, trojic, atd., písmen nebo slov. Viz Markovův řetězec.

Entropie jako míra rozmanitosti

Šablona:Podrobně Entropie je jedním ze způsobů, jak měřit rozmanitost. Konkrétně Shannonova entropie je logaritmus Šablona:Math, skutečný rozmanitost index s parametr rovné 1.

Komprese dat

Šablona:Podrobně Entropie efektivně limituje výkonnost nejsilnější bezztrátové komprimační metody, což lze teoreticky provést pomocí typické množiny nebo v praxi pomocí Huffmanova kódování, Lempel–Ziv nebo aritmetického kódování. Viz také Kolmogorovova složitost. V praxi komprimační algoritmy úmyslně zahrnují nějakou rozumnou redundanci ve formě kontrolního součtu pro zabezpečení proti chybám.

Světová technologická kapacita uložených a přenášených informací

Studie z roku 2011 v časopisu Science odhaduje světovou technologickou kapacitu pro uložení a přenos optimálně komprimovaných informací normalizovanou na nejefektivnější komprimační algoritmy dostupné v roce 2007, je vlastně odhadem entropie technologicky dostupný zdrojů.[11] Šablona:Rp

Hodnoty v entropicky komprimovaných exabytech
Typ Informace 1986 2007
Uložení 2,6 295
Vysílání 432 1900
Telekomunikace 0,281 65

Autoři odhadli technologickou kapacitu pro uložení (plně entropicky komprimovaných) informací, kterou má lidstvo k dispozici, v roce 1986 a 2007. Informace rozdělují do tří kategorií: objem datových médií, která byla k dispozici pro ukládání informací, množství informací předaných pomocí jednosměrných vysílacích sítí a výměnu informací pomocí obousměrných telekomunikační sítí.[11]

Omezení entropie jako informačního obsahu

Existuje několik dalších konceptů příbuzných entropii, které určitým způsobem matematicky kvantifikují informační obsah:

(pro určité posloupnosti zpráv nebo symbolů generované daným stochastickým procesem může také definovat „poměr vlastní informace“, který je vždy roven poměru entropie v případě stacionárního procesu.) Jiná množství informace se také používají pro porovnávání různých zdrojů informace.

Výše uvedené koncepty si nesmíme plést. Často je zřejmé pouze z kontextu, který koncept se myslí. Když například někdo říká, že „entropie“ angličtiny je asi 1 bit na znak, jedná se o modelování angličtiny jako stochastického procesu a mluví se o poměru entropie. I sám Shannon používal termín podobně.

Při použití velmi velkých bloků může být odhad entropie na jeden znak uměle nízký, protože rozdělení pravděpodobnosti posloupnosti není známo přesně; je to pouze odhad. Pokud bychom uvažovali text každé dosud publikované knihy jako posloupnost, a text celé knihy bychom považovali za symbol, a jestliže je celkem Šablona:Math publikovaných knih a každá kniha je publikovaná pouze jednou, odhad pravděpodobnosti každé knihy je Šablona:Math a entropie (v bitech) je Šablona:Math. Jako praktický kód to odpovídá přiřazení jednoznačného identifikátoru každé knize a používat ho místo textu knihy, když se chceme odkázat na text knihy. To je mimořádně užitečné pro mluvení o knihách, ale není to tak užitečné pro charakterizaci informačního obsahu jednotlivých knih nebo jazyka obecně: z identifikátoru knihy nelze rekonstruovat obsah knihy bez znalosti rozdělení pravděpodobnosti, tj. úplného textu všech knih. Klíčovou myšlenkou je, že musíme uvažovat složitost pravděpodobnostního modelu. Kolmogorovova složitost je teoretické zobecnění této myšlenky, která umožňuje zvážení informačního obsahu posloupnosti nezávislý na jakýkoli určitý pravděpodobnost model; uvažuje nejkratší program pro univerzální počítač, který vytvoří požadovanou posloupnost. Kód, který dosahuje poměru entropie posloupnosti pro daný model, plus kódová kniha (tj. pravděpodobnostní model), je jedním takovým programem, ale nemusí být nejkratší.

Fibonacciho posloupnost je 1, 1, 2, 3, 5, 8, 13, .... pokud uvažujeme posloupnost jako zprávu a každé číslo jako symbol, existuje téměř stejně symbolů jako znaků ve zprávě, což dává entropii přibližně Šablona:Math. Prvních 128 symbolů Fibonacciho posloupnost má entropii přibližně 7 bitů/symbol, ale posloupnost lze vyjádřit pomocí vzorce [[[:Šablona:Math]] pro Šablona:Math, Šablona:Math, Šablona:Math] a toto vzorec má mnohem nižší entropie a je použita na jakýkoli délka Fibonacciho posloupnosti.

Omezení entropie v kryptografii

V kryptoanalýze se entropie často používá jako přibližná míra nepředvídatelnosti kryptografického klíče, jehož reálná nejistota je neměřitelná. Například 128bitový klíč, který je rovnoměrně a náhodně generovaný, má entropii 128 bitů. Také je třeba (v průměru) 21281 pokusů pro prolomení šifry hrubou silou. Entropie však selhává, jestliže možné klíče nejsou voleny rovnoměrně.[12][13] Místo toho lze použít míru nazývanou guesswork pro změření úsilí potřebného pro útok hrubou silou.[14]

V kryptografii se mohou objevit další problémy při používání entropie kvůli nerovnoměrnému rozdělení. Například jednorázová šifra, která šifruje text pomocí funkce xor s miliónem binárních číslic. Pokud má tabulka entropii milión bitů, je šifrování dokonalé. Pokud má šifra entropii jen 999 999 bitů, rovnoměrně distribuovaný (každý jednotlivý bit jednorázového hesla má entropii 0,999999 bitů) může stále poskytovat dobrou bezpečnost. Ale jestliže jednorázové heslo má entropii 999 999 bitů, přičemž první bit je pevný a zbývajících 999 999 bitů je naprosto náhodných, první bit šifrového textu nebude vůbec zašifrovaný.

Data jako Markovův proces

Obvyklý způsob, jak definovat entropii textu, vychází z Markovova modelu textu. Pro zdroj 0. řádu (každý znak je vybraný nezávisle na posledních znacích) je binární entropie:

H(𝒮)=pilogpi,

kde Šablona:Math je pravděpodobnost Šablona:Math. Pro Markovův zdroj prvního řádu (zdroj, u něhož je pravděpodobnost výběru znak závislá pouze na předchozím znaku), je poměr entropie (Šablona:Vjazyce2):

H(𝒮)=ipij pi(j)logpi(j),

kde Šablona:Math je stav (Šablona:Vjazyce2) (určitý předchozí znaky) a pi(j) je pravděpodobnost Šablona:Math daný Šablona:Math jako předchozí znak.

Pro Markovův zdroj druhého řádu je poměr entropie

H(𝒮)=ipijpi(j)kpi,j(k) log pi,j(k).

Šablona:Math-ární entropie

Obecně Šablona:Math-ární entropie zdroje 𝒮 Šablona:Math se zdrojovou abecedou Šablona:Math} a diskrétním rozdělením pravděpodobnosti Šablona:Math}, kde Šablona:Math je pravděpodobnost Šablona:Math (značíme Šablona:Math je definovaný vztahem:

Hb(𝒮)=i=1npilogbpi,

Hodnota Šablona:Math v „Šablona:Math-ární entropie“ je počet různých symbolů ideální abecedy používané jako standardní měřítko pro měření zdrojové abecedy. V teorii informace je pro kódování informací nutné a postačující, aby abeceda obsahovala dva symboly. Proto implicitně pracujeme s Šablona:Math („binární entropie“). Entropie zdrojové abecedy spolu s daným empirickým rozdělením pravděpodobnosti je číslo rovné počtu (případně zlomkovému) symbolů „ideální abecedy“ s optimálním rozdělením pravděpodobnosti nezbytných pro kódování každého symbolu zdrojové abecedy. Přitom „optimální rozdělení pravděpodobnosti“ zde znamená rovnoměrné rozdělení: zdrojová abeceda s Šablona:Math symboly má nejvyšší možnou entropii (mezi abecedami s Šablona:Math symboly), je-li rozdělení pravděpodobnosti abecedy rovnoměrné. Ukazuje se, že tato optimální entropie je Šablona:Math.

Efektivita

Zdrojová abeceda s nerovnoměrným rozdělením bude mít menší entropii, než kdyby její symboly měly rovnoměrné rozdělení („optimalizovaná abeceda“). Tento nedostatek entropie lze vyjádřit poměrem nazývaným efektivita:

η(X)=i=1np(xi)logb(p(xi))logb(n)

Použitím základních vlastností logaritmu lze tuto hodnotu také vyjádřit jako:

η(X)=i=1np(xi)logb(p(xi))logb(n)=i=1nlogb(p(xi)p(xi))logb(n)=i=1nlogn(p(xi)p(xi))=logn(i=1np(xi)p(xi))

Efektivita je vhodnou mírou pro využití komunikačního kanálu. Uvedená veličina se také označuje normalizovaná entropie, protože entropie je dělena maximální entropií logb(n). Efektivita je navíc nezávislá na volbě základu Šablona:Math, jak je ukázáno výše.

Charakterizace

Shannonova entropie je charakterizována malým počtem dále uvedených kritérií. Jakákoli definice entropie, která těmto kritériím vyhovuje, má tvar

Ki=1npilog(pi)

kde Šablona:Math je konstanta, která závisí na volbě jednotek měření.

V dalším textu budeme psát Šablona:Math a Šablona:Math.

Spojitost

Míra musí být spojitá, takže změna hodnoty pravděpodobnosti o velmi malou hodnotu způsobí pouze malou změnu entropie.

Symetrie

Míra nesmí záviset na pořadí výsledků Šablona:Math.

Hn(p1,p2,)=Hn(p2,p1,) atd.

Maximální

Míra musí být maximální, jestliže všechny výsledky jsou stejně pravděpodobně (nejistota je nejvyšší, když všechny možné události mají stejnou pravděpodobnost).

Hn(p1,,pn)Hn(1n,,1n)=logb(n).

Pro stejně pravděpodobné události se entropie musí zvyšovat s počtem výsledků.

Hn(1n,,1nn)=logb(n)<logb(n+1)=Hn+1(1n+1,,1n+1n+1).

Rozdělení, které má maximální diferenciální entropií pro spojité náhodné proměnné, je vícerozměrné normální rozdělení.

Aditivita

Velikost entropie musí být nezávislá na tom, jak je proces rozdělen do složek.

Tato poslední funkcionální podmínka charakterizuje entropii systému se subsystémy. Vyžaduje, aby entropii systému bylo možné spočítat z entropií jeho subsystémů, jestliže interakce mezi subsystémy jsou známé.

Je-li dán soubor Šablona:Math rovnoměrně distribuovaných prvků, které jsou rozděleny do Šablona:Math podsystémů, každý s Šablona:Math prvky, entropie celého systému se musí rovnat sumě entropií jednotlivých podsystémů a entropií jednotlivých boxů, každý vážený s pravděpodobností, že je v příslušném podsystému.

Pro kladná celá čísla Šablona:Math kde Šablona:Math,

Hn(1n,,1n)=Hk(b1n,,bkn)+i=1kbinHbi(1bi,,1bi).

Pokud zvolíme Šablona:Math, Šablona:Math, z toto vyplývá, že entropie určitého výsledku je nulová: Šablona:Math. Z toho vyplývá, že efektivitu zdrojové abecedy s Šablona:Math symboly lze definovat jednoduše jako její Šablona:Math-ární entropii. Viz také Redundance (teorie informace).

Další vlastnosti

Shannonova entropie splňuje další vlastnosti; pro některé z nich je užitečné interpretovat entropii jako množství dodané informace (nebo odstraněné nejistoty), kterou přinese zjištění hodnoty náhodné proměnné Šablona:Math:

  • Přidání nebo odstranění události s nulovou pravděpodobností nepřispívá k entropii:
Hn+1(p1,,pn,0)=Hn(p1,,pn).
  • Entropie diskrétní náhodné proměnné je nezáporné číslo:
H(X)0.[15]Šablona:Rp
H(X)=E[logb(1p(X))]logb(E[1p(X)])=logb(n)[15].Šablona:Rp
Této maximální entropie Šablona:Math se efektivně dosáhne takovou zdrojovou abecedou, která má rovnoměrné rozdělení pravděpodobnosti: nejistota je maximální, když jsou všechny možné události stejně pravděpodobné.
H(X,Y)=H(X|Y)+H(Y)=H(Y|X)+H(X).
  • Pokud Y=f(X) kde f je funkce, pak H(f(X)|X)=0. Použití předchozího vzorce na H(X,f(X)) dává
H(X)+H(f(X)|X)=H(f(X))+H(X|f(X)),
takže H(f(X))H(X), entropie jedné náhodné proměnné se může snížit pouze tehdy, když na druhou proměnnou aplikujeme nějakou funkci.
H(X|Y)=H(X).
  • Entropie dvou současných událostí není větší než suma entropií každé z událostí, přičemž rovnost nastane, jsou-li události nezávislé. Konkrétněji, jestliže Šablona:Math a Šablona:Math jsou dvě náhodné proměnné na stejném pravděpodobnostním prostoru a Šablona:Math označuje jejich kartézský součin, pak
H(X,Y)H(X)+H(Y).
  • Entropie H(p) je konkávní v pravděpodobnostní funkci p, tj.
H(λp1+(1λ)p2)λH(p1)+(1λ)H(p2)
pro všechny pravděpodobnostní hmotové funkce p1,p2 a 0λ1[15].Šablona:Rp

Rozšíření diskrétní entropie na spojitý případ

Diferenciální entropie

Šablona:Podrobně

Shannonova entropie je definována pouze pro náhodné proměnné nabývající diskrétních hodnot. Odpovídající vzorec pro spojitou náhodnou proměnnou s hustotou pravděpodobnosti Šablona:Math s konečným nebo nekonečným nosičem 𝕏 na reálné ose je možné definovat analogicky použitím výše uvedeného tvaru entropie jako střední hodnoty:

h[f]=E[ln(f(x))]=𝕏f(x)ln(f(x))dx.

Tato veličina se obvykle nazývá spojitá entropie nebo diferenciální entropie. Předchůdcem spojité entropie Šablona:Math je výraz pro funkcionál Šablona:Math v Boltzmannově H-větě.

Přestože analogie mezi oběma funkcemi je sugestivní, je třeba položit otázku, zda je diferenciální entropie povoleným rozšířením Shannonovy diskrétní entropie. Diferenciální entropie postrádá některé vlastnosti Shannonovy diskrétní entropie – může být mimo jiné záporná – proto byly doporučovány opravy, především omezující hustota diskrétních bodů.

Aby bylo možné odpovědět na tuto otázku, je nutné ukázat spojení mezi těmito dvěma funkcemi:

Pro získání obecně konečné míry, když se velikost intervalů, na které je rozsah hodnot rozdělen, blíží k nule. V diskrétním případě je velikost intervalu (implicitní) šířkou každého z Šablona:Math (konečných nebo nekonečných) intervalů, jejíchž pravděpodobnosti jsou označeny Šablona:Math. Když uvažujeme rozšíření na spojitý případ, šířka intervalu musí být stanovena explicitně.

Vyjdeme od spojité funkce Šablona:Math diskretizované na intervaly velikosti Δ. Podle věty o střední hodnotě existuje hodnota Šablona:Math v každém intervalu tak, že

f(xi)Δ=iΔ(i+1)Δf(x)dx

integrál funkce Šablona:Math lze aproximovat (v Riemannovském smyslu) jako

f(x)dx=limΔ0i=f(xi)Δ

kde tato limita odpovídá tomu, že „velikost intervalu se blíží k nule“.

Označíme

HΔ:=i=f(xi)Δlog(f(xi)Δ)

a rozepsáním logaritmu dostáváme

HΔ=i=f(xi)Δlog(f(xi))i=f(xi)Δlog(Δ).

Pro Δ → 0 máme

i=f(xi)Δf(x)dx=1i=f(xi)Δlog(f(xi))f(x)logf(x)dx.

Pamatujte, že Šablona:Math pro Šablona:Math, vyžaduje speciální definici diferenciální nebo spojité entropie:

h[f]=limΔ0(HΔ+logΔ)=f(x)logf(x)dx,

čemuž říkáme, jak již bylo řečeno, diferenciální entropie. To znamená, že diferenciální entropie není limitou Shannonovy entropie pro Šablona:Math. Naopak, liší se od limity Shannonovy entropie o nekonečné posunutí (viz také článek informační rozměr).

Omezení hustoty diskrétních bodů

Šablona:Podrobně

Ukazuje se, že diferenciální entropie, na rozdíl od Shannonovy entropie, obecně není dobrou mírou nejistoty nebo informace. Diferenciální entropie může být například záporná; také není invariantní vůči spojité transformaci souřadnic. Tento problém může být ilustrován změnou jednotek, pokud by x byla veličina, která má fyzikální rozměr. f(x) pak bude mít rozměr 1/x. Argument logaritmu musí být bezrozměrný, jinak je nevlastní, takže diferenciální entropie definovaná výše bude nevlastní. Pokud Δ je nějaká „standardní“ hodnota x (tj. „velikost intervalu“) a proto má stejný rozměr, pak lze modifikovanou diferenciální entropii zapsat v patřičném tvaru jako:

H=f(x)log(f(x)Δ)dx

Přičemž výsledek bude stejný pro jakoukoli volbu jednotek veličiny x. Totiž limita diskrétní entropie pro N by také obsahovala člen log(N), který by obecně byl nekonečný. To se dalo očekávat, protože po změně spojitých proměnných na diskrétní obvykle vyjde entropie nekonečná. Omezující hustota diskrétních bodů je skutečně mírou, o kolik snazší je popsat nějaké rozdělení než rozdělení, které je rovnoměrně přes své kvantizační schéma.

Relativní entropie

Šablona:Podrobně Další užitečnou mírou entropie, která funguje stejně dobře pro diskrétní i spojitý případ, je relativní entropie rozdělení. Je definovaná jako Kullbackova–Leiblerova divergence z rozdělení na reference míra Šablona:Math takto. Předpokládejme, že rozdělení pravděpodobnosti Šablona:Math je absolutně spojité vzhledem k míře Šablona:Math, tj. má tvar Šablona:Math pro nějakou nezápornou Šablona:Math-integrovatelnou funkci Šablona:Math s Šablona:Math-integrálem 1, pak lze relativní entropii definovat jako

DKL(pm)=log(f(x))p(dx)=f(x)log(f(x))m(dx).

V tomto tvaru relativní entropie zobecňuje (až na změnu znaménka) jak diskrétní entropii, kde míra Šablona:Math je počítací míra, tak diferenciální entropii, kde míra Šablona:Math je Lebesgueova míra. Pokud míra Šablona:Math je samotné rozdělení pravděpodobnosti, relativní entropie je nezáporná, a je nulová, jestliže Šablona:Math jako míry. Je definována pro jakýkoli prostor s mírou, je tedy nezávislá na volbě souřadnic a invariantní vůči změně souřadnic, jestliže správně bereme v úvahu transformaci míry Šablona:Math. Relativní entropie a implicitně entropie a diferenciální entropie, závisí na „referenční“ míře Šablona:Math.

Použití v kombinatorice

Entropie se stala užitečnou veličinou v kombinatorice.

Loomisova–Whitneyova nerovnost

Jejím jednoduchým příkladem je alternativní důkaz Loomisovy–Whitneyovy nerovnosti: pro každou podmnožinu Šablona:Math, máme

|A|d1i=1d|Pi(A)|

kde Šablona:Math je ortogonální projekce v Šablona:Math-té souřadnici:

Pi(A)={(x1,,xi1,xi+1,,xd):(x1,,xd)A}.

Důkaz je jednoduchým důsledkem Shearerovy nerovnosti:, jestliže Šablona:Math jsou náhodné proměnné a Šablona:Math jsou podmnožiny množiny Šablona:Math} takové, že každé celé číslo mezi 1 a Šablona:Math leží přesně v Šablona:Math těchto podmnožinách, pak

H[(X1,,Xd)]1ri=1nH[(Xj)jSi]

kde (Xj)jSi je kartézský součin náhodné proměnné Šablona:Math s indexy Šablona:Math v Šablona:Math (takže rozměry tohoto vektoru se rovnají velikosti Šablona:Math).

Načrtneme, jak z uvedeného vyplývá Loomisova–Whitneyova nerovnost: Nechť Šablona:Math je rovnoměrně distribuovaná náhodná proměnná s hodnotami v Šablona:Math, takže každá hodnota Šablona:Math má stejnou pravděpodobnost. Pak (z dalších vlastností entropie zmíněných výše) H(X)=log|A|, kde |A| označuje mohutnost množiny A. Nechť Šablona:Math}. Hodnoty (Xj)jSi jsou obsaženy v Šablona:Math, a tedy H[(Xj)jSi]log|Pi(A)|. To nyní použijeme pro omezení pravé strany Shearerovy nerovnosti a aplikujeme exponenciální funkci na obě strany výsledné nerovnosti.

Aproximace binomickým koeficientem

Pro celá čísla Šablona:Math položíme Šablona:Math. Pak

2nH(q)n+1(nk)2nH(q),

kde

H(q)=qlog2(q)(1q)log2(1q).[16]Šablona:Rp

Zde je náčrt důkazu. Uvědomíme si, že (nk)qqn(1q)nnq je jeden člen výrazu

i=0n(ni)qi(1q)ni=(q+(1q))n=1.

Přeskupení dává horní mez. Pro dolní mez musíme nejdřív ukázat pomocí nějaké algebry, že se jedná o největší člen v sumě. Ale pak,

(nk)qqn(1q)nnq1n+1

protože suma má Šablona:Math členů. Přeskupení dává dolní mez.

Hezkým důsledkem je, že počet binárních řetězců délky Šablona:Math, které obsahují přesně Šablona:Math jedniček, je přibližně 2nH(k/n).[17]

Odkazy

Reference

Šablona:Překlad

  1. Šablona:Citace monografie
  2. Šablona:Citace periodika (PDF, archivováno z původního zdroje)
  3. Šablona:Citace periodika, červenec a říjen
  4. Šablona:Citace monografie
  5. Šablona:Citace monografie
  6. Šablona:Citace monografie
  7. Šablona:Citace elektronické monografieŠablona:Nedostupný zdroj
  8. Šablona:Citace monografie
  9. Srovnejte: Boltzmann, Ludwig (1896, 1898). Vorlesungen über Gastheorie : 2 Volumes – Lipsko 1895/98 UB: O 5262-6. anglická verze: Lectures on gas theory. Překlad Stephen G. Brush (1964) Berkeley: University of California Press; (1995) New York: Dover Šablona:Isbn
  10. Šablona:Citace elektronické monografie
  11. 11,0 11,1 "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert a Priscila López (2011), Science, 332(6025); volný přístup k článku: [martinhilbert.net/WorldInfoCapacity.html]
  12. Šablona:Citace sborníku
  13. Šablona:Citace sborníku
  14. Šablona:Citace sborníku
  15. 15,0 15,1 15,2 Šablona:Citace monografie
  16. Aoki, New Approaches to Macroeconomic Modeling.
  17. Probability and Computing, M. Mitzenmacher and E. Upfal, Cambridge University Press

Tento článek obsahuje informace z článku Shannon's entropy z encyklopedie PlanetMath, jejíž licence je podobná licencím Creative Commons Attribution/Share-Alike.

Související články

Literatura

Externí odkazy

Šablona:Autoritní data

Šablona:Portály