Tiedon määrä

Kokeneet kirjoittajat eivät ole vielä tarkistaneet sivun nykyistä versiota, ja se voi poiketa merkittävästi 8. lokakuuta 2016 tarkistetusta versiosta . tarkastukset vaativat 3 muokkausta .

Tiedon määrä informaatioteoriassa on informaation määrä satunnaisessa objektissa suhteessa toiseen.

Antaa ja olla satunnaismuuttujia, jotka on määritelty vastaaville joukoille ja . Tällöin tiedon määrä on suhteessa a priori ja a posteriori entropioiden eroon:

,

missä

on entropia ja

- ehdollinen entropia, tiedonsiirron teoriassa se kuvaa kanavan kohinaa.

Entropy Properties

Entropialla on seuraavat ominaisuudet:

,

missä on joukon alkioiden lukumäärä .

, jos yksi joukon elementeistä toteutuu todennäköisyydellä 1 ja loput vastaavasti 0, johtuen siitä, että ja .

Entropian maksimiarvo saavutetaan, kun kaikki ts. kaikki tulokset ovat yhtä todennäköisiä.

Ehdollisella entropialla on seuraavat ominaisuudet:

,

Tässä tapauksessa , jos kartoitus on yksiarvoinen, ts. .

Ehdollisen entropian maksimiarvo saavutetaan, kun ja ovat riippumattomia satunnaismuuttujia.

Tietomäärän ominaisuudet

Tietomäärän suhteen ominaisuudet ovat totta:

Bayesin lauseen seurauksena . jos ja ovat riippumattomia satunnaismuuttujia.

Viimeinen ominaisuus osoittaa, että tiedon määrä on yhtä suuri kuin tiedon entropia , jos informaatiohäviökomponentti (kohina) on nolla.

Kirjallisuus