Tiedon määrä informaatioteoriassa on informaation määrä satunnaisessa objektissa suhteessa toiseen.
Antaa ja olla satunnaismuuttujia, jotka on määritelty vastaaville joukoille ja . Tällöin tiedon määrä on suhteessa a priori ja a posteriori entropioiden eroon:
,missä
on entropia ja
- ehdollinen entropia, tiedonsiirron teoriassa se kuvaa kanavan kohinaa.
Entropialla on seuraavat ominaisuudet:
,missä on joukon alkioiden lukumäärä .
, jos yksi joukon elementeistä toteutuu todennäköisyydellä 1 ja loput vastaavasti 0, johtuen siitä, että ja .
Entropian maksimiarvo saavutetaan, kun kaikki ts. kaikki tulokset ovat yhtä todennäköisiä.
Ehdollisella entropialla on seuraavat ominaisuudet:
,Tässä tapauksessa , jos kartoitus on yksiarvoinen, ts. .
Ehdollisen entropian maksimiarvo saavutetaan, kun ja ovat riippumattomia satunnaismuuttujia.
Tietomäärän suhteen ominaisuudet ovat totta:
Bayesin lauseen seurauksena . jos ja ovat riippumattomia satunnaismuuttujia.Viimeinen ominaisuus osoittaa, että tiedon määrä on yhtä suuri kuin tiedon entropia , jos informaatiohäviökomponentti (kohina) on nolla.