Hartleyn kaava

Kokeneet kirjoittajat eivät ole vielä tarkistaneet sivun nykyistä versiota, ja se voi poiketa merkittävästi 17.5.2019 tarkistetusta versiosta . tarkastukset vaativat 47 muokkausta .

Hartleyn kaava tai Hartleyn tiedon määrä tai Hartleyn mitta on logaritminen tiedon mitta, joka määrittää viestin sisältämän informaation määrän.

Missä N on käytettyjen aakkosten merkkien määrä (aakkosten teho), K on viestin pituus (viestin merkkien määrä), I on viestin informaation määrä bitteinä .

Ralph Hartley ehdotti kaavaa vuonna 1928 yhdeksi tieteellisistä lähestymistavoista viestien arvioinnissa.

Tapauksessa, jossa määritetään informaation määrä i yhdessä tehon N aakkosten symbolissa , Hartleyn kaava on seuraavanlainen:

Näin ollen aakkosten voima on:

Hartleyn kaavasta seuraa, että vain yhden merkin sisältävää aakkosta ei voida käyttää tiedon välittämiseen:

Olkoon aakkoset A, N kirjaimesta, joista viesti koostuu:

Mahdollisten vaihtoehtojen määrä eri viesteille:

missä M  on eri viestien mahdollinen lukumäärä, N  on aakkosten kirjainten lukumäärä, K  on viestin kirjainten lukumäärä.

Harkitse seuraavaa esimerkkiä. DNA - ketju koostuu neljästä typpiemästyypistä: adeniini (A), guaniini (G), tymiini (T), sytosiini (C). Siksi DNA N:n "aakkosten" teho on 4. Tämä tarkoittaa, että jokainen typpipitoinen emäs kantaa jonkin verran tietoa.

Esimerkki: Olkoon aakkosissa 16 merkkiä "1", "2", "3", "4", "5", "6", "7", "8", "9", "0", " + , "-", "*", "/", "^", "#" ja viestin pituus on 10 merkkiä (esimerkiksi komento "*123*1*3^#") - siis aakkosten potenssi on N  = 16 ja viestin pituus K  = 10. Valitsemallamme aakkosella ja viestin pituudella voimme muodostaa viestejä. Hartley-kaavan mukaan voidaan määrittää, että yhden näistä viesteistä kunkin symbolin informaation määrä on yhtä suuri kuin bitti ja vastaavasti koko viestin informaation määrä on yhtä suuri kuin bitti.

Symbolien tasaustodennäköisyydellä Hartleyn kaava muuttuu ominaisarvoiksi .

Kuva

Oletetaan, että meidän on löydettävä tai määriteltävä jotain tietystä järjestelmästä. On olemassa sellainen hakumenetelmä kuin " puolittaminen ". Esimerkiksi joku ajattelee luvun 1-100, ja toisen on arvattava se ja saa vain vastaukset "kyllä" tai "ei". Kysytään: "Onko luku pienempi kuin N ?". Mikä tahansa vastauksista "kyllä" ja "ei" leikkaa hakualueen puoleen. Lisäksi saman järjestelmän mukaan alue jaetaan jälleen puoleen. Lopulta piilotettu numero löydetään.

Kuinka monta kysymystä sinun tulee kysyä löytääksesi aiotun luvun 1-100. Oletetaan, että piilotettu luku on 27. Dialogivaihtoehto:

Yli 50? Ei. Yli 25? Joo. Yli 38? Ei. Alle 32? Joo. alle 29? Joo. Alle 27? Ei. Onko se numero 28? Ei.

Jos luku ei ole 28 eikä pienempi kuin 27, niin se on selvästi 27. Arvataksemme luvun 1:stä 100:aan "puolitusmenetelmällä" tarvitsimme 7 kysymystä.

Voidaan yksinkertaisesti kysyä: onko tämä numero 1? Onko se numero 2? Jne. Mutta sitten tarvitset paljon lisää kysymyksiä. Tässä tapauksessa puolittaminen on paras tapa löytää luku. Vastaukseen "kyllä" / "ei" upotetun tiedon määrä, jos nämä vastaukset ovat yhtä todennäköisiä, on yhtä bittiä (tosinkin, koska bitillä on kaksi tilaa: 1 tai 0). Joten kesti 35 bittiä arvataksemme luvun 1-100 (seitsemän kyllä/ei vastausta).

Tällainen kaava voi esittää kuinka monta kysymystä (tietobittiä) yhden mahdollisen arvon määrittämiseen tarvitaan. N on arvojen lukumäärä ja i  on bittien määrä. Esimerkiksi esimerkissämme 27 on pienempi kuin 28, mutta enemmän kuin 26. Kyllä, saatamme tarvita vain 6 kysymystä, jos piilotettu luku oli 28.

Hartleyn kaava:

Tietyn elementin tunnistamiseen tarvittavan tiedon määrä ( i ) on elementtien kokonaismäärän ( N ) 2-kannan logaritmi.

Shannonin kaava [1]

Kun tapahtumat eivät ole yhtä todennäköisiä, voidaan käyttää Shannonin kaavaa :

missä p i on i : nnen tapahtuman todennäköisyys .

Katso myös

Muistiinpanot

  1. Shannon, Claude  // Wikipedia. - 05-08-2019