Haje

Kokeneet kirjoittajat eivät ole vielä tarkistaneet sivun nykyistä versiota, ja se voi poiketa merkittävästi 25. elokuuta 2022 tarkistetusta versiosta . vahvistus vaatii 41 muokkausta .

Entropia ( muista kreikkalaisista sanoista ἐν  "in" + τροπή "käännös; muunnos") on luonnontieteissä ja eksaktissa tieteissä  laajalti käytetty termi (otettu käyttöön ensin termodynamiikan puitteissa termodynaamisen järjestelmän tilan funktiona ) , joka tarkoittaa mittaa. peruuttamattomasta energian hajaantumisesta tai energian hyödyttömyydestä (koska kaikkea järjestelmän energiaa ei voida käyttää hyödyllisen työn tekemiseen ). Tässä jaksossa entropian käsitteelle fyysikot käyttävät nimeä termodynaaminen entropia ; Termodynaamista entropiaa käytetään yleensä kuvaamaantasapaino (palautuvat) prosessit .

Tilastollisessa fysiikassa entropia luonnehtii minkä tahansa makroskooppisen tilan toteutumisen todennäköisyyttä . Fysiikan lisäksi termiä käytetään laajalti matematiikassa: informaatioteoriassa ja matemaattisessa tilastossa . Näillä tiedon alueilla entropia määritetään tilastollisesti ja sitä kutsutaan tilastolliseksi tai informaatioentropiaksi. Tämä entropian määritelmä tunnetaan myös Shannonin entropiana (matematiikassa) ja Boltzmann-Gibbsin entropiana (fysiikassa).

Vaikka termodynaamisen ja informaatioentropian käsitteet esitellään eri formalismien puitteissa, niillä on yhteinen fyysinen merkitys - järjestelmän käytettävissä olevien mikrotilojen lukumäärän logaritmi . Ludwig Boltzmann loi ensin näiden käsitteiden välisen suhteen . Ei -tasapainoisissa (reversiibelissä) prosesseissa entropia toimii myös mittana järjestelmän tilan läheisyydestä tasapainoon : mitä suurempi entropia, sitä lähempänä tasapainoa järjestelmä on ( termodynaamisen tasapainon entropia järjestelmä on maksimi).

Entropian vastakohtaa kutsutaan negentropiaksi tai harvemmin ekstropiaksi .

Käyttö eri tieteenaloilla

Termodynamiikassa

Clausius esitteli entropian käsitteen ensimmäisen kerran termodynamiikassa vuonna 1865 määritelläkseen energian peruuttamattoman hajaantumisen mittarin, todellisen prosessin poikkeaman ideaalista. Määriteltynä vähentyneiden lämpöjen summana, se on tilafunktio ja pysyy vakiona suljetuissa palautuvissa prosesseissa , kun taas peruuttamattomissa suljetuissa prosesseissa sen muutos on aina positiivinen. Avoimessa järjestelmässä tarkasteltavana olevan järjestelmän entropia voi pienentyä esimerkiksi säteilyn muodossa tapahtuvan energian poistumisen vuoksi, kun taas ympäristön kokonaisentropia kasvaa [1] .

Matemaattisesti entropia määritellään järjestelmän tilan funktiona, joka on määritelty mielivaltaiseen vakioon asti. Entropioiden ero kahdessa tasapainotilassa 1 ja 2 on määritelmän mukaan sama kuin pienennetty lämmön määrä ( ), joka on raportoitava järjestelmään, jotta se siirretään tilasta 1 tilaan 2 mitä tahansa kvasistaattista polkua pitkin . [2] :

. (yksi)

Koska entropia on määritelty mielivaltaiseen lisävakioon asti, voimme ehdollisesti ottaa tilan 1 alkutilaksi ja laittaa . Sitten

, (2)

Tässä integraali otetaan mielivaltaiselle kvasistaattiselle prosessille . Toimintodifferentiaalilla on muoto

. (3)

Entropia muodostaa yhteyden makro- ja mikrotilojen välille. Tämän ominaisuuden erikoisuus on siinä, että tämä on fysiikan ainoa toiminto, joka näyttää prosessien suunnan. Koska entropia on tilafunktio, se ei riipu siitä, kuinka siirtyminen järjestelmän tilasta toiseen tapahtuu, vaan sen määräävät vain järjestelmän alku- ja lopputila.

Entropian fyysinen merkitys

Entropia fyysisenä suureena erottuu abstraktiudeltaan, entropian fyysinen merkitys ei suoraan seuraa sen matemaattista ilmaisua, eikä se ole soveltuva yksinkertaiseen intuitiiviseen havaintoon.

Fysikaalisesta näkökulmasta entropia luonnehtii todellisen termodynaamisen prosessin peruuttamattomuuden astetta, ei-ideaalisuutta. Se on energian hajoamisen (häviön) mitta sekä energian arvioinnin mitta sen käytön soveltuvuudesta (tai tehokkuudesta) lämmön muuntamiseen työksi. [3] Kaksi viimeistä väitettä eivät päde epätavallisiin järjestelmiin, joiden absoluuttinen lämpötila on negatiivinen ja joissa lämpö voi muuttua spontaanisti täysin työksi.

Tietoteoriassa

Entropialle (useammin matematiikassa) on olemassa myös Shannon-tieto tai Shannonin mukainen tiedon määrä [4] .

Entropia voidaan tulkita jonkin järjestelmän, esimerkiksi minkä tahansa kokemuksen (testin) epävarmuuden (häiriön) tai monimutkaisuuden mittana, jolla voi olla erilaisia ​​​​tuloksia ja siten tiedon määrää [5] [6] . Siten toinen entropian tulkinta on järjestelmän informaatiokapasiteetti . Tähän tulkintaan liittyy se, että entropian käsitteen luoja informaatioteoriassa ( Claude Shannon ) halusi ensin kutsua tätä määrää tiedoksi .

Tietoentropian käsitettä käytetään sekä informaatioteoriassa ja matemaattisessa tilastossa että tilastollisessa fysiikassa ( Gibbsin entropia ja sen yksinkertaistettu versio - Boltzmannin entropia ) [7] [8] . Tietoentropian matemaattinen merkitys  on järjestelmän käytettävissä olevien tilojen lukumäärän logaritmi (logaritmin kanta voi olla erilainen, mutta suurempi kuin 1, se määrittää entropiayksikön) [9] . Tällainen tilojen lukumäärän funktio tarjoaa entropian additioominaisuuden itsenäisille järjestelmille. Lisäksi, jos tilat eroavat saavutettavuusasteelta (eli ne eivät ole yhtä todennäköisiä), järjestelmän tilojen lukumäärä tulee ymmärtää niiden efektiivisenä lukumääränä, joka määritetään seuraavasti.

Olkoon järjestelmän tilat yhtä todennäköisiä ja niillä on todennäköisyys , sitten tilojen lukumäärä , a . Erilaisten tilatodennäköisyyksien tapauksessa harkitse painotettua keskiarvoa

missä  on tilojen efektiivinen lukumäärä. Tästä tulkinnasta Shannonin informaatioentropian ilmaisu seuraa suoraan :

Samanlainen tulkinta pätee myös Renyi-entropiaan , joka on yksi informaatioentropian käsitteen yleistyksistä , mutta tässä tapauksessa järjestelmän tilojen efektiivinen lukumäärä määritellään eri tavalla. Rényi-entropia vastaa tehollista tilojen määrää, joka on määritelty [ 10] painotetuksi teholain keskiarvoksi parametrilla .

On huomattava, että Shannonin kaavan painotettuun keskiarvoon perustuva tulkinta ei oikeuta sitä. Tämän kaavan tiukka johto voidaan saada kombinatorisista näkökohdista käyttämällä Stirlingin asymptoottista kaavaa , ja se perustuu siihen tosiasiaan, että kombinatorinen jakauma (eli kuinka monta tapaa se voidaan toteuttaa) logaritmin ottamisen ja rajan normalisoinnin jälkeen osuu yhteen entropian lausekkeella Shannonin [11] [12] ehdottamassa muodossa .

Biologiassa

Entropiaa, jota yleensä esitellään "järjestelmän epäjärjestyksen tai epämääräisyyden mittana", käytetään usein evoluution prosessien suunnasta pääteltäessä. Tämän näkökulman mukaan biosfääri on supermonimutkainen itseorganisoituva rakenne, joka "ruokkii" auringon säteilyn rajattomasta entropiasta [13] [14] . Bakteriorodopsiinilla on sama tehtävä kuin klorofyllillä (tunnelivaikutus) - se muuttaa sähkömagneettisen säteilyn kemiallisten sidosten energiaksi. Jos puhumme järjestyksestä, niin fotosynteettisen elektroninkuljetusketjun elementtien järjestyksen tarjoaa fotosynteettinen kalvo ( kloroplastien rakenneyksikkö ), joka määrittää elektronien ja protonien suunnatun siirron luoden ja ylläpitäen eroa ionien sähkökemialliset potentiaalit erottaen hapettuneet ja pelkistyneet tuotteet ja estävät niiden rekombinaation [15] .

Organisaation monimutkaisuuden uskotaan vaikuttavan kestävyyteen eri tavoin elävässä ja elottomassa luonnossa [16] [17] . Elottomassa luonnossa monimutkaisuuden lisääntyminen johtaa elävän aineen stabiilisuuden vähenemiseen. Sitä vastoin elävässä luonnossa monimutkaiset (sosiaaliset) organisaatiot ovat vakaampia (selviytymiskyvyn kannalta) kuin kunkin elementin stabiilisuus erikseen. Esimerkiksi pienestä määrästä soluja (esimerkiksi hyttyset) koostuvien organismien lukumäärä on paljon suurempi kuin suuresta määrästä soluja koostuvien organismien (esimerkiksi norsujen) määrä. Tämä ei kuitenkaan kerro mitään peruskomponenttiin liittyvästä stabiilisuudesta. Jos sytologi haluaisi tehdä tilastoja ja keräsi satunnaisesti kokoelman soluja, hän löytäisi siitä eniten nisäkkäille kuuluvia soluja. Tämä viittaa siihen, että elävien organismien komplikaatioiden myötä niiden peruskomponenttien (solujen) stabiilius kasvaa merkittävästi [18] .

Analogisesti Shannonin entropian määritelmän kanssa organisaation mittana voimme tarkastella määrää

missä on elementissä kulloinkin käytettävissä olevien linkkien lukumäärän suhde tämän elementin kaikkien mahdollisten linkkien määrään. Tässä, kuten tietolähteen entropian määrittämisessä, ehto on totta, mutta ehto , joka täyttyy entropian määrittämisessä, ei enää tapahdu tässä ja se korvataan epäyhtälöllä alkiolle , joka ei ole yhteyttä mihinkään muuhun elementtiin, Päinvastoin, kun elementti on yhdistetty kaikkiin muihin elementteihin , ja

Suhteellisen organisaation mittalauseke kirjoitetaan seuraavasti:

Maksimiorganisaatio löydetään vertaamalla kaikkien nollien päälle, jolloin saadaan yhtälöjärjestelmä:

Jollekin näistä yhtälöistä,

Siten maksimaalisen organisoinnin saavuttamiseksi yhteyssuhteen tulisi olla yhtä suuri (missä on Eulerin luku ),

Tällä ei-stokastiisella organisaation tulkinnalla on myös se etu, että se mahdollistaa useiden mielenkiintoisten johtopäätösten tekemisen. Jotta yhteysasteessa voidaan ottaa huomioon kahden elementin välinen yhteys välielementtien kautta, on välttämätöntä käyttää ei elementille sopivaa yhteyksien määrää , vaan lausekkeesta määritettyä määrää.

missä on sukulaisuusaste (liitoksen vahvuus) elementtien välillä ja Tässä tapauksessa se edustaa kaavassa yhteyden suhteellista kokonaislujuutta (ei yhteyksien lukumäärää, kuten se oli ennen) elementille [19 ]

Entropian aksiomaattinen määritelmä

Tietoentropian lauseke voidaan johtaa jonkin aksioomijärjestelmän perusteella . Yksi lähestymistapa on seuraava aksioomajärjestelmä, joka tunnetaan nimellä Khinchin aksioomajärjestelmä : [20] .

1 . Olkoon jokin järjestelmä jokaisessa käytettävissä olevassa tilassa todennäköisyydellä , missä . Entropia on vain todennäköisyyksien funktio : . 2 . Mille tahansa järjestelmälle , jossa on järjestelmä, jolla on tasainen todennäköisyysjakauma: . 3 . Jos lisäämme järjestelmään tilan, järjestelmän entropia ei muutu. 4 . Kahden järjestelmän joukon entropia on muotoa , jossa on ehdollinen entropia keskiarvotettuna ensemblen yli .

Tämä aksioomisarja johtaa ainutlaatuisella tavalla Shannonin entropian kaavaan.

Jotkut kirjoittajat [21] kiinnittävät huomiota Khinchinin viimeisen aksiooman luonnottomuuksiin. Itse asiassa riippumattomien järjestelmien entropian additiivisuuden vaatimus on yksinkertaisempi ja ilmeisempi. Siten viimeinen aksiooma voidaan korvata seuraavalla ehdolla.

4' . Kahden itsenäisen järjestelmän kokonaisuuden entropia on muotoa .

Osoittautuu, että aksioomijärjestelmä, jossa on piste 4', ei johda vain Shannonin entropiaan, vaan myös Rényi-entropiaan .

f -entropia

Rényi -entropian lisäksi tunnetaan myös muita standardin Shannon-entropian yleistyksiä, esimerkiksi I. Chisarin vuonna 1972 ehdottama f -entropioiden luokka [22] . Vuonna 1971 S. Arimoto ehdotti myös [ 23] f -entropian käsite , joka määrittelee erilaisen funktionaalisen luokan. Lisäksi tarkastellaan I. Chisarin käsitettä . F -entropian käsite liittyy [24] f -divergenssin käsitteeseen . Näiden luokkien elementit muodostavat parivastaavuuden, ja jokainen tällainen funktionaalipari määräytyy jonkin konveksin funktion avulla , joka täyttää ehdon .

Tietylle funktiolle diskreetin jakauman f -entropia määritellään seuraavasti

Tunnetuimmat f - entropian erikoistapaukset ovat:

Shannonin entropia on f -entropialuokan ainoa additiivinen entropia .

F -entropian käsite määritellään yleisesti seuraavasti. Antaa olla todennäköisyysjakauma ja mikä tahansa mitta , jolle on olemassa ehdottoman jatkuva funktion suhteen . Sitten

Jatkuvilla f -entropioiden versioilla ei kuitenkaan välttämättä ole järkeä integraalin hajoamisen vuoksi.

f -entropia on todennäköisyysjakauman kovera funktionaali.

Voidaan nähdä, että funktio voidaan määrittää termiin , jossa on mielivaltainen vakio. Valinnasta riippumatta funktio luo yhden f -divergenssifunktion . Ja f -entropiafunktio osoittautuu määritellyksi mielivaltaiseen additiivinen vakioon asti, ts. Valitsemalla vakion voit asettaa entropian referenssipisteen. Tässä tapauksessa syntyy seuraava vivahde (tyypillisempi f - entropian jatkuvalle versiolle ): lakkaa olemasta satunnaista. Erityisesti entropian diskreetissä versiossa vakion on oltava kiinteä . Siksi f -entropialle, jotta määritelmän yleisyys ei vähennettäisi, voidaan eksplisiittisesti määrittää additiivinen vakio. Esimerkiksi, jos Lebesgue-mitta on , niin on todennäköisyysjakauman tiheys ja

missä on mielivaltainen vakio.

Funktio voidaan myös määrittää mielivaltaiseen positiiviseen tekijään asti, jonka valinta vastaa vastaavan f -entropian tai f -divergenssin mittayksikön valintaa .

Vertaamalla f -entropian ja f -divergenssin lausekkeita yleisessä muodossa, voidaan kirjoittaa seuraava niitä yhdistävä relaatio [25] :

missä on . _ _ Jos oletetaan, että jakaumien derivaatat mittaan nähden ovat entropian ja divergenssin argumentteja , meillä on muodollinen merkintä

Tämä yhteys on perustavanlaatuinen ja sillä on tärkeä rooli paitsi f -entropia- ja f -divergenssiluokissa . Siten tämä suhde pätee Rényi-entropiaan ja divergenssiin ja erityisesti Shannonin entropiaan ja Kullback-Leibler-divergenttiin . Tämä johtuu siitä, että yleisesti hyväksytyn aksiomaatiikan mukaan entropia saavuttaa maksiminsa tasaisella todennäköisyysjakaumalla.

Katso myös

Muistiinpanot

  1. Zubarev D. N., Morozov V. G. Energiahäviö // Physical Encyclopedia  : [5 osana] / Ch. toim. A. M. Prokhorov . - M .: Neuvostoliiton Encyclopedia (osa 1-2); Great Russian Encyclopedia (vols. 3-5), 1988-1999. — ISBN 5-85270-034-7 .
  2. Sivukhin D.V. Fysiikan yleinen kurssi. - M. , 1979. - T. II. Termodynamiikka ja molekyylifysiikka. - S. 127.
  3. Shambadal P. Entropian kehittäminen ja soveltaminen, 1967 , s. 61-64.
  4. Tsypkin Ya. Z., 1995 , s. 77.
  5. Zubarev D. N., Morozov V. G. Entropia // Physical Encyclopedia  : [5 osassa] / Ch. toim. A. M. Prokhorov . - M .: Neuvostoliiton Encyclopedia (osa 1-2); Great Russian Encyclopedia (vols. 3-5), 1988-1999. — ISBN 5-85270-034-7 .
  6. Entropia // Suuri Neuvostoliiton Encyclopedia  : [30 osassa]  / ch. toim. A. M. Prokhorov . - 3. painos - M .  : Neuvostoliiton tietosanakirja, 1969-1978.
  7. http://emf.pskgu.ru/ebooks/astros/0401_O.pdf
  8. http://profbeckman.narod.ru/poryadok/Doclad_poryadok.pdf
  9. Wentzel E. S., 1969 , s. 468-475.
  10. Zaripov R. G., 2005 , s. 13-22, 108-125.
  11. Janes E. T. Maksimentropiamenetelmien perusteluista // TIER. - 1982. - T. 70 , no. 9 . - S. 33-51 .
  12. Kolmogorov, 1987 , s. 29-39.
  13. Rapaport A. - Systeemien abstraktin analyysin matemaattiset näkökohdat // Tutkimuksia yleisestä systeemiteoriasta. M.: Edistystä. 1969. S. 83-105.
  14. N. N. Brushlinskaya, Kemiallisen kineettiikan yhtälöiden tekijäinvarianssi yksiulotteisessa parametrijoukossa, Uspekhi Mat. Nauk, 1975, osa 30, numero 6(186), 161–162.
  15. Kadoshnikov S.I. - Keinotekoisten klorofylli-lipidikalvojen valosähköiset ja spektriominaisuudet.
  16. Uskov A.A., Kruglov V.V. - Suurten järjestelmien vakaus.
  17. George J. Klir - Järjestelmän ongelmanratkaisuarkkitehtuuri.
  18. G. Foerster - Bio-logic // "Bioniikan ongelmat: Biologiset prototyypit ja synteettiset järjestelmät", toim. "Mir", M., 1965.
  19. R. Boyell - Muisti semanttisilla yhteyksillä // "Bioniikan ongelmat: Biologiset prototyypit ja synteettiset järjestelmät", toim. "Mir", M., 1965.
  20. Khinchin A. Ya. Entropian käsite todennäköisyysteoriassa  // Uspekhi matematicheskikh nauk. - 1953. - T. 8 , no. 3(55) . - S. 3-20 .
  21. Plastino A., Plastino AR Tsallis Entropy and Jaynes' Information Theory Formalism  // Brazilian Journal of Physics. - 1999. - T. 29 , no. 1 . - S. 53 .
  22. Csiszár I. Havaintokanavien informatiivisuuden mittariluokka.  // Periodica Math. unkari. - 1972. - T. 2 . — S. 191–213 .
  23. Arimoto S. Tietoteoreettisia pohdintoja estimointiongelmista  // Information and Control. - 1971. - T. 19 , no. 3 . - S. 181-194 .
  24. Csiszár I. Informaatiomittojen aksiomaattiset karakterisoinnit.  // haje. - 2008. - Ongelma. 10 . - S. 261-273 .
  25. Cichocki A., Amari S.-I. Alfa-beeta- ja gamma-erojen perheet: Joustavat ja vahvat yhtäläisyydet.  // haje. - 2010. - T. 12 , no. 6 . - S. 1532-1568 .

Kirjallisuus

Linkit