Információ és infláció

2018.01.12 16:33

Elszigetelt rendszerben az információ csökken. Mielőtt bárki félre értené, szögezzük le, hogy nem a pénz inflációjáról lesz szó, nem is az értékek inflálódásáról, hanem az entrópiáról, pontosabban az ördög törvényéről. Nem tudom nevezte-e valaki így a termodinamika II. főtételét, de ha igen, egyetértek vele. Bár a tudósok többsége érthető okokból, irtózik az efféle asszociációktól, én mégis leírom. A fizika legszebb törvényei a különféle szimmetriákból (matematikailag) levezethető megmaradási tételek. Bizonyos értelemben ezek írják le világunk (időbeli) állandóságát, megbízhatóságát, ezért számunkra nem csak szépek, de istenien értékesek is. A termodinamikában az energia megmaradást az I. főtételnek nevezik. Ha az első főtétel isteni, akkor a termodinamika II. főtétele ördöginek nevezhető, több okból is. Először azért, mert a rendetlenség (rendezetlenség) szükségszerű növekedéséről szól, ebből következtetni lehet a spontán folyamatok irányára, lényegében az idő irányára, másrészt arról a trivialitásról, hogy minden zárt rendszer a valószínűbb állapotok felé tart, és arról is, hogy az energia szétszóródik és minden hasznos munkának nem csak a becsületes „árát” kell megfizetni, hanem a „vámját” is hő formájában. Végezetül pedig nem (vagy nehezen) érthető, hogy miért impotens (tehetetlen) a Maxwell-démon? – aki cáfolni tudná a tételt.

Az információ nem anyag és nem energia, viszont nem csak metaforikus értelemben mutat hasonlóságot az entrópiával. Az információt (információmennyiséget) abban a jelentésben használjuk, ahogyan azt az információelméletben Claude E. Shannon és Warren Weaver bevezette. Pontosabban csak az egyedi üzenetek információtartalmára lesz szükségünk.

Tekintsük a következő kommunikációs helyzetet! Az adó egy tetszőleges esemény kimeneteléről (eredményéről) vagy egy rendszer konkrét állapotáról, komplett üzenetet küld a vevő felé. A vevő az üzenetet fogadja, azaz megállapítja, hogy a lehetségesek közül melyik. Minden lehetséges üzenetnek meghatározott valószínűsége van. (A kulcsfogalmakat meglehetősen széleskörűen értelmezzük: az adó lehet bármilyen anyagi dolog, amely jeleket, jelsorozatokat, azaz üzeneteket küld, függetlenül attól, hogy a jeleket tudatos akarat, gép vagy természeti folyamatok eredményezik, a vevő is lehet bármi, ami jeleket, jelsorozatokat fogad, tárol, kezel.)

Az információ definiálásakor megköveteljük még a következőt: Az üzenet információtartalma annál nagyobb legyen, minél nagyobb a váratlansága, azaz minél kisebb az üzenet valószínűsége.

A fentiek értelmében, ha n számú független üzenetből álló készletet tekintünk, - n az összes lehetséges üzenet száma, - amelyek kiválasztási (bekövetkezési) valószínűségei ismertek, rendre: p1, p2,…pn, és p ezek közül az egyik, akkor egy egyedi üzenet információja:

H = - log2 p.                (1)

Megjegyzés: A H információ nem lesz mínusz, mert p  0 és 1 közötti szám és ennek logaritmusa negatív.

Az entrópia szót Rudolf Clausius  (1822–1888) találta ki, ezzel jellemezte a termodinamikában az anyagi rendszerek molekuláris rendezetlenségét, illetve termodinamikai valószínűségének a mértékét, S-sel jelöljük. Boltzmann a következő összefüggést találta:

S = k ln W,  ahol k = 1,38064 *10-23 J/K  a Boltzmann állandó.    (2)

Ezek szerint az entrópia (S) nem más, mint a termodinamikai valószínűség (W) logaritmusa szorozva egy (k) állandóval.

A fenti képleteket egy részecskesokaság fizikai állapotáról szóló üzenetre fogjuk alkalmazni, a következőképpen: Egy részecskesokaságra vonatkozó mérhető termodinamikai állapotot egy üzenet reprezentál, amelynek termodinamikai valószínűsége W. Ennek alapján a fenti egyenletekből levezethetjük az információ-entrópia összefüggést. A számításnál figyelembe kell venni az alábbiakat is. A (2) entrópia kifejezése formai szempontból (1)-re hasonlít, de van néhány különbözőség. Ezek a következők: az előjel, a k állandó, az ln és log2 természetes és 2-es alapú logaritmusok, és végül a W termodinamikai valószínűség, (általában igen nagy szám, nem a szokásos matematikai valószínűség, a mikroállapotok száma) és a p valószínűség, amely mindig 0 és 1 közötti szám. Végül alkalmazzuk a kétféle logaritmus közötti összefüggést: ln x = ln 2* log2 x.

A részletes levezetést mellőzzük,  itt olvasható   Ha a behelyettesítéseket elvégezzük, akkor a következő kifejezést kapjuk az információ-változásra,:

dH = - k dS    (3)

Az információváltozás (dH), arányos az entrópia változással (dS), de negatív előjellel. A növekvő entrópia csökkenő információt jelent és fordítva, ha egy (zárt) rendszerben nő az információ, akkor szükségképpen csökken az entrópia. S együtthatóját nevezzük el k -nak, (kappának),
 

k=1,044 * 1023 bit/J/K.

d-vel a mennyiségek változását, deltát jelöljük. Itt a negatív előjel valójában az információnak a definíciójából következik, lásd (1), ott pedig azért kell negatív előjel a logaritmus előtt, mert megköveteltük, hogy a nagyobb valószínűségű üzenet, kisebb információt jelentsen. Az igazán érdekes nem ez, hanem a Kappa szorzótényező értéke, ebből adódik például, hogy 1 Joule energiának, 310 K testhőmérsékleten 3,236 * 1025 bit információ felel meg. Ez összehasonlíthatatlanul nagyobb, mint amit az emberi DNS tartalmaz. A DNS adatmennyisége kb. 6,6 * 109 bit, de még ez is jóval több, mint a valódi információ-mennyisége, mert a „DNS szövege” meglehetősen redundáns.

Mivel a k rendkívül nagy szám, 1023 nagyságrendű, a (3) összefüggés azt is jelenti, hogy viszonylag kevés energiával és kevés anyagban nagyon sok információ (adat) tárolható, továbbítható, feldolgozható… Az atomos anyagban óriási adattárolási és számítási kapacitás van – egyelőre kihasználatlanul.

Kínálkozik egy érdekes analógia az energia-tömeg egyenértékűséggel. Az E=mc2 képletben c2=9*1016 (m/s)2, ez azt jelenti, hogy 1 g anyag energiája kb. 1014 J, azaz száz billió Joule. Érdekes, hogy k ennél is sok nagyságrenddel nagyobb szorzó!

A termodinamika II. főtétele az entrópia növekedéséről szól. Az entrópiát úgy képzelhetjük el, mint a sok részecskéből álló rendszer rendezetlenségének a mértékét.

A II. főtétel szerint spontán módon csak olyan folyamatok mehetnek végbe izolált (azaz anyag, energia- szigeteléssel ellátott) rendszerben, amelyek esetében az entrópia nem csökkenhet.

A legtöbb folyamatban a teljes entrópia növekszik, de nem korlátlanul. A rendszer struktúrájától és anyagi összetételétől függően lesz a részecskéknek olyan eloszlása és mozgása, amelyre nézve az entrópia a legnagyobb. Ha a rendszer elérte ezt az állapotot, meg is marad benne.

A termodinamika második főtétele a természet alapvető törvénye, nem lehet furfangos technológiákkal kijátszani. Jó példa erre a Maxwell-démon kudarca, amely olyan mikroszkopikus démon vagy szerkezet lenne, amely a gyors és a lassú gázmolekulák szétválogatásával csökkentené az izolált rendszer entrópiáját. A Maxwell-démont James Clerk Maxwell skót fizikusról nevezték el, aki 1871-ben adta közre először gondolatkísérletét. Csakhogy eddig egyetlen ilyen démoni szerkezetet sem sikerült megalkotni, de még fizikailag reálisan számítógéppel modellezni sem. (Lásd: Maxwell-démon a számítógépben című cikkemet.)

Könnyű olyan eseteket találni, amelyek szemléltetik a második főtételt. Például egy leejtett pohár darabokra törik, a felszálló füst szétoszlik a levegőben, egy épület tönkremegy, ha magára hagyják, nő a rendezetlenségük, az entrópiájuk. A fordított folyamat nem szokott előfordulni, az üvegcserepek spontán módon nem állnak össze pohárrá…. Ezért szokták azt mondani, hogy az entrópia növekedés megszabja a folyamatok irányát, tehát az idő irányát is.

 

Egy zárt fizikai rendszer entrópiájának spontán növekedése azt jelenti, hogy a rendszer egyre nagyobb valószínűségű állapotokba kerül, amíg el nem ér egy maximális értéket, amely a rendszerre jellemző. Ha a rendszer entrópiája növekszik, akkor ugyanilyen mértékben csökken az állapotát leíró üzenet információja. Erre számos példát találhatunk. Egy több száz éves könyv entrópiája láthatóan nő, a papír beszakad, elöregszik, a jelek elkopnak …, a könyvben lévő információ pedig csökken, igaz, ennek látható része (pl. ha néhány szó nem olvasható) csak elenyésző töredéke a teljes csökkenésnek.

A fentieket szem előtt tartva a termodinamika 2. főtételét így is átfogalmazhatjuk:

Egy (anyag, energia és információ vonatkozásában) izolált, zárt rendszer információtartalma nem nőhet, irreverzibilis (spontán) folyamatok során mindig csökken. Az információ spontán folyamatokban inflálódik.

Tehát, spontán folyamatokban az információ csökken. Ez ugyanolyan szigorúan érvényes törvény, mint a második főtétel. Előfordulhat ugyan, hogy egy rendszer információtartalma megfelelő folyamatok során növekszik, de akkor a környezetének ennél nagyobb mértékben csökken az információja.

Ha a világegyetemet zárt rendszernek tekintjük,- mivel tágul, nem egészen az - akkor megállapíthatjuk, hogy az univerzumban az információ folyamatosan és erősen inflálódik, csökken, hiszen erősen irreverzibilis, spontán folyamatok zajlanak benne. Az inflációnak ellentmondani látszik, hogy a Földön az emberiség által megszerzett és kezelt információ jelenleg exponenciálisan növekszik. Ez azonban csak a hasznos információra vonatkozik, az anyagban lévő információ mellett ez eltörpül. Azt sem feledjük, hogy az emberiség informatikai értelemben is nyílt rendszer, nem zárt. (A törvény zárt rendszerekre érvényes.)

 

Végh András fizikus    

                                                                                  

Irodalom

Claude E. Shannon és Warren Weaver, A kommunikáció matematikai elmélete, OMIKK, budapest, 1986.

Simonyi Károly, A fizika kultúrtörténete, Gondolat, Budapest, 1978.

Fényes Imre, Modern fizikai kisenciklopédia, Gondolat, Budapest, 1971