Információ

A Wikipédiából, a szabad enciklopédiából

Az információ latin eredetű szó, amely értesülést, hírt, üzenetet, tájékoztatást jelent. Egyben az informatika alapfogalma. Számos jelentése, kifejtése ismert, különböző tudományágak különböző módon közelítik meg, írják le. Egyértelműen elfogadott definíciója nem ismert.

Általánosságban információnak azt az adatot, hírt tekintjük amely számunkra releváns és ismerethiányt csökkent. Egyik legleegyszerűsítettebb megfogalmazás szerint az információ nem más, mint valóság (vagy egy részének) visszatükröződése.[1] Tudományos értelmezését az információelmélet fogalmazza meg.

Története[szerkesztés | forrásszöveg szerkesztése]

A középkorban az arisztotelészi érzékelés-elmélettel szemben (mely mintegy radarként képzelte pl. a szemet) az az elképzelés alakult ki, hogy a tárgyakról érkező valami az érzékszervet befolyásolja, formáját megváltoztatja, tehát informálja. A misztikus teológia szerint a lélek felemelkedve Isten közelébe, Isten nyomot hagy rajta, átformálja, informálja.

Az információ, mint tudományos fogalom az ipari forradalom idején jelent meg fokozatosan. A fogalom átvételében Rudolf Clausius 1865-ben készült dolgozatát tekinthetjük forduló pontnak. Később – ezt dolgozatot felhasználva – továbbfejlesztette Ludwig Boltzmann (1894). Szerinte az entrópia azért jelentkezik, mert a zárt rendszerbe nem juthat további anyag, energia és információ.

Olyan személyek munkái jelentették a fejlődést, mint Norbert Wiener, Gábor Dénes, Neumann János, Szilárd Leó, Claude Shannon, Warren Weaver vagy Ralph Vinton Lyon Hartley.

Az 1950-es évektől robbanásszerű fejlődésen megy át a fogalom, köszönhetően, hogy számos tudományág felfedezi és használatba veszi. Számtalan kiegészítése, értelmezése lát napvilágot. Olyan szakterületek építik be szaknyelvükbe, mint a kibernetika, biológia, pszichológia, kommunikációs elmélet, nyelvészet, szemiotika, játékelmélet, kódoláselmélet, vezetés- és szervezéselmélet, rendszerelmélet.


Főbb tulajdonságai[szerkesztés | forrásszöveg szerkesztése]

Az információ önmagában értéket képvisel, ez lehet társadalmi, tudományos, termelési - gazdasági vagy akár hatalmi érték. Az információval képesek vagyunk egy meglévő értéket növelni, így értéknövelő. Mivel értéket képvisel, így profitot, illetve extraprofitot is termelhet. Jellemző tulajdonsága még a mennyisége, minősége, felhasználhatósága, hozzáférhetősége, érthetősége, védelme.[forrás?]

Mennyisége[szerkesztés | forrásszöveg szerkesztése]

Az információ mennyisége az idővel exponenciálisan nő, ugyanis az információ felhasználásakor nem semmisül meg, többszörösen újrafelhasználható. Ugyanakkor az is igaz, hogy az információ megsemmisíthető, hiszen csak az információt reprezentáló adatokat, jeleket kell törölni.

Minősége[szerkesztés | forrásszöveg szerkesztése]

Az információ minősége alapvetően a feldolgozás és a tömörítés szintjétől, valamint az információtárolás minőségétől függ. Ide tartozik, hogy az információ mennyire megbízható, pontos, illetve mennyire időszerű.

Entrópia és az információ[szerkesztés | forrásszöveg szerkesztése]

Az entrópia a fizikában és az informatikában egyaránt használatos fogalom. Az entrópiát – mint a káoszt előidéző erőt – negatív információnak tekintjük, egyúttal a rendszeren belüli információ hiányát is jelenti.[j 1][2]

Mértékegysége[szerkesztés | forrásszöveg szerkesztése]

Az információmennyiség mértékegysége a bit[j 2] – nem tévesztendő össze a adatmennyiség mértékegységével, amely szintén bit.

Ha egy eldöntendő kérdésre egyforma valószínűséggel adhatók különböző válaszok, akkor az e kérdésre adott bármely válasz pontosan 1 bit információt hordoz.

1 bit információhoz 10−23 J/K entrópiacsökkenés szükséges.[2]

Egyéb ismert mértékegységek[szerkesztés | forrásszöveg szerkesztése]

A biten kívül két másik mértékegység is ismeretes, de nem terjedtek el széles körben.

Hartley[szerkesztés | forrásszöveg szerkesztése]

Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma (hírérték, entrópia):

I(h)= -\lg p \, hartley (decimális egység)

1 hartley = 1/lg 2 bit (kb. 3,32 bit), 1 hartley = 1/lg e nat (kb. 2,30 nat).

Nat (natural unit)[szerkesztés | forrásszöveg szerkesztése]

Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma:

I (h)= -\log _{e}p \, nat

Az információ más alapegységei a bit és a hartley.

1 nat = 1/ln 2 bit (kb. 1,44 bit),

1 nat = 1/ln 10 hartley (kb. 0,43 hartley).

Hír információtartalma[szerkesztés | forrásszöveg szerkesztése]

Hartley-képlet[szerkesztés | forrásszöveg szerkesztése]

Egy hír esetén, amely egy N elemű jelkészletből – legyen ez pl. az ABC – M darab jelet használ és a jeleket véletlenszerűen választjuk ki, a hír információtartalma:

H = M\cdot  \log _{2}N

A valóságban ezek a feltételeket csak ritkán teljesülnek. A feltételek teljesülésére kitűnő példa a lottóhúzás.

Shannon-képlet[szerkesztés | forrásszöveg szerkesztése]

Claude Elwood Shannon, az információelmélet megalkotója a következő egyenlettel írta le az információtartalmat:

H = k\cdot  \log _{a}(1/p)

ahol k a jelkészletből felhasznált jelek száma, p a jelkészletből 1 jel kiválasztásának valószínűsége.

Ha a különböző jelek kiválasztásának valószínűségei nem azonosak, a Shannon-féle entrópiát kell használni.

Tételezzük fel, hogy egy n elemű X jelhalmaz (például egy független komplett üzenetekből álló készlet) x1, x2, … xn elemei rendre p1, p2, … pn valószínűséggel fordulnak elő, ekkor az egyedi információmennyiségek, azaz log2 (1/pi) várható értéke definíció szerint:

 H \left( x_{1} , x_{2} , ... , x_{n} \right)  :=  \sum_{i=1}^{n} p(x_{i}) \log _{2} \frac{1}{ p \left( x_{i} \right) }

ahol összegezni kell i=1-től n-ig. H a Shannon-féle entrópia, ezt tekintjük az üzenet információjának. A képlet formailag hasonló a statisztikus fizika entrópia képletéhez[3].

Lásd még[szerkesztés | forrásszöveg szerkesztése]

Jegyzetek, források, hivatkozások[szerkesztés | forrásszöveg szerkesztése]

Lábjegyzetek[szerkesztés | forrásszöveg szerkesztése]

  1. Dr. Munk Sándor. Katonai informatika a XXI. század elején. Zrínyi Kiadó, 9. o. ISBN 978-963-327-419-4 (2007) 
  2. ^ a b Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 47–48. o. ISBN 963-327-391-9 (2005) 
  3. Végh András, Információ, adat, jel : http://veghandras.webnode.hu/news/informacio-adat-jel/
  1. Neumann János javasolta Shannonnak, hogy a fizikában használatos fogalmat használják fel az informatikában, mivel hasonló jelenséget kell leírni.
  2. John W. Tukey a kettes alapú logaritmusból kiindulva nevezte el. - Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 17. o. ISBN 963-327-391-9 (2005) 

Forrás[szerkesztés | forrásszöveg szerkesztése]

  • Dorozsmai Károly. 60 tétel informatikából. Maxim. ISBN 978 963 9624 436 (2008) 
  • Hack Frigyes. Informatikai ismeretek. ELTE TTK (1999)  Mikrológia 31
  • Hack Frigyes. Fejezetek az informatikából (Egyetemi jegyzet). Tankönyvkiadó (1982) 
  • Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó. ISBN 963-327-391-9 (2005) 
  • Magyari Endre. A hiradástechnika közös alapelvei. Mérnöki Továbbképző Intézet (1945) 
  • Neumann János. Válogatott előadások és tanulmányok. Közgazdasági és Jogi K. (1965) 
  • Nemann János. A számológép és az agy. Gondolat Kiadó (1972) 
  • Wiener, Norbert. Válogatott tanulmányok. Gondolat Kiadó (1974) 
  • Claude E. Shannon, Warren Weaver. A kommunikáció matematikai elmélete. OMIKK (1986) 
  • Végh András. Szóbeli tételjavaslatok - Informatika. Nemzeti Tankönyvkiadó. ISBN 963-19-5651-2 (2005) 
  • dr. Heinz Zemanek. Információelmélet. Műszaki Könyvkiadó (1956)