Skip navigation

I.1.1. Információ

Az információt általában olyan tényként szokták meghatározni, amelynek megismerésekor olyan tudásra teszünk szert, ami addig nem volt a birtokunkban. Claude E. Shannon[1] amerikai matematikus, akit az információelmélet megalapítójának tekinthetünk, rámutatott arra, hogy az információ csökkenti az azt birtokló helyzetének bizonytalanságát.

Ha az információra informatikai fogalomként tekintünk, akkor az üzenetek minősége érdektelenné válik, csupán azok mennyisége és átvitele lényeges.

A médiára és a hírközlésre vonatkoztatva a következőképpen definiálhatjuk a média fogalmát: „Sajátos statisztikai szerkezettel rendelkező jelkészletből összeállított, időben és/vagy térben elrendezett jelek sorozata, amellyel az adó egy dolog állapotáról, vagy egy jelenség lefolyásáról közöl adatokat, melyeket egy vevő felfog és értelmez. Információ mindaz, ami kódolható és egy megfelelő csatornán továbbítható.”[2]



[1] Claude Elwood Shannon (Petoskey, Michigan, 1916. április 30. – Medford, Massachusetts, 2001. február 24.) amerikai híradástechnikus és matematikus.  Fő műve, a Warren Weaver-rel közösen kiadott Mathematical Theory of Communication című munka 1949-ben jelent meg.  Magyarul A kommunikáció matematikai elmélete címmel 1986-ban az OMIKK adta ki.

[2] Csermely Péter, Gergely Pál, Koltay Tibor, Tóth János: Kutatás és közlés a természettudományokban. Osiris kiadó, 1999.