betűk összetéveszthetők, az átlók végpontjain lévők
(például u, w) pontosan megkülönböztethetők. Két k hosszúságú U és V
betűsorozatot (blokkot) akkor lehet összetévesztés nélkül
továbbítani, ha az U blokkban van olyan betű, amelyik a V blokk
valamelyik betűjével nem téveszthető össze. Ha nem használunk
blokk-kódolást, akkor másodpercenként nyilván legfeljebb két betűt
lehet hibamentesen továbbítani. Az ([uu], [vw], [wn], [mv], [nm]) öt
betűpárból bármelyik kettő megkülönböztethető, tehát két
másodpercenként (kettő hosszúságú blokkokon) öt betű küldhető hiba
nélkül, azaz másodpercenként Ö5 betűt lehet hibamentesen
továbbítani.
Ezzel látszólag semmit se nyertünk, mert Ö5 nem
egész szám, de 4 másodperc alatt már nyerünk 9 = 25 - 16 betűt. A
tapasztalat szerint a blokkméret növelésével az egy másodpercre jutó
nyereség – ha kicsit is – nő. Lovász László bebizonyította, hogy a
kétbetűs blokkot alkalmazó kódolásnál elvileg sincs jobb (On the
Shannon Capacity of a Graph, 1979). Ez az eredménye szerepelt
Wolf-díja (1999) indoklásában is.
Shannon meghatározó szerepet játszott az
információelmélet fejlődésében a további években is. 1961-ben
megjelent dolgozatának úttörő szerepe volt a modern
információelmélet központi kutatási területének, a hírközlési
hálózatok elméletének elindításában (Two-way Communication Channels,
1961).
A Shannon által kidolgozott információelméletnek
számos alkalmazása van a matematika más területein. Itt röviden
megemlítjük a statisztikai alkalmazásokat és az információelméletnek
az ún. dinamikai rendszerek elméletére gyakorolt hatását.
Statisztikai alkalmazások
Ismeretes, hogy a statisztikai döntések hiba-valószínűségeit (P
[elfogadjuk a hipotézist, pedig nem igaz] és P [elvetjük a
hipotézist, pedig igaz]) a minta elemszámának növelésével lehet
egyidejűleg csökkenteni.
Ha a mintavétel költséges, akkor az előírt kis
hiba-valószínűségek eléréséhez minimálisan szükséges mintaelemszám
átlagos értékét érdemes optimalizálni. Wald Ábrahám a második
világháború alatt lőszerek selejtarányának vizsgálatára dolgozta ki
az ún. szekvenciális mintavételi eljárást (a korábbi minták
eredménye alapján döntünk, hogy elfogadjuk vagy elvetjük a
hipotézist, vagy új mintát veszünk. Wald az eljárás elméleti
alapjait csak 1948-ban közölhette.
Az átlagos mintaelemszámra adott felső becslés
információelméleti módszeren alapul. A szekvenciális eljárásnak ma
elsősorban a gyógyszerek klinikai kipróbálásánál van jelentősége:
egy önkéntes kísérleti személyt nagy összeggel kell díjazni.
Csiszár Imre egyik kedvelt alkalmazási területe az
eloszlások közötti eltérésnek, az entrópiához hasonlóan megadható
mértékszámaira Nyikolaj Csencov által kezdeményezett ún. információs
geometria. Ezt sikerrel alkalmazzák a sokdimenziós gyakoriságtáblák
elemzésekor a modellalkotásban. Az érdekesség kedvéért megemlítjük,
hogy ebben a geometriában érvényes a Pitagorasz-tétel analógja.
Dinamikai rendszerek,
Kolmogorov–Szinaj-entrópia
Ez a paragrafus matematikai fontossága mellett direkt és közvetett
magyar vonatkozásai miatt is érdekes. Kevesen tudják, hogy Andrej
Nyikolajevics Kolmogorovnak számos magyar „szellemi unokája” van,
közülük négyet az MTA rendes tagjává választottak.
A matematikai fizikában dinamikai rendszereknek
nevezzük az ún. mértéktartó leképezéseket; például az emlékezet
nélküli források felhasználásával konstruálhatók a legegyszerűbb
ilyen leképezések.
Neumann János a harmincas évek végén azt sejtette,
hogy ezek a leképezések mértékelméleti szempontból ekvivalensek.
Andrej N. Kolmogorovnak (Az egységnyi időre eső entrópia az
automorfizmusok metrikus invariánsa, 1959) és Jakov G. Szinajnak (A
dinamikai rendszerek entrópiájának fogalmáról, 1959) sikerült
általános dinamikai rendszerekre az entrópiát úgy definiálni, hogy
emlékezet nélküli források esetén az megegyezzen a
Shannon-entrópiával, és bebizonyították, hogy a különböző entrópiájú
rendszerek nem ekvivalensek. 1970-ben Donald Ornstein (Bernoulli
Shifts Are Isomorphic, 1970) igazolta, hogy az azonos entrópiájú,
emlékezet nélküli források alapján konstruált dinamikai rendszerek
mértékelméleti szempontból valóban ekvivalensek.
A magyar matematikai iskola jelentősen hozzájárult
az információelmélet fejlődéséhez. Noha Shannon 1961-es dolgozatában
már foglalkozott a többfelhasználós csatornákkal, ezt az elméletet
az 1970-es években dolgozták ki részletesen. Ebben jelentős szerepe
volt az MTA Matematikai Kutató Intézete Csiszár Imre által vezetett
csoportjának, amely a szakterület nemzetközi élvonalához tartozott.
Eredményességüket formálisan is elismert nemzetközi sikerek
bizonyítják.
1. Csiszár Imre és Körner János Information Theory:
Coding Theorems for Discrete Memoryless Systems című könyve a
tudományterület alapvető monográfiája (1981, második kiadás 2011).
2. Az 1972 óta az IEEE Information Theory Society (URL1)
évenként megrendezett kongresszusán odaítélt Shannon-díjat (ez
kezdetben meghívás volt egy kiemelt előadás tartására, később
alakult jelentős pénzjutalommal járó kitüntetéssé) eddig három
magyar matematikus kapta meg: Csiszár Imre (1996), Marton Katalin
(2013) és Körner János (2014).
3. Csiszár Imrét 2015-ben az IEEE Hamming-érmével
tüntették ki.
A kutatócsoport további két tagja, Marton Katalin
és Körner János foglalkozott közvetlenül a Shannon által kitűzött
problémakörrel. Marton Katalin később a valószínűség-számítás egyik
legmodernebb ágával, a mértékkoncentrációval foglalkozott. Egyik
érdekes eredménye az ún. blow up lemma elegáns információelméleti
bizonyítása. Körner János az információelmélet kombinatorikai
alkalmazásaiban ért el jelentős eredményeket. A kombinatorikai
alkalmazás egyik csúcsteljesítménye az öt magyar szerző dolgozata
(Csiszár I. – Körner J. – Lovász L. – Marton K. – Simonyi G.:
Entropy Splitting for Antiblocking Corners and Perfect Graphs,
1990).
A fentiekben kissé felborítottuk a történeti
sorrendet, ugyanis az információelmélet magyar matematikai
iskolájának megalapítója kétségkívül Rényi Alfréd, aki korai halála
(1970) miatt csak Csiszár Imrének és részben Nemetz Tibornak volt
közvetlen mestere. Az 1970-es években az információelmélet már
szigorú matematikai alapokon állt, és jelentős matematikai
apparátust alkalmazott. A magyar iskola Rényi Alfréd
kezdeményezésére Csiszár Imre vezetésével éppen akkor indult, és
világviszonylatban is kiemelkedőt alkotott. Az iskolateremtésben így
Csiszár Imrének volt jelentős szerepe.
A Rényi-entrópia
Röviden ismertetjük Rényi hozzájárulását az információelmélethez.
A H(P) Shannon-entrópia felfogható az Ij
egyedi információk átlagaként, ahol Ij = -log pj,
hiszen H(P) = -(p1 log p1+…+ pk log
pk).
Rényi az átlag helyett egy általánosabb közép
fogalma segítségével egy új entrópiacsaládot vezetett be, a
Rényi-féle alfa-entrópiát, amelyet a Ha(P) := [log(p1a
+…+ pka]/(1-a) formula definiál. A formulában
alfa helyett áll a. Ennek határértéke, ha a → 1, éppen a
Shannon-entrópia.
Belátható, hogy független X és Y (P és Q eloszlású)
valószínűségi változókra Ha(X,Y) = Ha(X) + Ha(Y), viszont nem
független valószínűségi változókra az együttes entrópia lehet
nagyobb is, mint az egyes entrópiák összege (On Measures of Entropy
and Information, 1960). Az a-entrópia a nemnövekvő, folytonos
függvénye.
A Rényi-entrópia a hetvenes években a statisztikus
fizikával foglalkozók körében nagy népszerűségre tett szert, mert
jól alkalmazható a nagyközönség által is ismert látványos fraktálok
leírásában.
Nemetz Tibor elsősorban a kriptográfiában alkotott
jelentőset, emellett fontos mértékelméleti eredményeket ért el, és
foglalkozott a magyar nyelv entrópiájának meghatározásával is.
Fritz József tudományos munkásságát szintén az
információelmélettel kezdte, majd 1973-ban kiment Moszkvába, ahol a
Távközlési Kutatóintézetben Roland Lvovics Dobrusin éppen a
statisztikus fizika szigorú matematikai megalapozásában ért el
alapvető eredményeket. Ehhez Fritz József is csatlakozott, így
bizonyos értelemben visszatért az információelmélet fizikai
forrásához. Dolgozataiból ma sem hiányzik az entropy production
kifejezés.
Gács Péter, az elméleti számítástudomány kiemelkedő
kutatója munkásságának kezdetén Körner Jánossal közösen alapvető
eredményt ért el az ún. közös információra vonatkozóan, nevezetesen,
hogy két korrelált forrás esetén megadható-e az egyiknek és a
másiknak olyan kódja, hogy azok nagy valószínűséggel egyenlők (Gács
– Körner: Common Information Is Far Less than Mutual Information,
1973).
A Budapesti Műszaki Egyetem információelméleti
iskolájának megalapítása Csibi Sándornak köszönhető. Tanítványa,
Györfi László vált a Műegyetem vezető információelméleti kutatójává,
akinek számos, ma már külföldön dolgozó tanítványa ért el jelentős
eredményeket.
Végül mindenképpen meg kell emlékeznünk a
méltatlanul elfeledett Korodi Albert (1898–1995) villamosmérnökről,
aki Magyarországon először foglalkozott információelmélettel.
Korodi Albertet sok más műszaki probléma mellett
elsősorban a folytonos jelátvitel érdekelte. 1916-ban érettségizett
a Markó utcai Főreálban. Ugyanabban az évben megnyerte az Eötvös
Loránd matematikaversenyt, valamint (Jendrassik György és Szilárd
Leó mögött) negyedik díjat kapott az akkor induló Károly Irén
fizikaversenyen. Beiratkozott a Budapesti Műegyetemre, de Szilárd
Leó hívására tanulmányait a charlottenburgi Technische Hochschulén
fejezte be.
1933-ban hazatért, és a Philips gyár főmérnökeként
dolgozott, majd annak államosítása (1950) után a Távközlési
Kutatóintézet főmunkatársa lett. Eközben információelméletet
tanított a Mérnöktovábbképző Intézetben. 1953-ban írta hallgatói
számára az első magyar nyelvű információelmélet jegyzetet, amely
mindössze ötven oldalon, a mérnökök számára érthető matematikai
apparátust használva ismertette az információelmélet minden
fontosabb eredményét.
Shannon életéből és munkásságából azt a tanulságot
vonhatjuk le, hogy ha egy kiemelkedő műszaki és matematikai tehetség
észreveszi egy korszaknak az átlagemberek számára is érthető
problémáit (áttekinthetetlen áramkörök, túlterhelt, zajos távközlési
hálózatok, az ellenség által megfejthető szupertitkos üzenetek), és
széles körű a matematikai érdeklődése, akkor viszonylag egyszerű
matematikai eszközök alkalmazásával is képes a problémák lényegét
feltáró finom analízisre és ezáltal olyan új elmélet megalkotására,
amely a matematika fejlődésére is nagy hatással van. A magyar iskola
az 1970-es években kapcsolódott be az információelmélet kutatásába.
Ekkor az elmélet már elismert, a modern matematika gazdag
eszköztárát alkalmazó diszciplína volt. A Csiszár Imre által
vezetett iskola világviszonylatban is a legjelentősebbek közé
tartozott. Az iskola fiatalabb tagjai újabban a matematika más
területein értek el kiemelkedő eredményeket, amelyekben tetten
érhető az információelméleti indíttatás.
Kulcsszavak: forráskódolás, entrópia, csatornakódolás,
csatornakapacitás, folytonos idejű jelek, jel/zaj viszony
IRODALOM
Berrou, Claude – Glavieux, A. –
Thitimajshina, P. (1993): Near Shannon Limit Error-correcting Coding
and Decoding: Turbo-Codes. IEEE Transactions on Information Theory.
2, 8. 1064–1070. •
WEBCÍM
Csiszár Imre – Körner János (1981, második
kiadás 2011): Information Theory: Coding Theorems for Discrete
Memoryless Systems. Akadémiai, Budapest •
WEBCÍM
Csiszár Imre – Körner J. – Lovász L. –
Marton K. – Simonyi G. (1990): Entropy Splitting for Antiblocking
Corners and Perfect Graphs. 10, 1, 27–40. DOI: 10.1007/BF02122693 •
WEBCÍM
Gács Péter – Körner János (1973): Common
Information Is Far Less than Mutual Information. Problems of Control
and Information Theory – PCIT. 2, 2, 149–162. •
WEBCÍM
Kolmogorov, Andrej N. (1959): Az egységnyi
időre eső entrópia az automorfizmusok metrikus invariánsa. [orosz
nyelven] Dokladyij Akagyemii Nauk SZSZSZR, 124, 754–755.
Lovász László (1979): On the Shannon
Capacity of a Graph. IEEE Transactions on Information Theory. 25, 1,
1–7. DOI:10.1109/TIT.1979.1055985
Ornstein, Donald (1970): Bernoulli Shifts
with the Same Entropy Are Isomorphic. Advances in Mathematics. 4,
337–352. DOI:10.1016/0001-8708(70) 90029-0 •
WEBCÍM
Rényi Alfréd (1961): On Measures of
Entropy and Information. In: Neyman, Jerzy (ed.): Proceedings
Fourth Berkeley Symposium on Mathematical Statistics
and Probability, Vol. I. 547–561. •
WEBCÍM
Shannon, Claude Elwood (1938): Symbolic
Analysis of Relay and Switching Circuits. Transactions of the
American Institute of Electrical Engineers. 57, •
WEBCÍM
Shannon, Claude Elwood (1948): A
Mathematical Theory of Communication. Bell System Technical Journal.
27, July, 379–423., October, 623–656. •
WEBCÍM
Shannon, Claude Elwood (1949):
Communication Theory of Secrecy Systems. Bell System Technical
Journal. 28, 656–715. •
WEBCÍM •
WEBCÍM
Shannon, Claude Elwood (1961): Two-way
Communication Channels. In: Neyman, Jerzy (ed.): Proceedings
Fourth Berkeley Symposium on Mathematical Statistics
and Probability, Vol. I. 611–644. •
WEBCÍM
Szinaj, Jakov G. (1959): A dinamikai
rendszerek entrópiájának fogalmáról. [orosz nyelven] Dokladyij
Akagyemii Nauk SZSZSZR, 124, 768–771.
URL1:
LÁBJEGYZET
1 A cikk szövege nagyrészt
Krámli Andrásnak, az MTA doktorának Csiszár Imrével, az MTA rendes
tagjával 2015. július 30-án folytatott beszélgetésén alapul. A
beszélgetőtárs köszönettel tartozik Ratkó Ilonának, Korodi Albert
lányának, az édesapja életútjáról és tudományos munkásságáról
nyújtott értékes információkért, amelyeket terjedelmi okokból csak
részben közölhetünk.
<
|