Počítače má dnes každý. No na počiatku revolúcie stáli traja ľudia. Claude Elwood Shannon, jeden z nich, zomrel pred desiatimi rokmi.
BRATISLAVA. Počítač v dnešnej podobe je výsledkom úsilia množstva ľudí. Nekonečný by bol zoznam tých, ktorí nejakým spôsobom prispeli k dnešnej informatike.
V tejto súvislosti však predsa vynikajú tri mená, pozoruhodní muži považovaní za „otcov" počítačov. Výsledkami svojej práce postavili teoretické základy počítačov a informatiky vôbec.
Sú to Alan Mathison Turing, britský matematik, ktorý položil základy teoretickej informatiky a umelej inteligencie, John von Neumann, americký matematik maďarského pôvodu - autor koncepcie počítačov a Claude Elwood Shannon, americký matematik a elektronik, tvorca teórie informácie a zakladateľ teórie návrhu digitálnych elektronických obvodov.
Poslednému z nich sú venované nasledovné riadky. Dňa 24. februára uplynulo desať rokov od jeho úmrtia.
Teória informácie
Teória informácie je matematická disciplína, ktorá definuje základné pojmy a rieši a stanovuje podmienky spracovania a prenosu správ, resp. informácií. Významným výsledkom teórie okrem iného je kvantifikácia informácie.
Základy teórie informácie publikoval Shannon vo svojej práci v r. 1948. Zameral sa v nej na problematiku kódovania správ, ktoré majú byť prenesené zo zdroja správ cez prenosový kanál k prijímateľovi.
Kanál je prostredie, ktorým sa prenáša zakódovaná informácia. Účelom kódovania, okrem iného, je prevod informácie do formy vhodnej na prenos cez kanál. Pri prenose obvykle dochádza k chybám pôsobením nežiadúcich rušivých vplyvov, tzv. šumu.
Dobre to niekedy poznáme pri rušení rozhlasového signálu alebo telefonického hovoru. Kódovanie správ závisí na pravdepodobnosti, s akou sa jednotlivé správy zo zdroja správ vysielajú.
Táto skutočnosť a náhodný charakter šumu viedli C. Shannona k použitiu počtu pravdepodobnosti v teórii informácie.
Z hľadiska aplikácie teórie informácie pritom nie je podstatné, či prenos informácie predstavuje telefonický hovor, prenos rozhlasového alebo televízneho signálu, prenos dát v počítačovej sieti, či prenos po vnútornej dátovej zbernici počítača a podobne.
Obrovský význam a dosah teórie dokumentuje skutočnosť, že teória informácie prekročila rámec oblasti pre ktorú vznikla - prenos správ. Jej závery sa využívajú aj v takých odboroch ako ekonómia, biológia, ale aj lingvistika alebo psychológia.
Jednotka informácie
V práci z roku 1948 Claude Shannon zaviedol pojem množstva informácie a prvý raz použil označenie „bit". (Slovo bit, ako skratku slov binary digit zaviedol americký matematik John Wilder Tukey.)
Podstata „merania" informácie spočíva v číselnom vyjadrení pravdepodobnosti, s akou nejaký jav alebo stav nastane. Správa, že zo všetkých možných výsledkov pokusu nastal výsledok s danou pravdepodobnosťou pred pokusom, určuje množstvo informácie, ktorú sme vykonaním pokusu získali.
Čím je jav nepravdepodobnejší, tým viac informácie získame. Túto závislosť matematicky určuje logaritmus so základom dva. Ak vieme vopred, že nejaký jav určite nastane, tak informácia, ža jav nastal je prirodzene nulová.
Koľko informácie je teda jeden bit ?
Je to množstvo informácie, ktoré získame, keď zistíme, ktorý z dvoch rovnako pravdepodobných stavov (pravdepodobnosť každého sa rovná 1/2) nastal.
Napríklad po hodení mincou získame 1 bit informácie. Na základe teórie informácie sa dá tiež vypočítať, že pri jednom hode hracou kockou (ktorá má na stenách bodky v počte od 1 do 6) dostaneme informáciu o veľkosti 2,585 bitov.
Okrem toho Shannon zaviedol celý rad ďalších základných pojmov, ako kapacita kanálu (maximálne množstvo informácie, ktoré je kanál schopný preniesť za 1 sekundu - udáva sa v počte bitov za sekundu - bit/s) alebo informačná entropia (vyjadruje strednú hodnotu informácie získanú vykonaním pokusu s nerovnakými pravdepodobnosťami výsledkov).
Návrh digitálnych obvodov
Významný a zásadný je prínos C. Shannona k teórii návrhu digitálnych obvodov.
Základné tézy tejto teórie uviedol už vo svojej diplomovej práci v r. 1937. Rozpracoval v nej použitie Booleovej algebry (kde premenné majú len dve hodnoty: 0 alebo 1) a binárnej aritmetiky na analýzu a syntézu dvojhodnotových - digitálnych systémov.
Nadčasovosť teórie vyniká, keď si uvedomíme, že v čase jej vzniku boli elementárnymi prvkami elektronických obvodov vákuové elektrónky a elektromechanické relé. Na tejto báze boli postavené aj prvé počítače.
Plné uplatnenie našla teória pri návrhu logických obvodov v povojnovom období a pri nástupe integrovaných obvodov v sedemdesiatych rokoch minulého storočia.
Prakticky každý elektronický digitálny systém, či už je to počítač alebo riadiaci systém, je navrhnutý na základe konceptov, ktoré postuloval Claude Shannon.
Pionier informatiky
Profesor Claude Shannon svojimi priekopníckymi prácami pomohol naštartovať informačnú revolúciu. Významnou mierou prispel a ešte i dnes prispieva k pokroku komunikačných a informačných technológií
Zatiaľ čo vedci bádajú už v oblasti kvantovej teórie informácie, výsledky jeho tvorivého myslenia denne využívajú milióny ľudí na celom svete.
Je to najvyššie uznanie a pocta človeku, ktorý sa mierou vrchovatou zaslúžil o vedný odbor informatika.
Za svoju prácu a dosiahnuté výsledky získal C. Shannon viaceré ocenenia a bol držiteľom honorárnych vedeckých hodností prestížnych univerzít, ako univerzity v Yale, Michigane, Princetone, Edinburghu, Oxforde, Pennsylvanii a ďalších.
(Autor sa zaoberá históriou a popularizáciou vedy.)
Autor: Slavomír Beňo