Zvonku to vyzerá ako ktorékoľvek zdravotnícke zariadenie. Rozsiahla budova s mnohými miestnosťami, dominujú biela farba a zápach čistiaceho prostriedku. Po chodbách sa ako každé ráno prechádza niekoľko pacientov, ďalší ležia v posteliach.
Jeden z nich náhle stlačí tlačidlo na privolanie personálu. Po krátkej chvíľke príde služba a chorý na lôžku požiada o zapnutie televízora - chce pozerať svoju obľúbenú televíznu súťaž. Jeho sused však namietne, že on by radšej sledoval športový kanál.
Ako túto dilemu vyriešiť? Komu by mala vyhovieť privolaná služba - ktorou však nie je zdravotná sestra, ale šikovný a špeciálne vyrobený medicínsky robot?
Svet strojov
Fakty
Roboty
1495 - Da Vinci navrhol automat pripomínajúci robota. 1920 - Karel Čapek uviedol v hre R.U.R. slovo „robot“. 1927 - Vo filme Metropolis „robot“ prvý raz ublíži človeku. 1952 - Prvá vedecká štúdia o etike strojov. 1997 - Šachový veľmajster Kasparov prehráva súboj s počítačom. 2010 - Prvý robot, ktorý sa riadi „etickými“ princípmi.
ZDROJ: Scientific American
Podobná situácia sa zrejme v žiadnej nemocnici či v domove dôchodcov (zatiaľ) neodohrala. No v súčasnom svete sa stále viac obklopujeme výkonnými prístrojmi, ktoré sú nielen krajšie, ale aj „múdrejšie“. A čoraz viac nahrádzajú človeka.
Viaceré armády sveta testujú vojenské automatizované systémy, ktoré by na bojisku nevyžadovali spojenie s operátorom.
Naše dopravné lietadlá už prakticky dokážu pristávať či vzlietať bez zásahu pilota – a ich prítomnosť je skôr poistkou a silným psychologickým faktorom. A na americké cesty už Google poslal autá, ktoré nepotrebujú šoférov.
S čoraz výraznejšou prítomnosťou takýchto robotov však prichádzajú aj problémy, ktoré musia stroje riešiť: ako sa majú zachovať v situácii, ktorá vyžaduje rozhodovanie? Ako by mali riešiť situácie spojené s etickou dilemou? A ako by sa vlastne mali správať?
Ak sa vrátime k nášmu príkladu: má robotoošetrovateľ prepnúť na šport alebo vedomostný kvíz? Či má robotovojak zaútočiť na dom aj vtedy, ak sa v ňom síce ukrýva terorista, no sú v ňom aj civilisti? A môže robotoauto naraziť do iného auta, keď mu chodec náhle skočí pod kolesá?
Tri zákony robotiky
Slávny autor vedeckej fantastiky (a o čosi menej slávny vedec a profesor Bostonskej univerzity) Isaac Asimov už v 40. rokoch v poviedke Runaround sformuloval tri základné zákony robotiky.
Robot podľa nich nesmie ublížiť človeku ani konať tak, aby jeho nečinnosť viedla k takémuto ublíženiu. Musí človeka poslúchnuť – ak to neprotirečí prvému zákonu. A musí chrániť sám seba – ak to neprotirečí prvému a druhému zákonu.
Problémom je, že tieto základné zákony nestačia na riešenie skutočných problémov v skutočnom svete. Aj preto aplikovaní etici, inžinieri a v niektorých krajinách aj politici hovoria o potrebe sofistikovanej robotoetiky.
V roku 2007 napríklad vytvorila Južná Kórea akúsi etickú chartu robotov, podľa ktorej sa musia zariadiť všetci výrobcovia takejto techniky.
Mala zabrániť zneužívaniu údajov, ktoré získali roboty, ale aj zaviazať ich výrobcov k tomu, aby sa ich zariadenia dali identifikovať a vystopovať. V skutočnosti však dokument veľký pokrok nepriniesol.
„Dobro a zlo napokon závisia od kontextu a situácie,“ povedal vtedy pre magazín New Scientist Max Lungarella z Tokijskej univerzity. „Jedna vec je naprogramovať roboty tak, aby boli spoľahlivé a bezpečné. A iná roboty naučiť, čo je dobré a čo zlé.“
Robotika, a najmä aplikovaná robotika je relatívne mladá oblasť. Aj keď prvé podobné stroje navrhoval už Leonardo da Vinci, len slovo robot sa objavilo až v roku 1920 v známej dráme Karla Čapka R.U.R.
Prvá vedecká štúdia o etike strojov vznikla až začiatkom päťdesiatych rokov – pričom vedcov dávno predbehli autori literárnej fantastiky. A prvého robota Nao, ktorý sa riadil etickými princípmi, naprogramovali podľa magazínu Scientific American len pred dvomi rokmi.
„Robotika je novou vedou s rozmanitými aplikáciami, ktoré môžu pomáhať ľuďom a riešiť mnohé problémy,“ vysvetľoval pre agentúru AFP aj robotoetik Gianmarco Veruggio. „Lenže ako v každej oblasti vedy a techniky, otvárajú sa tu mnohé citlivé otázky.“
Roboty Nao. FOTO - ALDEBARAN ROBOTICS
Učím sa byť dobrý
Nao bol vlastne čudný robot. Na prvý pohľad sa nelíšil od množstva podobných hračiek, ktoré niekoľkokrát ročne predstavujú na japonských a juhokórejských hi-tech výstavách.
Od rôznych náhrad domácich miláčikov a skôr zábavných zariadení ho však pri experimente Susan Leigh Andersonovoej odlišovalo jeho vnútro. Presnejšie, riadiaci program.
Robot sa totiž dokázal učiť, na základe predchádzajúcej skúsenosti zhodnotiť viaceré možnosti, a následne vykonať voľbu, ktorú môžeme označiť čiastočne za etickú. Robot napríklad pripomínal pacientom ich lieky.
Dôležitejšie však bolo, že sa dokázal rozhodnúť, kedy zostať otravným a kedy rešpektovať pacientovu vôľu liečivo odmietnuť.
Vedci vytvorili algoritmus, ktorý dokázal z dostupných prípadov s konkrétnym etickým rozhodnutím vyabstrahovať „etický princíp“.
„Tento princíp bol následne zakódovaný do naprogramovania robota,“ tvrdí v texte pre americký popularizačný mesačník Adersonová. Robot tiež vyhodnocoval konflikt medzi svojimi povinnosťami a ich prípadným porušením, a podľa toho si vybral akciu.
Takéto učenie sa však nie je jediným možným postupom. Už dávnejšie odborníci navrhovali napríklad roboty, ktoré by si správnu reakciu v kritickej situácii volili na základe štatistiky a prieskumu na internete. Alebo by obsahovali programy, ktoré by sa dokázali samy učiť na svojich vlastných chybách.
Prepnúť na šport
Robot v našom zdravotníckom zariadení medzičasom prepol na šport. Prečo? Televízny kvíz sa na izbe pozeral ráno predtým.
Aj takto raz môže vyzerať spravodlivosť v podaní robotov. A to „raz“ nemusí byť vôbec ďaleko. Už dnes žijeme vo svete techniky, kde dômyselné zariadenia riešia naše problémy. Tieto zariadenia sa budú čoskoro rozhodovať, a tieto rozhodnutia nemusia byť vôbec ľahké.
Skutočná otázka však neznie, či sa tak stane, ale kedy,
Hlavné zdroje: The Economist, Scientific American