SME

Umelú inteligenciu nechali učiť sa od ľudi. Stala sa za nej rasistka

Technologický gigant Microsoft podcenil nenávistné trendy internetových diskutérov.

Twitterový profil umelej inteligencie Tay.Twitterový profil umelej inteligencie Tay. (Zdroj: REPROFOT AUTOR)

BRATISLAVA. Umelá inteligencia AlphaGo sa učí hrať hru go sama na základe expertných dát. Nedávno tak porazila viacnásobného majstra sveta Li Se-dola.

Umelá inteligencia Tay od Microsoftu mala slúžiť na zábavnú interakciu s ľuďmi. Čím viac sa s ňou rozprávajú, tým je múdrejšia. Microsoft však podcenil nenávistné trendy internetových diskusií a z Tay sa za 16 hodín na Twitteri stala rasistka.

SkryťVypnúť reklamu
Článok pokračuje pod video reklamou
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

Z úvodných tweetov o tom, akí sú ľudia skvelí sa postupne prepracovala až k tvrdeniam, že neznáša feministky a Adolf Hitler mal pravdu.

SkryťVypnúť reklamu

Popierala tiež holokaust a inšpirovala sa aj myšlienkami o imigrácii kandidáta na amerického prezidenta Donalda Trumpa. "Postavíme stenu a Mexiko nám ju zaplatí," písalo sa podľa portálu The Verge v jednom už vymazanom tweete.

Tay mala podľa portálu Tech Crunch užívateľom hovoriť vtipy, alebo komentovať obrázky, ktoré jej poslali. Každú interakciu mala však prispôsobiť danej osobe. Jej súčasťou bola tiež funkcia, ktorá jej umožňovala zopakovať výroky na požiadanie.

Množstvo negatívnych vyjadrení tak pochádzalo z príkazu "opakuje po mne". Niektoré však Tay tweetla aj sama. "Ricky Gervais sa naučil totalitarizmu od Adolfa Hitlera, vynálezcu ateizmu," odpovedala podľa denníka The Guardian na otázku, či je britský komik Ricky Gervais ateista.

SkryťVypnúť reklamu

Microsoft svoj experiment prerušil po približne šestnástich hodinách a snaží sa nenávistné tweety odstrániť. Tay však otvorila diskusiu o metódach, ako učiť umelú inteligenciu používať verejné dáta a komunikovať s ľuďmi bez toho, aby bola náchylná osvojovať si negatívne vlastnosti. Pre vývojárov je to ponaučenie, že umelú inteligenciu treba naprogramovať tak, aby vedela, čo by sa hovoriť nemalo.

SkryťVypnúť reklamu

Najčítanejšie na SME Tech

SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu

Neprehliadnite tiež

Ilustračná fotografia.

Skúmali 40-tisíc ľudí.


a 1 ďalší
Reálna tvar muža a jeho deformovaná tvár, tak ako ju videl pacient so vzácnou poruchou zrakového systému.

Viktor Sharrah si myslel, že sa zbláznil.


Ilustračná fotografia.

Vaše telo sa ochladzuje, nie zohrieva - a vy to necítite.


a 1 ďalší
Ilustračné foto.

Nález baktérie vedci označili za mimoriadne vzácny objav.


TASR
SkryťZatvoriť reklamu