SME

Politici môžu umelú inteligenciu zneužívať. Je to šedá zóna, varuje odborník na deepfakes

Politici na klamstvá nepotrebujú deepfakes, vraví Sam Gregory.

Sam Gregory s deepfake fotografiou pápeža FrantiškaSam Gregory s deepfake fotografiou pápeža Františka (Zdroj: Ryan Lash, CC BY-NC-ND 4.0)

Je oceňovaným obhajcom ľudských práv, technológom aj odborníkom na obsah vygenerovaný umelou inteligenciou. V súvislosti s deepfake videami, ktoré nezobrazujú realitu, no vydávajú sa za skutočné, založil aj iniciatívu Pripraviť sa, nie panikáriť.

SkryťVypnúť reklamu
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

Americký technológ SAM GREGORY tvrdí, že nemôžeme očakávať od obyčajných ľudí, aby falošné videá dokázali rozlíšiť.

„Keď počúvate zvukový záznam a chcete si myslieť, že je falošný, pravdepodobne budete veriť, že je falošný. A keď počúvate nahrávku a chcete veriť, že je pravá, pravdepodobne uveríte, že je pravá,“ vraví Gregory. Rozprávali sme sa s ním na WEXFO - Svetovom fóre slobody prejavu v nórskom Lillehammeri.

SkryťVypnúť reklamu

Ako môžu jednotlivci rozpoznať, či je zdieľaný obsah deepfake, alebo bol vytvorený umelou inteligenciou (AI)?

Je nespravodlivé očakávať, že jednotlivci vždy rozpoznajú falošný obsah.

Niekedy sú viditeľné vizuálne alebo zvukové stopy ako skreslenie vlasov či neprirodzený zvuk, ale tieto znaky sú dočasné. Príliš často obviňujeme jednotlivcov, že si ich nevšimnú, hoci v skutočnosti sa väčšina z nás nepozerá na obsah na sociálnych sieťach takýmto kritickým okom.

Dôležitejšie je uplatňovať kritickú mediálnu gramotnosť. Ak narazíte na obsah – obrázok, video či zvukový záznam, ktorý vás emocionálne podnecuje, alebo sa vás snaží presvedčiť, použite rámec SIFT: Stop (zastavte sa), Investigate (preskúmajte zdroj), Find (nájdite ďalšie zdroje) a Trace (vysledujte pôvodný zdroj).

SkryťVypnúť reklamu

Tento prístup funguje rovnako dobre pre plytké falzifikáty, keď niekto len prevzal existujúci obrázok alebo video a nesprávne ho dal do kontextu, aj pre deepfake, bez potreby forenznej analýzy.

Pred parlamentnými voľbami v roku 2023 sa počas volebného moratória šírila deepfake nahrávka lídra politickej strany Progresívne Slovensko – Michala Šimečku. Čo treba robiť v takomto prípade?

Toto naozaj ukazuje, ako závažne môžeme byť zraniteľní. Videli sme to aj v iných voľbách na celom svete.

Slovenský príklad je pravdepodobne celosvetovo najdramatickejší. V krajinách, kde je volebné moratórium, je zverejnenie kompromitujúceho obsahu počas moratória veľmi citlivá vec, pretože médiá to nemôžu komentovať.

Druhý problém, ktorý sa vyskytol aj v slovenskom prípade, je to, že aj keď sa médiá snažili zapojiť, rýchlo vyhodnotiť, či ide skutočne o deepfake, je takisto náročné. Prístup k detekčným technológiám nie je široko dostupný pre mnohé médiá. Aj keď sa nejaké médium snaží zistiť, či je niečo sfalšované, je dosť pravdepodobné, že to nedokáže spoľahlivo urobiť povedzme za tri až šesť hodín.

SkryťVypnúť reklamu

Máte právny problém s volebným moratóriom, máte problém s detekciou, či ide v skutočnosti o deepfake, a potom máte tretí problém, ktorý spočíva v tom, že jednotlivci chcú hádať, či ide o skutočný obsah, alebo o deepfake – a úprimne – zrejme budú hádať zle.

Jednotlivci budú prichádzať k záverom, ktoré sú zvyčajne v súlade s ich politickým názorom. Keď počúvate zvukový záznam a chcete si myslieť, že je falošný, pravdepodobne budete veriť, že je falošný. A keď počúvate nahrávku a chcete veriť, že je pravá, pravdepodobne uveríte, že je pravá.

Súvisiaci článok Vitajte vo svete deepfake. Neverte všetkému, čo vidíte a počujete Čítajte 

Aká je teda úloha médií v prípade falošných nahrávok a vo vzťahu k umelej inteligencii?

Myslím si, že médiá zohrávajú úlohu na úrovni obsahu a úlohu na úrovni širšej diskusie. Ak ide o falošnú nahrávku, ako napríklad vo voľbách (na Slovensku), je dôležité, aby médiá mali zručnosti, aby to vedeli odhaliť a potom vysvetliť svojmu publiku. A to je náročné, pretože často ide o technickú, vedeckú komunikáciu, ktorú musíte pre svoje publikum urobiť.

SkryťVypnúť reklamu

Druhý problém sa týka skôr naratívu. Dávať povrchné rady, ako rozpoznať deepfake, môže byť z dlhodobého hľadiska kontraproduktívne. Nedokonalosti totiž vďaka umelej inteligencii zmiznú, no ľudia si tie rady budú stále pamätať.

Posledné roky sa tiež veľa hovorí o tom, že deepfakes ničia našu dôveru v realitu. Ľudia však toto tvrdenie používajú na popieranie reality. Keď o tom médiá informujú len abstraktne, môže to byť škodlivé. Musíme byť čo najkonkrétnejší.

Je umelá inteligencia príležitosťou alebo hrozbou pre médiá?

Mnohé podnety, ktoré v rámci našej práce dostávame, sú skutočné zábery, pri ktorých niekto tvrdí, že sú vytvorené umelou inteligenciou.

Je veľmi ľahké povedať o niečom kompromitujúcom, že to bolo vytvorené pomocou umelej inteligencie. Všetok tlak sa tak presúva na ľudí, aby dokázali, že je to skutočné. A dokázať, že je to skutočné, je naozaj dosť ťažké. Dokázať pravdivosť je takmer ťažšie ako dokázať falošnosť, pretože vždy sa dá nájsť nejaký dôvod, ktorý by mohol naznačovať, že by niečo skutočné mohlo byť falošné.

SkryťVypnúť reklamu

Dokázať pravdivosť je takmer ťažšie ako dokázať falošnosť, pretože vždy sa dá nájsť nejaký dôvod, ktorý by mohol naznačovať, že by niečo skutočné mohlo byť falošné.

Sam Gregory

Keď hovoríme o umelej inteligencii, hovoríme tiež o schopnosti používať dáta, robiť dátovú žurnalistiku, alebo hovoríme o spôsobe, akým by sme mohli použiť generatívnu AI na lepšiu a jednoduchšiu vizualizáciu príbehov, na generovanie osobnejších odpovedí na spravodajské otázky. To všetko sú pozitívne spôsoby využitia rôznych spôsobov umelej inteligencie.

Ja sa skôr zameriavam na negatívne dôsledky najmä generatívnej AI pre menšie médiá. Ak sa pozriete na súčasnú situáciu, spravodajské organizácie čelia problémom s dôverou svojich divákov a čitateľov. Zároveň sú veľmi zle vybavené na to, aby dokázali odhaliť umelo vygenerovaný obsah a vedeli ho vysvetliť. A ak sa im to nepodarí, ešte viac to zvyšuje nedôveru ich publika.

Myslíte si, že nám umelá inteligencia môže pomôcť pri opätovnom získavaní dôvery, alebo skôr prispieva k rozdeľovaniu spoločnosti?

SkryťVypnúť reklamu

Môže nám pomôcť, no aj škodiť. Jej použitie na klamlivé účely prehlbuje existujúce problémy. Sme polarizovaní, venujeme pozornosť konšpiračným teóriám a chceme veriť informáciám, ktoré podporujú naše presvedčenie.

S generatívnou umelou inteligenciou prišla aj možnosť oveľa hodnovernejšie vytvárať obrázky a zvukové a obrazové záznamy ľudí, ktorí hovoria veci, ktoré by mohli rezonovať v spoločnosti a byť uveriteľné. Rovnako to však vytvára pochybnosti o realite.

Keď viete, že čokoľvek sa dá uveriteľne sfalšovať, môžete rovnako hodnoverne veriť niečomu, čo je sfalšované, a rovnako hodnoverne neveriť niečomu, čo je skutočné. To všetko môže prispieť k polarizácii spoločnosti.

AI nám však môže pomôcť aj s konfrontáciou toho, ako sa ľudia dajú oklamať dezinformáciami. Určitej skupine ľudí môže pomôcť napríklad overiť fakty a získať informácie. Ide však len o okrajové použitie.

SkryťVypnúť reklamu

Problém je, že realita AI uľahčuje, aby ľudia verili veciam, ktorým chcú veriť, a spochybňuje veci, ktoré sú skutočné.

Je umelá inteligencia hrozbou pre demokraciu?

Zrejme áno. Demokracia existuje, pretože máme nejaký spoločný základ faktov, o ktorých môžeme diskutovať. No ak dokážeme spochybniť realitu na základe toho, že už nemôžeme ničomu veriť, máme tu zásadný problém.

Ak sa nevieme zhodnúť ani na tom, či sa niektoré udalosti naozaj stali, nemôžeme o nich viesť debatu.

Súvisiaci článok Slovensko bolo aj laboratóriom pre deepfake. V rebríčku slobody tlače kleslo o 12 priečok Čítajte 

Kde vidíte budúcnosť? Aká je správna reakcia na AI?

Myslím si, že ide o väčšie spoločenské problémy, ktoré sa týkajú dôvery ľudí vo vládu a spravodajské médiá a ktoré nemajú nič spoločné s umelou inteligenciou.

O tých, na ktoré má vplyv umelá inteligencia, musíme premýšľať inak. Mali by sme sa zamyslieť, nakoľko necháme chod AI v rukách firiem, ktorých agendu určujú komerčné záujmy. Ako občania a demokratické krajiny by sme mali požadovať jasnú transparentnosť v tom, ako sa AI používa v komunikácii, aby sme sa vedeli rozhodnúť, čo je prijateľné a čo nie.

SkryťVypnúť reklamu

Drvivá väčšina umelej inteligencie nebude mať škodlivý charakter. Bude to neškodné, zábavné, budú to obyčajné veci, ktoré robíme, pretože takto medzi sebou komunikujeme. Potrebujeme však transparentnosť, aby sme vedeli, aký obsah konzumujeme.

Musíme si určiť, čo považujeme za neprijateľné a sankcionovať to. Verím, že demokratické krajiny vedia, že je neprijateľné cieliť na ženy vygenerovanými sexuálnymi obrázkami bez ich súhlasu. Mali by sme sa uistiť, že vytvárať a šíriť takýto obsah nie je v spoločnosti právne prípustné.

Spoločnosti musia byť zodpovedné za to, čo vytvoria. Nie sú to len samotné platformy, mali by sme o nich rozmýšľať ako o konglomerátoch. Napríklad Meta vytvára nástroje umelej inteligencie, AI modely a distribuuje obsah založený na AI. Musíme sa preto pozerať na celý AI ekosystém a uistiť sa, že majú právnu zodpovednosť za to, aký obsah distribuujú.

SkryťVypnúť reklamu

Je to súčasť širšej diskusie – ako si poradiť s polarizáciou a do istej miery, ako si poradiť so sociálnymi sieťami? Čo je na nich prijateľné?

Možno si nakoniec povieme, že chceme prísnejšie moderovať obsah alebo chceme prísnejšie obmedziť nenávistné prejavy na sociálnych sieťach. V takom prípade to nie je o umelej inteligencii, ale o tom, čomu veríme, pokiaľ ide o slobodu prejavu a vyjadrovania sa.

V takom prípade to nie je o umelej inteligencii, ale o tom, čomu veríme, pokiaľ ide o slobodu prejavu a vyjadrovania sa.

Sam Gregory

Pomôže nám európska regulácia AI pri ochrane demokracie?

Smernica EÚ o umelej inteligencii stanovuje celkom silné základy, keďže sa zameriava na myšlienku transparentnosti a zodpovednosti. Smernica sa venuje aj prípadom, ktoré nie sú generatívnou AI, ako je napríklad biometrická identifikácia a rozpoznávanie tváre.

V prípade generatívnej AI musíme mať jasno v tom, kedy ide o deepfake. Spojené štáty nedokázali na tento vývoj reagovať dostatočne, preto musia veľké subjekty, ako je EÚ, vytvárať jasné pravidlá.

SkryťVypnúť reklamu

Prvá zmena, ktorú sme si po prijatí smernice EÚ o AI všimli, je možnosť označiť príspevky na instagrame ako vytvorené AI. Nikto však nehovorí, za akých okolností ich treba označiť, či to spraviť aj v prípade, ak sme s AI vytvorili napríklad iba pozadie. Každý môže označeniu „vytvorené AI“ rozumieť inak.

Označenie, že niečo bolo vytvorené pomocou AI, môže znamenať všetko. Od toho, že som urobil niečo úplne neškodné, čo robí takmer každý z nás zdieľaním obsahu na instagrame, až po to, že som niekomu falošne vložil do úst niečo, čo nikdy nepovedal a čo aj podnecuje nenávisť. Tá škála je veľmi široká.

Oveľa užitočnejšie je poznať trajektóriu toho, ako bola pri vzniku konkrétneho média umelá inteligencia použitá. Ak niečomu dáte značku, že to vytvorila AI a je jedno, či je to deepfake, alebo filter na pozadie, tak to z dlhodobého hľadiska nebude fungovať a všetci sa to naučíme ignorovať alebo môžeme rozhadzovať rukami a hovoriť, že netušíme, čomu máme veriť.

SkryťVypnúť reklamu

Niektorým deepfake nahrávkam dávajú dôveryhodnosť politici, ktorí majú svoje publikum, ktoré ich sleduje a absorbuje informácie, ktoré šíria. Politici dôveru občanov môžu využívať vo svoj prospech. Kto bude za to zodpovedný?

Jedným z najväčších problémov v súvislosti so šírením nepravdivých a klamlivých informácií sú ľudia s mocným megafónom, ktorí hovoria do očí bijúce lži.

Na to, aby politici klamali, nie sú potrebné deepfakes. Žijem v USA a máme tam politikov, ktorí otvorene klamú na verejnosti a ich klamstvá zosilňujú ešte aj mainstreamové médiá.

Je to problém toho, čo očakávame od našich politických lídrov. Je to podobné, ako naše očakávania od umelej inteligencie. Žiaľ, mnohí politickí lídri sa tiež nezaväzujú k tomu, ako budú sami používať AI.

SkryťVypnúť reklamu

V Spojenom kráľovstve sme vypracovali návrh, ako by v nadchádzajúcich kampaniach politici mali používať AI. Sú to v podstate základné etické zásady ako napríklad: nepoužívajte AI na klamlivé obsahy, nezosilňujte ich dosah a podobne. Je sklamaním, že tieto základné etické záväzky neprijíma dosť politikov.

Potenciálne existujú spôsoby, ako viete politikov trestne stíhať, ak robia niečo nezákonné, napríklad podnecujú nenávisť alebo niekoho hanobia. Väčšina z toho je však sivá zóna.

Súvisiaci článok Umelá inteligencia ničí životy tínedžerov. Internetom sa šíri falošná pornografia Čítajte 

Ľudia sú zaujatí. Majú predsudky, ktoré môžu vplývať na naše rozhodnutia. Vie nám AI pomôcť pri rozhodovaní sa alebo skôr naše predsudky zvýrazňuje?

Závisí to od toho, čo považujeme za umelú inteligenciu. Generatívna umelá inteligencia ako nástroj na generovanie informácií v reakcii na otázku, či pri generovaní obrázkov má problémy so zaujatosťou. Vstupné dáta, na ktorých sa AI učila, môžu totiž byť rasistické, sexistické, reprezentatívne pre niektoré kultúry, ale nie pre iné.

SkryťVypnúť reklamu

Generatívna umelá inteligencia má potenciál pristupovať k informáciám používateľsky prívetivejšie pre mnohých občanov. Informácie sú prispôsobené potrebám používateľa, keď reagujú na vašu otázku.

Hovorím to však s veľkou výhradou, pretože v súčasnosti je generatívna AI tiež predmetom istých halucinácií. Môžete tak získať spoľahlivé informácie, no tiež nemusíte.

Problém zaujatosti AI je hlboko zakorenený. Takisto to však môže byť spôsob, ako zaistiť používateľom oveľa demokratickejší prístup k informáciám.

Keď hovoríme o rozhodovaní, v ľudskom úsudku sú nedokonalosti. Môže tieto nedostatky AI kompenzovať?

Váham, či sa mám spoliehať na AI pri kompenzácii nedokonalostí. Existujú spôsoby, ako môžeme použiť analýzu údajov, veľké dáta a strojové učenie na zisk informácií, ktoré nám môžu pomôcť pri rozhodovaní. V mnohých obchodných kontextoch to už robíme.

SkryťVypnúť reklamu

Mali by sme uvažovať o umelej inteligencii ako o užitočnom asistentovi popri našej práci. Ale myšlienka, že AI nám nejakým spôsobom poskytne nástroj na rozhodovanie sa, ktorý nie je zaujatý a ktorý nepotrebuje ľudský dohľad, mi pripadá veľmi dystopická a nereálna.

Systémy umelej inteligencie môžu byť neobjektívne a nepresné. Nemali by sme ich preto nechať existovať mimo ľudského dohľadu.

SkryťVypnúť reklamu

Najčítanejšie na SME Tech

SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu

Neprehliadnite tiež

Ilustračné foto.

V Číne havaroval model SU7 od Xiaomi.


4
Ilustračné foto.

Zoznam klávesových skratiek pre Word vám uľahčí prácu s textom aj písanie znakov a symbolov.


29
Norbert Žilka.

Stále sme si nespravili domácu úlohu a nepoznáme počet ľudí s týmto ochorením.


Spectrum

Spectrum bol prvou orbitálnou raketou vypustenou z kontinentálnej Európy.


TASR
SkryťZatvoriť reklamu