SME

Detská pornografia v priebehu niekoľkých sekúnd? Umelá inteligencia je novým nástrojom pedofilov

Na fórach si radia, ako nástroj používať.

(Zdroj: Pixabay)

Text vyšiel pôvodne na webe denníka Washington Post.

Revolučný pokrok umelej inteligencie vyvolal explóziu znepokojivo realistických obrázkov zobrazujúcich sexuálne zneužívanie detí. Vyšetrovatelia v oblasti bezpečnosti detí neskrývajú svoje obavy. Obrázky totiž môžu oslabiť úsilie o nájdenie obetí a boj proti skutočnému zneužívaniu.

SkryťVypnúť reklamu
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

Nástroje generatívnej umelej inteligencie spustili na pedofilných fórach to, čo jeden analytik nazval „predátorskými pretekmi v zbrojení“, pretože dokážu v priebehu niekoľkých sekúnd vytvoriť realistické obrázky detí v sexuálnych situáciách – všeobecne známe ako detská pornografia.

SkryťVypnúť reklamu

Na fórach na dark webe, vrstve internetu viditeľnej len pomocou špeciálnych prehliadačov, sa našli tisíce obrázkov detského sexu, ktoré vytvorila umelá inteligencia, pričom niektorí účastníci poskytujú podrobné návody, ako môžu ostatní pedofili vytvoriť svoje vlastné výtvory.

„Obrázky detí vrátane obsahu známych obetí sú tak opätovne využívané,“ povedala Rebecca Portnoff, riaditeľka oddelenia dátovej vedy v neziskovej skupine Thorn, ktorá sa zaoberá bezpečnosťou detí a ktorá od jesene minulého roka zaznamenala mesačný nárast rozšírenosti týchto obrázkov.

Neuveriteľná rýchlosť

„Identifikácia obetí je už teraz problém ihly v kope sena, keď sa orgány činné v trestnom konaní snažia nájsť dieťa, ktorému hrozí nebezpečenstvo,“ povedala. „Jednoduchosť používania týchto nástrojov je významným posunom, rovnako ako to, ako veľmi realistické tieto obrázky sú.“

SkryťVypnúť reklamu

Záplava obrázkov by mohla zmiasť centrálny sledovací systém vybudovaný na blokovanie takéhoto materiálu na internete, pretože je navrhnutý len na zachytávanie známych obrázkov zneužívania, nie na odhaľovanie novo vytvorených. Hrozí tiež, že zavalí pracovníkov orgánov činných v trestnom konaní, ktorí pracujú na identifikácii detí, ktoré sa stali obeťami, a budú nútení stráviť čas zisťovaním, či sú obrázky skutočné, alebo falošné.

Obrázky tiež podnietili diskusiu o tom, či vôbec porušujú federálne zákony na ochranu detí, pretože často zobrazujú neexistujúce deti. Predstavitelia ministerstva spravodlivosti, ktorí bojujú proti zneužívaniu detí, tvrdia, že takéto obrázky sú nezákonné, aj keď je zobrazené dieťa vytvorené umelou inteligenciou, ale nevedeli uviesť žiadny prípad, v ktorom by bol podozrivý obvinený za vytvorenie takéhoto obrázku.

SkryťVypnúť reklamu

Nové nástroje umelej inteligencie, známe ako difúzne modely, umožňujú komukoľvek vytvoriť presvedčivý obrázok iba zadaním krátkeho opisu toho, čo chce vidieť. Modely, ako napríklad DALL-E, Midjourney a Stable Diffusion, boli kŕmené miliardami obrázkov prevzatých z internetu, z ktorých mnohé zobrazovali skutočné deti a pochádzali z fotografických stránok a osobných blogov. Tieto vizuálne vzory potom napodobňovali, aby vytvorili svoje vlastné obrázky.

Nástroje chvália pre ich vizuálnu vynaliezavosť, ich diela už vyhrali súťaže výtvarného umenia, boli použité na ilustrovanie detských kníh a vytváranie falošných fotografií v spravodajskom štýle, ako aj na vytváranie syntetickej pornografie neexistujúcich postáv, ktoré vyzerajú ako dospelí.

Zároveň sa však zvýšila rýchlosť a rozsah, akým môžu pedofili vytvárať nové explicitné obrázky, pretože tieto nástroje si vyžadujú menšiu technickú zložitosť ako predchádzajúce metódy - napríklad ako je prekrývanie detských tvárí na telá dospelých pomocou „deepfake“ - a dokážu rýchlo vytvoriť mnoho obrázkov na základe jediného príkazu.

SkryťVypnúť reklamu

Z pedofilných fór nie je vždy jasné, ako boli obrázky generované umelou inteligenciou vytvorené. Odborníci na bezpečnosť detí však uviedli, že mnohé z nich sa zrejme spoliehali na nástroje s otvoreným zdrojovým kódom, ako napríklad Stable Diffusion, ktoré možno spustiť neobmedzeným a nepolitikovaným spôsobom.

Related article Po internete sa šíria falošné fotky Trumpovho zatknutia. Sociálne siete by mali zakročiť Čítajte 

Bremeno technologických spoločností

Spoločnosť Stability AI, ktorá prevádzkuje nástroj Stable Diffusion, vo svojom vyhlásení uviedla, že zakazuje vytváranie obrázkov sexuálneho zneužívania detí, pomáha orgánom činným v trestnom konaní pri vyšetrovaní „nezákonného alebo zlomyseľného“ používania a odstránila explicitný materiál zo svojich tréningových údajov, čím znížila „schopnosť zlých aktérov vytvárať obscénny obsah“.

Každý si však môže nástroj stiahnuť do svojho počítača a spustiť ho, ako chce, čím sa do veľkej miery vyhne pravidlám a dohľadu spoločnosti. Licencia nástroja s otvoreným zdrojovým kódom žiada používateľov, aby ho nepoužívali „na zneužívanie alebo poškodzovanie maloletých akýmkoľvek spôsobom“, ale jeho základné bezpečnostné funkcie vrátane filtra explicitných obrázkov sa dajú ľahko obísť pomocou niekoľkých riadkov kódu, ktoré môže používateľ pridať do programu.

SkryťVypnúť reklamu

Podľa preskúmaných konverzácií v četovacej službe Discord, ktorý uverejnil denník Washington Post, testeri programu Stable Diffusion už niekoľko mesiacov diskutovali o riziku, že by sa umelá inteligencia mohla použiť na napodobňovanie tvárí a tiel detí. Jeden z komentátorov uviedol, že videl, ako sa niekto pokúsil pomocou nástroja vygenerovať falošné fotografie detskej herečky v plavkách, a nazval to „niečím škaredým, čo čaká na svoju príležitosť“.

Spoločnosť však obhajovala svoj prístup založený na otvorenom zdroji ako dôležitý pre tvorivú slobodu používateľov. Šéf spoločnosti Stability AI Emad Mostaque minulý rok pre portál Verge povedal, že „v konečnom dôsledku je to zodpovednosť ľudí, či sú etickí, morálni a legálni v tom, ako s touto technológiou pracujú“, a dodal, že „zlé veci, ktoré ľudia vytvoria … budú tvoriť veľmi, veľmi malé percento celkového používania“.

SkryťVypnúť reklamu

Hlavní konkurenti spoločnosti Stable Diffusion, Dall-E a Midjourney, zakazujú sexuálny obsah a neposkytujú otvorený zdrojový kód, čo znamená, že ich používanie je obmedzené na kanály prevádzkované spoločnosťou a všetky obrázky sú zaznamenávané a sledované.

Spoločnosť OpenAI, výskumné laboratórium zo San Francisca, ktorá stojí za spoločnosťami Dall-E a ChatGPT, využíva na presadzovanie svojich pravidiel vrátane zákazu materiálov so sexuálnym zneužívaním detí ľudských pozorovateľov a odstránila explicitný obsah z tréningových údajov svojho generátora obrázkov, aby minimalizovala „vystavenie týmto pojmom“, uviedol hovorca.

„Súkromné spoločnosti sa nechcú podieľať na vytváraní najhoršieho typu obsahu na internete,“ povedala Kate Klonick, docentka práva na Univerzite svätého Johna.

SkryťVypnúť reklamu

„Najviac ma však desí otvorené uvoľňovanie týchto nástrojov, pri ktorom sa môžu objaviť jednotlivci alebo nespoľahlivé a nedôveryhodné organizácie, ktoré ich použijú a jednoducho zmiznú. Neexistuje žiadny jednoduchý, koordinovaný spôsob, ako takto decentralizovaných zlých aktérov zlikvidovať.“

Malý zlomok hlásení

Podľa analytikov zaoberajúcich sa bezpečnosťou detí používatelia na pedofilných internetových fórach z darkwebu otvorene diskutovali o stratégiách, ako vytvárať explicitné fotografie a obchádzať filtre proti pornografii vrátane používania jazykov iných ako angličtina, ktoré sú podľa nich menej náchylné na potlačenie alebo odhalenie.

Na jednom fóre s tritisíc členmi približne 80 percent respondentov nedávneho interného prieskumu uviedlo, že použili alebo majú v úmysle použiť nástroje umelej inteligencie na vytvorenie obrázkov sexuálneho zneužívania detí, povedal Avi Jager, vedúci oddelenia bezpečnosti detí a zneužívania ľudí v spoločnosti ActiveFence, ktorá spolupracuje so sociálnymi médiami a streamovacími stránkami na zachytávaní škodlivého obsahu.

SkryťVypnúť reklamu

Členovia fóra diskutovali o spôsoboch vytvárania selfies generovaných umelou inteligenciou a budovaní falošnej postavy školopovinného dieťaťa v nádeji, že si získajú dôveru iných detí, povedal Jager.

Portnoffová uviedla, že jej skupina zaznamenala aj prípady, keď sa skutočné fotografie zneužívaných detí použili na vyškolenie nástroja AI, aby vytvoril nové obrázky zobrazujúce tieto deti v sexuálnych polohách.

Yiota Souras, hlavná právnička Národného centra pre nezvestné a zneužívané deti, neziskovej organizácie prevádzkujúcej databázu, ktorú spoločnosti používajú na označovanie a blokovanie sexuálneho materiálu s deťmi, uviedla, že jej skupina zaznamenala v posledných mesiacoch prudký nárast hlásení o obrázkoch vytvorených umelou inteligenciou, ako aj hlásení o ľuďoch, ktorí nahrávajú obrázky sexuálneho zneužívania detí do nástrojov umelej inteligencie v nádeji, že vytvoria ďalšie.

SkryťVypnúť reklamu

Hoci ide o malý zlomok z viac ako 32 miliónov hlásení, ktoré skupina dostala v minulom roku, hrozí, že čoraz častejšie sa vyskytujúce obrázky a ich realistickosť vyčerpajú čas a energiu vyšetrovateľov, ktorí pracujú na identifikácii detí, ktoré sa stali obeťami, a nemajú možnosť zaoberať sa každým hlásením, povedala.

FBI tento mesiac vo svojom upozornení uviedla, že zaznamenala nárast počtu hlásení týkajúcich sa detí, ktorých fotografie boli upravené do „obrázkov so sexuálnou tematikou, ktoré vyzerajú ako skutočné“.

„Čo je pre orgány činné v trestnom konaní prioritou?“ spýtala sa Sourasová. „Čo vyšetrujú? Kam presne sa dostanú v právnom systéme?“

História právnych ťažkostí

Niektorí právni analytici tvrdili, že tento materiál patrí do právnej sivej zóny, pretože obrázky vytvorené plne umelou inteligenciou nezobrazujú skutočné dieťa, ktorému sa ubližuje. V roku 2002 Najvyšší súd zrušil dve ustanovenia kongresového zákazu „virtuálnej detskej pornografie“ z roku 1996 a rozhodol, že jeho znenie je dostatočne široké na to, aby potenciálne kriminalizovalo niektoré literárne zobrazenia sexuality dospievajúcich.

SkryťVypnúť reklamu

Obhajcovia zákazu v tom čase argumentovali, že rozhodnutie sťaží prácu prokurátorom v prípadoch týkajúcich sa sexuálneho zneužívania detí, pretože obžalovaní by mohli tvrdiť, že obrázky nezobrazujú skutočné deti.

Predseda Najvyššieho súdu William H. Rehnquist vo svojom nesúhlasnom stanovisku napísal: „Kongres má naliehavý záujem o zabezpečenie možnosti presadzovať zákazy skutočnej detskej pornografie a my by sme mali prihliadnuť na jeho zistenia, že rýchlo sa rozvíjajúca technológia čoskoro takmer znemožní takéto presadzovanie.“

Daniel Lyons, profesor práva na Boston College, uviedol, že toto rozhodnutie si pravdepodobne zaslúži prehodnotenie vzhľadom na to, ako sa táto technológia za posledné dve desaťročia vyvinula.

„V tom čase bolo technicky ťažké vyrobiť virtuálny materiál [o sexuálnom zneužívaní detí] takým spôsobom, ktorý by nahradil skutočný,“ povedal. „Táto priepasť medzi realitou a materiálmi generovanými umelou inteligenciou sa zmenšila a z myšlienkového experimentu sa stal potenciálne veľký problém reálneho života.“

SkryťVypnúť reklamu

Dvaja úradníci zo sekcie ministerstva spravodlivosti pre zneužívanie detí a obscénnosť uviedli, že obrázky sú nezákonné podľa zákona, ktorý zakazuje akýkoľvek počítačom vytvorený obrázok, ktorý je sexuálne explicitný a zobrazuje niekoho, kto je „prakticky nerozoznateľný“ od skutočného dieťaťa.

Odvolávajú sa aj na ďalší federálny zákon prijatý v roku 2003, ktorý zakazuje akýkoľvek počítačom vytvorený obrázok zobrazujúci dieťa, ktoré sa zúčastňuje na sexuálne explicitnom správaní, ak je obscénny a nemá vážnu umeleckú hodnotu. V zákone sa uvádza, že „nie je povinným prvkom žiadneho trestného činu … aby zobrazená maloletá osoba skutočne existovala“.

„Vyobrazenie, ktoré je vytvorené tak, aby zobrazovalo záber zložený z milióna maloletých, a ktorý vyzerá ako skutočné dieťa počas sexu s dospelým alebo s iným dieťaťom - neváhali by sme použiť nástroje, ktoré máme k dispozícii, na stíhanie takýchto zobrazení,“ povedal Steve Grocki, šéf sekcie.

SkryťVypnúť reklamu

Škodlivá skutočnosť

Samostatne niektoré skupiny pracujú na technických spôsoboch, ako tomuto problému čeliť, uviedla Margaret Mitchell, výskumníčka v oblasti umelej inteligencie, ktorá predtým viedla tím spoločnosti Google pre etickú umelú inteligenciu.

Jedným z riešení by bolo vycvičiť model umelej inteligencie na vytvorenie príkladov falošných obrázkov zneužívania detí, aby online detekčné systémy vedeli, čo majú odstrániť, povedala. Dodala však, že tento návrh by predstavoval vlastnú škodu, pretože tento materiál môže mať „obrovskú psychickú ujmu, pretože je to materiál, ktorý nemôžete zo svojej pamäti vymazať".

Ďalší výskumníci v oblasti umelej inteligencie v súčasnosti pracujú na identifikačných systémoch, ktoré by mohli do obrázkov vtlačiť kód odkazujúci na ich tvorcov v nádeji, že zabránia zneužívaniu. Výskumníci z Marylandskej univerzity minulý mesiac uverejnili novú techniku „neviditeľných“ vodoznakov, ktoré by mohli pomôcť identifikovať autora obrázku a boli by náročné na odstránenie.

SkryťVypnúť reklamu

Takéto nápady by si pravdepodobne vyžadovali účasť celého odvetvia, aby fungovali, a aj tak by nezachytili každé porušenie, povedala Mitchellová. „Staviame lietadlo až počas letu,“ povedala.

Aj keď tieto obrázky nezobrazujú skutočné deti, Sourasová povedala, že predstavujú „strašnú spoločenskú škodu“. Vytvorené rýchlo a v obrovskom množstve by sa mohli použiť na normalizáciu sexualizácie detí alebo na to, aby sa odpudivé správanie považovalo za bežné, rovnako ako predátori používali skutočné obrázky na to, aby deti navádzali na zneužívanie.

„Neberiete dieťaťu iba jedno ucho. Systém sa pozrel na desať miliónov detských uší a teraz vie, ako ho vytvoriť,“ povedala Sourasová. „Skutočnosť, že niekto dokáže vytvoriť sto obrázkov za jedno popoludnie a použiť ich na to, aby dieťa nalákal na takéto správanie, je neuveriteľne škodlivá.“

SkryťVypnúť reklamu

Autor: Drew Harwell

SkryťVypnúť reklamu

Najčítanejšie na SME Tech

SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťZatvoriť reklamu