SME

Umelá inteligencia ničí životy tínedžerov. Internetom sa šíri falošná pornografia

Deepfake pornografie je takmer trikrát viac ako v roku 2018.

Ilustračná fotografia.Ilustračná fotografia. (Zdroj: Adobe Stock)

Text vyšiel pôvodne v denníku Washington Post.

Keď sa Gabi Belle dozvedela, že na internete koluje jej nahá fotografia, zamrazilo ju. Influencerka z YouTube nikdy nepózovala v poli bez oblečenia, a tak hneď vedela, že musí ísť o podvrh.

Keď však 26-ročná Bellová poslala správu kolegovi a požiadala ho o pomoc s odstránením intímnej snímky, povedal jej, že na internete je takmer sto falošných fotografií s jej tvárou - väčšinou na webových stránkach známych tým, že obsahujú porno vytvorené umelou inteligenciou.

SkryťVypnúť reklamu

Fotky boli stiahnuté ešte v júli, ale odvtedy sa už objavili ďalšie obrázky, ktoré ju vyobrazujú v rôznych sexuálnych situáciách, hovorí Bellová.

SkryťVypnúť reklamu
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

"Cítila som sa odporne a zneuctene," povedala Bellová v rozhovore. "Intímne partie [môjho tela] nemá vidieť celý svet, pretože som s tým nesúhlasila."

S rozšírením lacných a ľahko použiteľných nástrojov umelej inteligencie nastal bezprecedentný rozmach falošných pornografických fotografií a videí. Umelá inteligencia dokáže "vyzliecť" ľudí na fotografiách - analyzovať, ako by vyzerali ich nahé telá alebo bez problémov vymeniť tvár v pornografickom videu.

Podľa analytičky Genevieve Ohovej sa na desiatich hlavných webových stránkach, na ktorých sa nachádzajú pornografické fotografie vytvorené umelou inteligenciou, od roku 2018 zvýšil počet falošných aktov o viac ako 290 percent.

SkryťVypnúť reklamu

Na týchto stránkach sa popri obyčajných tínedžerkách objavujú aj celebrity a politické osobnosti, ako napríklad newyorská poslankyňa Alexandria Ocasio-Cortez, ktorých podobizeň ľudia menia s cieľom podnecovať hanbu, vymáhať peniaze alebo sa oddávať svojim súkromným fantáziám.

Veľmi vážny problém

Obete majú len málo možností, ako s týmto javom bojovať. V USA žiadny federálny zákon neupravuje deepfake porno, a len niekoľko štátov prijalo regulácie. Nedávno vydaný príkaz prezidenta Bidena o umelej inteligencii odporúča, ale nevyžaduje, aby spoločnosti označovali fotografie, videá a zvuky vytvorené umelou inteligenciou ako dielo vytvorené počítačom.

Právnici varujú, že falošné obrázky vytvorené umelou inteligenciou nemusia podliehať ochrane autorských práv na podobizne, pretože čerpajú zo súborov údajov naplnených miliónmi obrázkov. "Toto je jednoznačne veľmi vážny problém," povedala Tiffany Li, profesorka práva na univerzite v San Franciscu.

SkryťVypnúť reklamu

Nástup obrázkov vytvorených umelou inteligenciou predstavuje osobitné riziko pre ženy a mladistvých, z ktorých mnohí nie sú na takéto zviditeľnenie pripravení. Štúdia spoločnosti Sensity AI, ktorá monitoruje deepfakes, v roku 2019 zistila, že 96 percent deepfake obrázkov je pornografických a 99 percent týchto fotografií je zameraných na ženy.

"V súčasnosti sa vo veľkej miere zameriavajú predovšetkým na dievčatá," povedala Sophie Maddocks, výskumníčka a zástankyňa digitálnych práv z Pensylvánskej univerzity. "Dievčatá a ženy, ktoré nie sú na očiach verejnosti."

Miriam Al Adib Mendiri 17. septembra po návrate z výletu našla doma svoju 14-ročnú dcéru rozrušenú. "Pozri, mami. Čo mi to urobili?" povedala jej.

SkryťVypnúť reklamu

Internetom sa šírila jej nahá fotografia, hoci nahá nikdy nikomu nepózovala. Podľa polície skupina miestnych chlapcov zobrala fotografie z profilov na sociálnych sieťach niekoľkých dievčat v ich meste na juhu Španielska a pomocou aplikácie "nudifier", ktorá využíva umelú inteligenciu, vytvorila ich nahé fotografie.

Aplikácia je jedným z mnohých nástrojov umelej inteligencie, ktoré používajú skutočné obrázky na vytvorenie nahých fotografií. Analýzou miliónov obrázkov dokáže softvér AI lepšie predpovedať, ako bude vyzerať nahé telo, a plynulo prekryť tvár do pornografického videa, uviedol Gang Wang, expert na AI z Illinoiskej univerzity v Urbana-Champaign.

Jednoduchá myšlienka

Hoci mnohé generátory obrázkov s umelou inteligenciou blokujú vytváranie pornografického materiálu, softvér s otvoreným zdrojovým kódom, ako napríklad Stable Diffusion, zverejňuje svoj kód a umožňuje amatérskym vývojárom prispôsobiť technológiu - často na nekalé účely. Spoločnosť Stability AI, výrobca Stable Diffusion, na otázky neodpovedala.

SkryťVypnúť reklamu

Ak sú aplikácie umelej inteligencie verejne dostupné, často odporúčajú programy, ktoré povzbudzujú používateľov, aby zdieľali tieto fotografie vygenerované AI na sociálnych sieťach výmenou za hotovosť, povedala Ohová.

Keď Ohová preskúmala desať najnavštevovanejších webových stránok, na ktorých sa nachádzajú falošné pornografické snímky, zistila, že tento rok ich bolo nahraných viac ako 415-tisíc. Zobrazené boli takmer 90 miliónov ráz.

Na internete sa rozšírili aj pornografické videá generované umelou inteligenciou. Po prehľadaní 40 najpopulárnejších webových stránok s falošnými videami Ohová zistila, že v roku 2023 bolo pridaných viac ako 143-tisíc videí - toto číslo prekonáva všetky nové videá od roku 2016 do roku 2022. Falošné videá mali podľa Ohovej viac ako 4,2 miliardy pozretí.

SkryťVypnúť reklamu

FBI v júni varovala pred nárastom sexuálneho vydierania od podvodníkov, ktorí požadujú platbu alebo skutočné fotografie výmenou za to, že nebudú šíriť sexuálne obrázky. Hoci nie je jasné, aké percento týchto snímok je vytvorených umelou inteligenciou, táto prax sa rozširuje. Od septembra sa obeťami kampaní "sextortion" stalo viac ako 26 800 ľudí, čo je 149-percentný nárast oproti roku 2019, uviedla FBI.

V máji jeden z prispievateľov na populárnom pornografickom fóre založil vlákno s názvom Dokážem sfalšovať toho, kto sa ti páči. Myšlienka bola jednoduchá: "Pošlite mi kohokoľvek, koho chcete vidieť nahého, a ja ho môžem sfalšovať" pomocou umelej inteligencie, napísal.

V priebehu niekoľkých hodín prichádzali fotografie žien. "Môžeš vytvoriť toto dievča? Nie je to celebrita alebo influencerka," opýtal sa jeden z prispievateľov. "Moju kolegyňu alebo susedu?" pridal sa ďalší.

SkryťVypnúť reklamu

Niekoľko minút po žiadosti sa vo vlákne objavovala nahá verzia obrázka. "Ďakujem kamoško, je to perfektné," napísal jeden používateľ.

Celebrity sú obľúbeným cieľom tvorcov falošného porna, ktorých cieľom je využiť záujem o vyhľadávanie nahých fotografií známych ľudí. Webové stránky so slávnymi osobnosťami však môžu viesť k nárastu iných druhov aktov. Tieto stránky často obsahujú "amatérsky" obsah od neznámych osôb a hostia reklamy, ktoré predávajú nástroje na tvorbu falošného porna.

Snaha o reguláciu

Spoločnosť Google má zavedené zásady, ktoré zabraňujú tomu, aby sa vo výsledkoch vyhľadávania objavovali sexuálne obrázky bez súhlasu, ale táto ochrana v prípade deepfake obrázkov nie je taká spoľahlivá. Deepfake porno a nástroje na jeho tvorbu sa vo vyhľadávačoch spoločnosti zobrazujú na popredných miestach, a to aj bez toho, aby sa obsah vytvorený umelou inteligenciou špeciálne vyhľadával. Ohová zdokumentovala viac ako tucet príkladov na snímkach obrazovky, ktoré nezávisle potvrdil The Washington Post.

SkryťVypnúť reklamu

Ned Adriance, hovorca spoločnosti Google, vo vyhlásení uviedol, že spoločnosť "aktívne pracuje na zavedení väčšej ochrany vo vyhľadávaní" a že spoločnosť umožňuje používateľom požiadať o odstránenie nedobrovoľného falošného porna.

Google podľa neho práve "buduje rozsiahlejšie ochranné opatrenia", ktoré by od obetí nevyžadovali individuálnu žiadosť o odstránenie obsahu.

Li povedal, že môže byť ťažké potrestať tvorcov tohto obsahu. Sekcia 230 v zákone o slušnosti komunikácie chráni spoločnosti sociálnych sietí pred zodpovednosťou za obsah zverejnený na ich stránkach a v rámci kontroly obrázkov im vytvára iba malú záťaž.

Obete môžu požiadať spoločnosti o odstránenie fotografií a videí s ich podobizňou, ale keďže umelá inteligencia čerpá z množstva obrázkov, je pre obeť ťažšie tvrdiť, že obsah pochádza výlučne z jej podobizne, povedal Li.

SkryťVypnúť reklamu

"Možno ešte môžete povedať: 'Je to porušenie autorských práv, je jasné, že vzali moju pôvodnú fotografiu chránenú autorskými právami a potom k nej len niečo pridali,'" povedal Li. "Ale v prípade hlbokých falzifikátov... Nie je až také jasné, aké boli pôvodné fotografie."

Keďže neexistujú federálne zákony, najmenej deväť štátov prijalo právne predpisy zamerané na deepfakes. Tieto zákony sa však líšia svojím rozsahom: V niektorých štátoch môžu obete podať trestné oznámenie, zatiaľ čo iné umožňujú len občianskoprávne žaloby - hoci môže byť ťažké zistiť, koho žalovať.

Snaha o reguláciu obrázkov a videí vytvorených umelou inteligenciou má často za cieľ zabrániť masovému šíreniu a riešiť obavy zo zasahovania do volieb, povedal Sam Gregory, výkonný riaditeľ organizácie na ochranu ľudských práv v oblasti technológií Witness.

SkryťVypnúť reklamu

Tieto pravidlá však veľmi nepomáhajú pri deepfake porne, kde obrázky zdieľané v malých skupinách môžu spôsobiť človeku katastrofu, dodal Gregory.

Bellová si stále nie je istá, koľko jej deepfake fotografií je verejných, a uviedla, že na riešenie jej prípadu sú potrebné prísnejšie pravidlá. "Ako žena nie ste v bezpečí," povedala.

Autor: Pranshu Verma

SkryťVypnúť reklamu

Najčítanejšie na SME Tech

SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu

Neprehliadnite tiež

Týždenný podcast o novinkách z vedy.


a 2 ďalší
Ilustračné foto.

Vedci predstavili inovatívny prístup k mužskej antikoncepcii.


SITA 8
Ilustračné foto.

V Číne havaroval model SU7 od Xiaomi.


18
Ilustračné foto.

Zoznam klávesových skratiek pre Word vám uľahčí prácu s textom aj písanie znakov a symbolov.


29
SkryťZatvoriť reklamu