Text vyšiel pôvodne v denníku Washington Post.
Obrázky generované umelou inteligenciou sú všade. Používajú sa na tvorbu falošnej pornografie, zahmlievanie pravdy počas volieb a propagáciu produktov na sociálnych sieťach pomocou napodobňovania celebrít.
Keď princezná Catherine minulý mesiac zverejnila video, v ktorom prezradila, že má rakovinu, sociálnymi sieťami sa roznieslo najnovšie nepodložené tvrdenie, že na manipuláciu s videom bola použitá umelá inteligencia. Štúdio BBC, ktoré video natočilo, aj Kensingtonský palác popreli akékoľvek zapojenie AI. Špekulácie to však nezastavilo.
Odborníci tvrdia, že problém sa bude len zhoršovať. V súčasnosti je kvalita niektorých falošných záberov taká dobrá, že sú takmer nerozoznateľné od skutočných. V jednom známom prípade finančný manažér hongkonskej banky previedol približne 25,6 milióna dolárov podvodníkom, ktorí použili umelú inteligenciu vo videohovore, kde sa vydávali za jeho šéfov. Nástroje na výrobu týchto falzifikátov sú pritom bezplatné a široko dostupné.
Rastúca skupina výskumníkov, akademikov a zakladateľov startupov pracuje na spôsoboch sledovania a označovania obsahu AI. Využívajú rôzne metódy a vytvárajú spojenectvá so spravodajskými organizáciami, veľkými technologickými spoločnosťami a dokonca aj s výrobcami kamier a dúfajú, že zabránia tomu, aby snímky s umelou inteligenciou ďalej narúšali schopnosť verejnosti pochopiť, čo je pravda a čo nie.
„Ešte pred rokom sme sa stretávali so snímkami s umelou inteligenciou a boli hlúpe,“ povedal Rijul Gupta, zakladateľ a generálny riaditeľ spoločnosti DeepMedia AI, startupu na hĺbkovú detekciu falošných snímok. „Teraz sú dokonalé.“
Tu je prehľad hlavných metód, ktoré sa vyvíjajú s cieľom zadržať apokalypsu obrázkov AI.
V článku sa dočítate:
- prečo vodoznaky nefungujú vždy,
- čo by do fotografie vtlačili dopĺňajúce metadáta,
- že aj útočníci sa neustále prispôsobujú.
Označovanie vodoznakom
Digitálne vodoznaky nie sú novinkou. Už roky ich používajú nahrávacie spoločnosti a filmové štúdiá, ktoré chcú chrániť svoj obsah pred pirátmi. Teraz majú ľuďom pomôcť vyrovnať sa s vlnou obrázkov generovaných umelou inteligenciou.
Keď americký prezident Joe Biden v októbri podpísal prelomové nariadenie o umelej inteligencii, nariadil vláde, aby vypracovala normy, ktorými sa majú spoločnosti riadiť pri označovaní svojich obrázkov vodoznakmi.
Niektoré spoločnosti už umiestňujú viditeľné značky na obrázky vytvorené ich generátormi umelej inteligencie. Spoločnosť OpenAI umiestňuje do pravého dolného rohu obrázkov vytvorených pomocou svojich generátorov obrázkov Dall-E päť malých farebných rámčekov. Tieto štítky sa však dajú z obrázku ľahko orezať alebo vyretušovať. Iné populárne nástroje na generovanie obrázkov s umelou inteligenciou, ako napríklad Stable Diffusion, dokonca štítky ani nepridávajú.
Odvetvie sa teda viac zameriava na neviditeľné vodoznaky zapracované do samotného obrázka. Nie sú viditeľné voľným okom, ale mohla by ich odhaliť napríklad platforma sociálnych médií, ktorá by ich potom označila skôr, ako ich uvidia diváci.
Zďaleka však nie sú dokonalé. Predchádzajúce verzie vodoznakov sa dali ľahko odstrániť alebo zmanipulovať jednoduchou zmenou farieb na obrázku alebo dokonca jeho otočením. Spoločnosť Google, ktorá poskytuje nástroje na vytváranie obrázkov svojim spotrebiteľom a firemným zákazníkom, minulý rok uviedla, že vyvinula technológiu vodoznaku s názvom SynthID, ktorá dokáže odolať manipulácii.
Vo februárovej práci však výskumníci z Marylandskej univerzity ukázali, že prístupy vyvinuté spoločnosťou Google a ďalšími technologickými gigantmi na označovanie ich obrázkov umelou inteligenciou vodoznakom sa dajú prekonať.
„Tým sa problém nevyrieši,“ povedal Soheil Feizi, jeden z výskumníkov.
Vypracovanie spoľahlivého systému vodoznakov, na ktorého dodržiavaní sa dohodnú veľké technologické spoločnosti a sociálne siete, by malo pomôcť výrazne znížiť problém deepfakes, ktoré zavádzajú ľudí na internete, povedal Nico Dekens, riaditeľ spravodajstva v spoločnosti ShadowDragon, ktorá sa zaoberá kybernetickou bezpečnosťou a vytvára nástroje na pomoc ľuďom pri vyšetrovaní pomocou obrázkov a príspevkov zo sociálnych médií z internetu.
„Vodoznaky určite pomôžu,“ povedal Dekens, s dodatkom, že „to určite nie je nepriestrelné riešenie, pretože čokoľvek, čo je digitálne vytvorené, sa dá hacknúť, podvrhnúť alebo zmeniť.“
Označovanie skutočných obrázkov
Okrem vodoznakov na snímkach s umelou inteligenciou sa v technologickom priemysle začalo hovoriť aj o označovaní skutočných snímok, pričom sa do každého pixelu hneď po nasnímaní fotografie fotoaparátom vkladajú údaje, ktoré majú poskytnúť záznam o tom, čo tento priemysel nazýva „pôvod“.
Ešte predtým, ako OpenAI koncom roka 2022 vydala ChatGPT a odštartovala boom umelej inteligencie, výrobcovia fotoaparátov Nikon a Leica začali vyvíjať spôsoby, ako vtlačiť špeciálne „metadáta“, ktoré uvádzajú, kedy a kým bola fotografia zhotovená priamo pri snímaní fotoaparátom. Canon a Sony začali s podobnými programami a spoločnosť Qualcomm, ktorá vyrába počítačové čipy pre smartfóny, tvrdí, že má podobný projekt na pridávanie metadát do snímok zhotovených fotoaparátmi telefónov.
Spravodajské organizácie ako BBC, Associated Press a Thomson Reuters spolupracujú so spoločnosťami vyrábajúcimi fotoaparáty na vytvorení systémov na kontrolu autentifikačných údajov pred uverejnením fotografií.
Tento systém by mohli využiť aj sociálne siete, ktoré by označovali skutočné a falošné obrázky, aby používatelia vedeli, na čo sa pozerajú, podobne ako niektoré platformy označujú obsah, ktorý môže obsahovať dezinformácie proti vakcínam alebo vládnu propagandu. Stránky by dokonca mohli v algoritmických odporúčaniach uprednostňovať skutočný obsah alebo umožniť používateľom odfiltrovať obsah s umelou inteligenciou.
Vybudovanie systému, v ktorom sa overujú a označujú skutočné obrázky na sociálnych sieťach alebo spravodajských webových stránkach, by však mohlo mať nezamýšľané účinky. Hackeri by mohli prísť na to, ako spoločnosti vyrábajúce fotoaparáty aplikujú metadáta na obrázok, a pridať ich k falošným obrázkom, ktoré by potom na sociálnych sieťach dostali priepustku vďaka falošným metadátam.
„Je nebezpečné myslieť si, že existujú skutočné riešenia proti zlomyseľným útočníkom,“ povedala Vivien Chappelier, vedúca výskumu a vývoja v spoločnosti Imatag, začínajúcom podniku, ktorý pomáha spoločnostiam a spravodajským organizáciám umiestňovať vodoznaky a štítky na skutočné snímky, aby sa zabezpečilo, že nebudú zneužité. Avšak sťaženie náhodného šírenia falošných obrázkov alebo poskytnutie väčšieho kontextu tomu, čo ľudia vidia online, je stále užitočné.
„Snažíme sa trochu zvýšiť latku,“ povedala Chappelierová.
Spoločnosť Adobe už dlho predáva softvér na úpravu fotografií a videí. Teraz ponúka svojim zákazníkom aj nástroje na generovanie obrázkov s umelou inteligenciou, ale zároveň sa snaží presadiť štandard, ktorý by dodržiavali spoločnosti, spravodajské organizácie a platformy sociálnych médií pri identifikácii a označovaní skutočných obrázkov a deepfakes.
Obrázky s umelou inteligenciou tu zostanú a v snahe o ich kontrolu bude potrebné kombinovať rôzne metódy, uviedla Dana Rao, generálna poradkyňa spoločnosti Adobe.
Detekčný softvér
Niektoré spoločnosti vrátane spoločností Reality Defender a Deep Media vytvorili nástroje, ktoré identifikujú deepfakes podľa technológie používanej generátormi obrázkov AI.
Zobrazením desiatok miliónov obrázkov označených ako falošné alebo pravé začne model rozlišovať medzi nimi, pričom si vybuduje vnútorné „porozumenie“ toho, ktoré prvky môžu prezradiť, že obrázok je falošný. Obrázky sa preženú týmto modelom, a ak zistí tieto prvky, vyhlási, že obrázok je vytvorený umelou inteligenciou.
Nástroje môžu tiež zvýrazniť časti obrázka, ktoré podľa umelej inteligencie prezrádzajú, že ide o falzifikát. Zatiaľ čo ľudia môžu obrázok označiť za vytvorený umelou inteligenciou na základe podivného počtu prstov, umelá inteligencia často upozorní na kúsok svetla alebo tieňa, ktorý podľa nej nevyzerá úplne správne.
Existujú aj ďalšie veci, na ktoré sa treba zamerať, napríklad či má osoba viditeľné žily na anatomicky správnom mieste, povedal Ben Colman, zakladateľ spoločnosti Reality Defender. „Buď ste deepfake, alebo upír,“ povedal.
Colman si predstavuje svet, v ktorom bude skenovanie deepfakes len bežnou súčasťou softvéru kybernetickej bezpečnosti počítača, podobne ako e-mailové aplikácie, napríklad G-mail, ktoré teraz automaticky filtrujú zjavný spam. „Touto cestou sa chystáme ísť,“ povedal Colman.
Nie je to však jednoduché. Niektorí varujú, že spoľahlivé odhaľovanie deepfakes bude pravdepodobne nemožné, pretože technológie, ktoré stoja za generátormi obrázkov s umelou inteligenciou, sa menia a zlepšujú.
„Ak je tento problém dnes ťažký, na budúci rok bude oveľa ťažší,“ povedal Feizi. „O päť rokov to bude takmer nemožné.“
Neverte tomu, čo vidíte
Aj keď budú všetky tieto metódy úspešné a veľké technologické spoločnosti sa plne pridajú, ľudia budú musieť byť stále kritickí k tomu, čo vidia online.
„Nič nepredpokladajte, nikomu a ničomu neverte a o všetkom pochybujte,“ povedal Dekens. „Ak máte pochybnosti, jednoducho predpokladajte, že je to falošné.“
Vzhľadom na blížiace sa tohtoročné voľby v Spojených štátoch a ďalších veľkých demokratických krajinách nemusia byť technológie pripravené na množstvo dezinformácií a falošných snímok vytvorených umelou inteligenciou, ktoré budú zverejnené online.
„Najdôležitejšia vec, ktorú môžu urobiť pre voľby, ktoré sa teraz blížia, je povedať ľuďom, že by nemali veriť všetkému, čo vidia a počujú,“ dodala Raová.