SME

Spoločnosť Anthropic tvrdí, že jej AI chatbot využili podvodníci na kyberútoky

Sofistikované útoky dnes dokáže vykonať jeden človek.

Webová stránka a mobilná aplikácia Anthropic.Webová stránka a mobilná aplikácia Anthropic. (Zdroj: TASR/AP)

WASHINGTON. Páchatelia kybernetických trestných činov čoraz častejšie využívajú umelú inteligenciu (AI) na vykonávanie kybernetických útokov. Vyplýva to zo stredajšej správy americkej spoločnosti Anthropic zaoberajúcou sa vývojom AI. Informovala o tom agentúra DPA.

Anthropic tvrdí, že jej chatbot Claude útočníci zneužili na infiltráciu sietí, krádež a analýzu údajov a vytváranie „psychologicky cielených vydieračských požiadaviek.“

SkryťVypnúť reklamu
Článok pokračuje pod video reklamou
SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

V niektorých prípadoch útočníci hrozili zverejnením ukradnutých informácií, ak nedostanú viac ako 500-tisíc dolárov.

SkryťVypnúť reklamu

Žiadny tím expertov, stačí jedinec

Len za uplynulý mesiac bolo terčom útokov 17 organizácií z oblasti zdravotníctva, vlády a náboženského sektoru. Claude pomáhal identifikovať zraniteľné miesta, rozhodovať, ktorá sieť bude cieľom útoku, a aké údaje sa majú získať.

Podľa manažéra Anthropic Jacoba Kleina si vykonanie takýchto operácií kedysi vyžadovalo tím expertov, avšak AI v súčasnosti umožňuje jedincovi vykonať sofistikované útoky.

Anthropic vo svojej správe tiež zdokumentoval prípady Severokórejčanov, ktorí využívali Claude, a vydávali sa za programátorov pracujúcich pre americké spoločnosti, aby „financovali zbrojné programy Severnej Kórey“. AI im pri tom pomohla komunikovať so zamestnancami a spĺňať úlohy, na ktoré sami nemali schopnosti.

Americká spoločnosť konštatuje, že v minulosti absolvovali severokórejskí pracovníci niekoľkoročné tréningy na tento účel, avšak Claude a ďalšie modely túto prekážku fakticky odstránili.

SkryťVypnúť reklamu

Na predaj ponúkajú plány na podvody

Kriminálnici taktiež vyvinuli plány na podvody s pomocou AI, ktoré na internete ponúkajú na predaj, vrátane bota na platforme Telegram používaného pri tzv. romantických podvodoch. Pri takýchto podvodoch ide o emocionálnu manipuláciu obete vo viacerých jazykoch s cieľom vymámiť od nich peniaze.

Hoci Anthropic zaviedol ochranné opatrenia na zabránenie zneužitiu, útočníci sa naďalej usilujú tieto opatrenia obchádzať. Poučenia z týchto incidentov sa využívajú na posilnenie ochrany proti kybernetickej kriminalite umožnenej AI, píše DPA.

Umelá inteligencia

Súvisiace témy: USA, Amerika
SkryťVypnúť reklamu

Najčítanejšie na SME Tech

SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťVypnúť reklamu
SkryťZatvoriť reklamu