Domov Novinky Generatívna AI opäť zneužitá na odstraňovanie oblečenia

Generatívna AI opäť zneužitá na odstraňovanie oblečenia

Zdielať

Služba sa šíri cez Telegram a používajú ju milióny ľudí.

V roku 2019 spôsobila rozruch neurónová sieť DeepNude od estónskych autorov, ktorá ženám kradla šaty a vytvárala tak intímne obrázky. Trend vytvárania takýchto kompromitujúcich fotografií cez umelú inteligenciu samozrejme neustal, a žurnalisti z webu Wired našli vyše 50 botov, ktorý sľubujú z dodaných fotiek behom pár minút urobiť šteklivé deepfaky.

Boti sa šíria prostredníctvom komunikátora Telegram, a kombinovane majú milióny aktívnych používateľov. Presný počet sa samozrejme zistiť nedá, ale ide o alarmujúce číslo. História zneužívania nedobrovoľných intímnych snímok (NCII – z ang. nonconsensual intimate image) – ako sa často nazýva používanie explicitných deepfakov bez súhlasu – sa začala koncom roka 2017.

Server Motherboard (teraz Vice com) našiel online video, v ktorom bola tvár Gal Gadot prekrývaná na existujúce pornografické video tak, aby to vyzeralo, že sa herečka zúčastňuje na zobrazených aktoch. Užívateľské meno osoby, ktorá tvrdila, že je za toto video zodpovedná, vyústilo do označenia „deepfake“. Kedysi vznikali zábavné aplikácie na výmenu tvári s výsledkom rozličnej, často nízkej kvality a bolo hneď poznať že ide o počítačovo vytvorenú koláž.

S rozvojom generatívnej AI však prichádzajú realistické nielen fotografie, ale aj videá. Vrátane hlasu obete. Väčšina botov nájdených na Telegrame nepoužíva nejakú veľmi sofistikovanú technológiu a sú limitovaný na odstraňovanie šiat, ale aj to vie napáchať veľké škody. Títo boti sa stali lukratívnym zdrojom príjmu a na vygenerovanie fotografie vyžadujú isté množstvo tokenov.

Kriminálnici samozrejme reagovali na dopyt, a popri funkčných botoch vznikli aj falošní, ktorí buď nedodajú výsledok alebo je v nízkom rozlíšení/kvalite. Vytváranie takýchto deepfake obrázkov je nielen pre klienta pomerne nákladné, ale nie je garantované žiadne súkromie, zneužitie neodstránených metadát ako GPS dáta a dokonca to môže skončiť infekciou zariadenia.

Vytváranie a šírenie explicitných deepfakov vyvoláva závažné etické otázky týkajúce sa súhlasu, súkromia a objektivizácie žien, nehovoriac o vytváraní materiálov so sexuálnym zneužívaním maloletých detí. Talianski vedci zistili, že takto vytvorené „diela“ sú novou formou sexuálneho násilia s možnými dlhodobými psychologickými a emocionálnymi dôsledkami na obete.

Na ochranu pred takýmto obsahom vzniklo viacero iniciatív. USA navrhli legislatívu v podobe zákona o zodpovednosti za falošné údaje. V kombinácii s nedávnou zmenou politiky Telegramu, ktorá spočíva v odovzdávaní údajov o používateľoch orgánom činným v trestnom konaní v prípadoch, keď sú používatelia podozriví zo spáchania trestného činu, by to mohlo spomaliť používanie botov, prinajmenšom na Telegrame.

Pravidlá používania niektorých platforiem ako vyhľadávač Google zas zakázali umiestňovanie nedobrovoľnej deepfake pornografie vo výsledkoch. Maslo na hlave majú aj samotné sociálne siete. Veľa ľudí si neuvedomuje nebezpečenstvo trénovania AI na ich dátach, a s výnimkou občanov EÚ väčšina sveta ani nemá možnosť toto sieťam zakázať, jedine zmazať konto, čím však okrem obsahu môže používateľ prísť aj o vyše desaťročia starú komunikáciu na sieti.

Vytvorené deepfaky, nech sa týkajú čohokoľvek, pomáhajú šíriť dezinformácie, bez dôkazov poškodiť reputáciu, súkromie alebo slúžia na kriminalitu, vrátane ekonomickej. Každá fotografia odfotená moderným smartfónom obsahuje rozličné metadáta, väčšinou aj GPS dáta, ktoré sa dajú zneužiť. Rovnako neodporúčame aplikáciám len tak bez rozmyslu dávať prístup ku galérii fotografií kvôli pohodliu, nakoľko obsahujú spomínané metadáta.

Umelo vytvorené videá tváre reálnej osoby môžu navyše prekonať zabezpečenie niektorých biometrických snímačov tváre. Preto odporúčame nezdieľať svoje fotografie alebo fotografie iných ľudí na verejnom Internete, zvlášť ak sú označení reálnym menom. Čokoľvek je raz na Internete, je totiž prakticky nemožné odtiaľ dostať preč. A vždy sa nájde niekto, kto si môže fotografie zo sociálnych sietí stiahnuť do vlastného zariadenia a v budúcnosti zneužiť.

Zdroj