Tudomány-Tech

„Mi, nők, nem tettünk semmi rosszat, csak léteztünk” – ellopták az arcukat, hogy pornót csináljanak belőle

Mohos MátéMohos Máté

2023. április 10. 12:10

A mesterséges intelligencia sötét oldala: igazi disztopikus rémálomba került több internetes híresség is. Bűnözők lopják el képmásaikat, hogy a deepfake technológia segítségével pornóban szerepeltessék őket. Főleg női hírességek járnak így, a megalázó helyzetben ráadásul jogi segítséget sem nagyon tudnak szerezni. Pedig valójában ez is a nemi erőszak egyik formája. 

QTCinderella csak az arcát ismerte fel a képeken és a videókon, a testét nem. A népszerű Twitch-közvetítő levelesládáját elárasztották a pornográf anyagok, amelyeken látszólag ő szerepelt, félreérthetetlenül szexuális helyzetekben. Igen ám, de ő soha nem forgatott pornót, így valósággal sokkolta a látvány.

Az internetes híresség a mesterséges intelligenciák egyik legfélelmetesebb trendjének esett áldozatul: a deepfake pornónak. A műfaj lényege, hogy egy MI már létező felvételek alapján elkészíti a digitális változatát egy-egy ember arcának, és azt teljesen más kontextusban készült videókon szereplő emberek arcának a helyére illeszti. Magát a technológiát ártatlan célokra is széles körben használják: a Star Warsban és az Indiana Jonesban is így fiatalítottak meg több karaktert.

A baj akkor kezdődik, amikor az alanyok beleegyezése nélkül olyan videókat kreálnak, amelyek valamilyen inkrimináló és megalázó helyzetben ábrázolják őket – a deepfake pornó áldozatai szerint ez a megalázó gyakorlat felér egy online nemi erőszakkal.

Arról, hogy mennyire meggyőző lehet egy deepfake, jó bizonyíték az a videó, amelyben Jordan Peele komikus „játssza el” Barack Obamát, akinek egy hamis beszédét készítették el ezzel a technológiával. Itt ráadásul egy több mint négyéves klipről van szó, és a technológia azóta sokat fejlődött:

A pornó hamis, a trauma valós

Miután szembesült azzal, hogy mit tettek vele, QTCinderella úgy döntött, hogy megosztja érzéseit nagyjából nyolcszázezer követőjével. A USA Today-nek elmondta, miért döntött így: „Meg akartam mutatni, hogy itt nagy problémáról van szó. Hogy így érez minden nő, aki felkerül erre a [deepfake pornót terjesztő] weboldalra. Nézzétek, ahogy sírok, és próbáljatok meggyőzni, hogy ez így rendben van!”

Több híradás is arról tanúskodik, hogy QTCindarella valóban nincs egyedül az áldozatok között. Idén januárban egy brit videojátékos is azzal szembesült, hogy követői őt ábrázoló pornóvideókat osztogatnak meg egymással. A Sweet Anita nevű felhasználó első gondolata az volt: „Várjunk, ezen én szereplek?” Egy gyors Google-kereséssel pedig azt is kiderítette, hogy már hosszú ideje használják ki őt a tudta nélkül.

Talán még félelmetesebb, hogy nemcsak ismert személyeket, hanem átlagembereket is kihasználnak a deepfake pornóval. Hany Farid, a Kaliforniai Egyetem (Berkley) informatikus professzora az NBC-nek úgy fogalmazott: „Hirtelen azok is kitetté váltak, akiknek nagyon kicsi az online lábnyomuk.” Korábban csak azoknak a hírességeknek az arcát lehetett ellopni, akikről sok felvétel került fel az internetre:

minél több adattal tudott dolgozni a mesterséges intelligencia, annál hihetőbben tudta lemásolni az arcokat.

Azonban manapság már olyan fejletté vált a technológia, hogy akár egy tucatnyi képből is könnyedén összerak egy nagyjából hihetően kinéző deepfake-videót. A számok pedig azt mutatják, hogy ezt alaposan ki is használják a hamisított pornó terjesztői.

Az interneten fellelhető deepfake pornóvideók száma 2018 óta minden évben szinte megduplázódott. 2018-ban egy ismert tematikus weboldalra mindössze 1897 ilyen videót töltöttek fel, ez a szám 2022-re 13 ezer fölé emelkedett. A közönsége is kiépült ennek a műfajnak: tavaly havonta 16 millió felhasználót vonzottak az efféle tartalmak.

A nagyobb közösségi oldalak, mint például a Reddit azóta már teljesen betiltották a deepfake pornót felületükön, de a számtalan kisebb-nagyobb ezzel foglalkozó weboldalt nem lehet mind lekapcsolni vagy megtisztítani ettől a fajta tartalomtól. A műfaj kéz a kézben jár a nagyrészt női áldozatok zaklatásával, illetve „stalkolásával”. QTCindarella arról beszélt, hogy itt a szexualizáció egy merőben új formájával kell megküzdeni, ami őt is kihasználta és tárgyiasította.

Ajánlat: Minden eddiginél könnyebbé vált valakit a beleegyezése nélkül levetkőztetni a virtuális térben – még ha gyerek is

„Nem tettem semmi rosszat. Ez a legdurvább az egészben. Mi, nők, nem tettünk semmi rosszat. Csak léteztünk” – mondta a videós a helyzetéről. A jelenségről az elsők között tudósító Samatha Cole, a Vice újságírója pedig így jellemezte a problémát:

Ez mind a nemi erőszak kultúrája. Nem tudom, hogy mi lehetne valós megoldás azon kívül, hogy kezdünk valamit azzal az alapvető problémával, amit a tiszteletlenség és női beleegyezés figyelmen kívül hagyása jelent.

Ellopják az arcodat, hogy pornót csináljanak belőle
Már Mark Zuckerbergről is készült deepfake. Fotó: Elyse Samuels/The Washington Post via Getty Images

Legyőzni a legyőzhetetlent

Ahogy a tech világában sokszor lenni szokott, a jogi szabályozás késve követi a való életbeli eseményeket. Ennek tudható be, hogy a deepfake pornó áldozatainak még manapság is kevés lehetőségük van arra, hogy a hatóságok segítségével vessenek véget megalázásuknak.

Az USA-ban például csak négy államban léteznek olyan törvények, amelyek a deepfake tartalmakra vonatkoznak, holott az ország nagy részében már létezik a jogi környezet az olyan jelenségek büntetésére, mint például a bosszúpornó, amivel korábban hosszabb cikkben foglalkoztunk. Az Egyesült Királyságban tavaly novemberben jelentették be, hogy készek lépéseket tenni a „nem konszenzuális deepfake média” kriminalizálására, de eddig még konkrét törvény nem született.

Az EU-ban szintén nincsenek törvények a deepfake pornó büntetésére. A Data Innovation cikke szerint a 2022-ben elfogadott DSA (Digital Services Act) elégtelen arra, hogy ennek segítségével lehessen fellépni a a beleegyezés nélkül készült pornográf felvételek megosztása ellen. A lap emlékeztet: a törvényből szinte az utolsó pillanatban került ki az a cikkely, amely kötelezte volna a pornóoldalakat, hogy minél gyorsabban távolítsák el az olyan tartalmakat, amelyekről az áldozatok jelzik, hogy azok a beleegyezésük nélkül ábrázolják őket.

A jelenleg hatályban lévő törvények segítségével pedig nehéz jogorvoslatot keresni, ugyanis az áldozatoknak azt kellene bizonyítani, hogy ezekkel a felvételekkel szándékosan akarnak kárt okozni készítőik. 

A képmásukkal visszaélők pedig viszonylag könnyedén érvelhetnek azzal, hogy a deepfake videók elkészítéséhez a köz számára elérhető médiát használtak, és a kész pornót kontextus nélkül osztották meg – ebben az esetben pedig szimplán kreatív tevékenységnek, esetleg művészetnek minősülne a deepfake pornó.

Milyen módszerek maradnak hát a deepfake pornó megfékezésére? Amíg nem születnek meg a megfelelő jogszabályok, úgy tűnik, hogy a figyelemfelhívás az egyetlen járható út arra, hogy menteni lehessen a menthetőt. Az áldozatok beszámolóin túl is tudni olyan történetekről, hogy egy-egy vallomás legalábbis apróbb sikerekhez vezetett a deepfake elleni harcban.

Nemrég egy Atrioc nevű streamer is könnyes üzenetet osztott meg a témában, azonban nem azért, mert ő is áldozattá vált volna: épp ellenkezőleg. A férfiról kiderült, hogy igencsak rákapott a deepfake pornó fogyasztására, és főleg a kollégáiról készült felvételeket nézett. Állítása szerint egy véletlenszerűen felugró reklám vitte át a Pornhubról egy ilyen felvételeket megosztó oldalra, és innen már nem volt megállás számára.

Szinte csodával határos módon a bocsánatkérés eredményt is hozott: hamarosan az Atrioc által használt pornóoldal törölte az összes deepfake tartalmát, és az üzemeltető is hosszas bocsánatkérést osztott meg az áldozattá vált streamerek felé. A közéleti személyiségek számára valóban elképesztően nehéz marad a deepfake pornó elleni harc – az átlagemberek maximum azzal vigasztalódhatnak, hogy ha ők esnek áldozatul, akkor lehetséges, hogy a bosszúpornó ellen már létező törvényeket is igénybe vehetik a felvételek eltávolítására és a készítők megbüntetésére.

 

Nyitókép: Getty Images

#Tudomány-Tech#deepfake#pornó#influenszer#stream#internet#beleegyezés#nemi erőszak#ma

Címlapról ajánljuk