Az internet legsötétebb sarka: egyre nagyobb veszélyt jelent a mesterséges intelligenciával készült gyerekpornó
2023. november 7. 14:46
Ha nem tesznek a kormányok gyors lépéseket, akkor fennáll a veszélye annak, hogy elöntik az internetet a mesterséges intelligencia segítségével gyermekekről készített pornográf felvételek. Mivel a robot hatékonyabban ügyködik, mint egy pedofil ember, az efféle anyagok félelmetesen gyorsan maguk alá temethetik az internetszabályzókat.
Már korábban is több cikkben foglalkoztunk azzal, hogy az internetes gyermekpornográfia a közösségi média korának egyik legbetegesebb, legveszélyesebb jelensége: nemcsak a dark weben válnak áldozattá a fiatalok az őket behálózó bűnözőknek, de már a TikTokon is tarolnak a különböző privát csoportok, amelyekben kihasználják őket.
A pedofil tartalmakat kereső és gyártó bűnözők minden eszközt bevetnek, hogy megalázó felvételekkel tegyék zsarolhatóvá a gyerekeket, és nem restellnek a mesterséges intelligenciát sem felhasználni céljaikra. Ez még inkább kiteheti a kiskorúakat a gyerekpornó veszélyeinek, ráadásul az ilyen anyagok sokkal gyorsabban terjedhetnek, mint a „hagyományos” pornográf felvételek.
Tartja magát az a vélekedés is, amely szerint a mesterséges gyerekpornóval valós gyermekeket lehet megvédeni – igaz, ez a teória erősen megkérdőjelezhető.
A mesterséges intelligenciával készített pornográfiával korábban ebben a cikkben foglalkoztunk, a Google hozzáállását az egyre inkább terjedő „kamupornóhoz” pedig itt részleteztük. A beleegyezés nélkül készült bosszúpornó problémájáról is írtunk, ez a cikk itt olvasható.
Lépni kell, vagy baj lesz
Októberben a brit Internet Watch Foundation (IWF) nevű civil szervezet riadóztatott: szerintük a kormányoknak és a techcégeknek gyorsan kell cselekedniük, ha meg akarják akadályozni, hogy a mesterséges intelligenciával készített gyerekpornográf felvételek elöntsék az internetet. Azzal érveltek, hogy ha elterjednek az ilyen felvételek, már nehéz lesz gátat szabni nekik,
hiszen az AI sokkal gyorsabban készít el sokkal több ilyen felvételt, mint az emberek, ezáltal a a potenciális áldozatok száma drasztikusan növekszik.
Emellett a szünet nélkül ömlő AI-gyerekpornó-tartalom visszaszorítására a szabályzóknak valószínűleg nem is lenne elegendő kapacitásuk.
Dan Sexton, a civil szervezet technológiai vezetője arra figyelmeztetett: „Itt nem az esetleges károkról beszélünk. A károkat már most okozzák, ezért most kell fellépni ellenük.” Mint írták, még csak nemrég történt meg először az emberiség történetében, hogy egy AI-gyerekpornós ügy bíróság elé került. A szeptemberi esetben
egy dél-koreai férfi két és fél év börtönt kapott azért, mert mesterséges intelligencia segítségével készített 360 gyermekbántalmazást ábrázoló képet.
Arról viszont már máshonnan is lehetett hallani, hogy hasonló esetek a hatóságok látókörébe kerültek. Egy délnyugat-spanyolországi iskolában már a rendőrség vizsgál egy hajmeresztő ügyet: tinédzserek küldözgettek egymásnak olyan fotókat, amelyekben osztálytársaikat ábrázolják AI segítségével szexuális helyzetekben. Az EU-ban már dolgoznak is a jogalkotók azon, hogy kordában tartsák a mesterséges intelligenciát.
A való életben bántalmazott áldozatokat használnak fel
A felhasználói AI-programok működése közismert: elég mindössze saját szavainkkal összefoglalni a gépnek, amit szeretnénk, ha megjelenítene fotókon vagy videókon, és rövidesen le is gyártja nekünk a kért tartalmakat. A legtöbb, nagyközönség számára is elérhető eszköz – például a ChatGPT vagy a DeepL – fejlesztői beépítettek korlátozásokat a szoftverekbe, tehát ezeken a platformokon nem lehet extrém, veszélyes tartalmakat készíteni.
Azonban ahhoz sem kell atomtudósnak lenni, hogy az ember beszerezzen olyan applikációkat, amelyeknek nincsenek beépített őrfunkció. A londoni Stability AI dobta piacra tavaly a Stable Diffusiont, amely például ezek közé tartozik: ezt a vállalatot külön kéri a civil szervezet, hogy szigorítson a felhasználási feltételeken.
Ha pedig valaki már a hackeléshez is ért valamennyire, vagy van bejárása a dark webre, a lehetőségek a legrosszabb értelemben véve végtelenek.
A mesterséges intelligencia akár emaileket, üzeneteket vagy a közösségi médiába feltöltött, ártatlan képeket és videókat is fel tud használni arra, hogy szörnyűséges deepfake videókat készítsen. Sexton szerint a dark weben óriási kereslet van híres gyerekek arcaira, illetve olyanokéra, akiket korábban a való életben is abuzáltak.
Már létező, valós tartalmakat használnak fel arra, hogy újra bántalmazzák az áldozatokat, ezzel akár meglévő, súlyos traumákra is ráerősíthetnek.
Sexton kutatásuk alapján arról számolt be: a dark weben az elkövetők maguk is gyakran meglepődnek azon, hogy milyen egyszerű elkészíteni és pénzzé tenni a hasonló anyagokat, amelyek ráadásul a technológia fejlődésével egyre élethűbbé válnak.
Jelenleg is léteznek világszerte korlátozó szabályozások az internetes gyermekpornográfiára, azonban kérdés, hogy ezeket mennyire lehet érvényre juttatni, ha a törvény által nem ismert eszközökkel generálják őket, illetve ha tényleg olyan tartalmi dömping várható a közeljövőben, ahogyan azt az IWF előrejelzi. A mesterséges intelligenciával kapcsolatban nemrég az EU-ban tettek lépéseket a korlátozás felé.
Az amerikai Indiana államban a helyi törvényhozók is tervezik, hogy a jövőben nagyobb figyelmet fordítanak a gyermekekről készült AI-pornóra. Az erről szóló angol nyelvű híradást alább lehet megnézni:
A mesterséges kihasználással csökken a valós kihasználás veszélye?
A gyermekpornográfia vitán felül szörnyűséges dolog, a gyártása pedig az egyik legrosszabb tevékenység, amire valaki az idejét fordíthatja. A Wired szerzője azonban nemrég – nem sokkal az IWF figyelmeztetésének publikálása előtt – előállt egy akár vadnak nevezhető gondolatmenettel: mi van, ha a mesterséges pornográfia átveheti a valós gyerekpornó helyét, ezzel kisebbítve az általa okozott károkat?
Természetesen ezen az elméleten csak akkor kezdhetünk el gondolkodni, ha abból indulunk ki, hogy a gyerekpornó mint olyan, kiirthatatlan jelenség, és nincs is esély arra, hogy teljesen eltüntessük az internetről – amit elég nehéz elfogadni. A Wired cikkének jogász-újságíró szerzője, Danielle Bernstein viszont úgy véli, hogy
az AI generálta, gyermekek szexuális bántalmazását ábrázoló anyagok hosszú távon hasznosak lehetnek a társadalom számára, mivel kevésbé káros alternatívát jelentenek
a máris óriási gyermekpornópiacon. Bernstein egy a New York Timesban ismertetett tanulmányra hivatkozik, amely szerint a pedofília biológiai alapon alakul ki bizonyos emberekben, és elképesztően nehéz féken tartani azoknak, akik hajlamosak rá, ám nem akarnak másokat bántani.
Dr Fred Berlin, a Johns Hopkins Egyetem kutatója például azt mondta: „Nem mi döntjük el, hogy mi indít be minket szexuálisan, csupán felfedezzük ezt. A pedofilok nem maguk választották azt, hogy gyerekekhez vonzódjanak.” A tudós a pedofíliát a heroinfüggőséghez hasonlítja, amely igazán csak akkor káros, ha a függő beadja a derekát a késztetésnek, és nem győzi le.
Bernstein szerint mivel a pedofíliára jelenleg nem létezik ellenszer, a második legjobb dolog, amit tehetünk, hogy minél kevésbé ártalmas csatornát biztosítunk a pedofil ingerek kiélésére. Ám azzal ő is egyetért, hogy mindent, ami ezt célozza, elképesztően óvatosan kell vizsgálni. Anna Salter pszichológust idézi, aki szerint „a gyerekpornó csak olaj a tűzre”, tehát
óriási a veszély, hogy a mesterséges intelligenciával kreált gyerekpornó normalizálja az efféle tartalmakat. Ha pedig a kontroll kicsúszik a kézből, az valóságos emberek, gyerekek elleni erőszakot, kizsákmányolást eredményez.
Nem is beszélve arról, hogy a lehetséges elkövetőket is felbátorítja.
Bernstein szerint „végső soron mind ugyanazt akarjuk, mégpedig a gyermekek és mások biztonságát közösségeinkben. Az érme mindkét oldalát kell nézni. Nemcsak az áldozatokat kell segíteni, hanem azokat is, akik veszélyt jelenthetnek az áldozatokra. Segítenünk kell nekik, hogy ne jelenthessenek veszélyt.”
A Fókusz mesterséges intelligenciáról szóló átfogó, tavaszi riportjához már a ChatGPT írta a felvezetőt. Mutatjuk:
Nyitókép: Getty Images