Tudomány-Tech

Nyakunkon két választás, mutatjuk, hogyan ismerje fel a mesterséges intelligencia által generált tartalmakat

Nagy MartinNagy Martin

2024. március 28. 11:13

A ChatGPT-t jegyző OpenAI nemrég bemutatta első videókészítő mesterséges intelligenciáját. A Sora nevű modell a hibái ellenére döbbenetesen élethű felvételeket alkot, amelyekről egy friss felmérés szerint az emberek fele már nem tudja megmondani, hogy azokat ember vagy gép készítette. A technológia melegágya a visszaéléseknek, legyen szó álhírekről, dezinformációról vagy más csalásokról. Összeszedtük, mire képes a Sora, és azt is megmutatjuk, hogyan ismerheti fel az MI által generált videókat.  

A mesterséges intelligenciának (MI) rengeteg előnye van, amivel megkönnyítheti a mindennapi életünket. Másodpercek alatt képes válaszolni bármilyen kérdésre, idegen nyelvű szögeket fordít, dalokat komponál, verseket ír és már jóformán ügyesebben kódol, mint a legtöbb programozó. A technológia nem csak szövegalkotásra jó, az interneten egyre gyakrabban lehet találkozni olyan tartalmakkal, amelyeken nem valódi emberek szerepelnek, hanem nagyon is valóságosnak tűnő, MI által generált karakterek.

A mesterséges intelligencia így elmoshatja a határokat a valóság és a fikció között, megkönnyítve az online visszaéléseket, az álhírek és a dezinformáció terjedését.

És már küszöbön a technológia, amellyel a semmiből, pár sornyi szöveg begépelésével hozhatunk létre hátborzongatóan élethű, teljesen valósnak ható videókat is. Megmutatjuk, hogyan ismerheti fel az MI által generált tartalmakat.

Pufidzsekis pápa és letartóztatott Trump

Az elmúlt években sorra jelentek meg olyan tartalmak, amelyeket mesterséges intelligencia készített. Az OpenAI által fejlesztett szövegalkotó ChatGPT gyorsan világhírűvé vált, ezután jöttek az olyan képgeneráló MI-k, mint a DALL-E vagy a Midjourney, amelyek a begépelt szövegek alapján képesek létrehozni a legkülönfélébb, profi fotósokat és grafikusokat megszégyenítő képeket. A programnak köszönhetjük többek közt a pufidzsekis Ferenc pápát


De a Donald Trump letartóztatásáról és elhurcolásáról készült képek is totális kamunak bizonyultak, főleg, hogy a volt elnök kevésbé lehetne szabadabb annál, amilyen most. Már a róluk készült „fotók” is sokakat átvertek, pedig a java még csak most jön.  

Az OpenAI februárban bemutatta első videókészítő mesterséges intelligenciáját.

A Sora névre keresztelt modell pusztán szöveges utasítások alapján készít maximum egyperces videókat, emellett a cég ígérete szerint egy már meglévő álló- vagy mozgóképes anyagból szerkesztésére is képes, kitöltve a hiányzó részeket. A cég több tucat bemutatóvideót is közzétett, a végeredmény pedig lenyűgözte az embereket.  

Mutatunk pár példát, amelyek jól érzékeltetik, mire képes a Sora. Az alábbi videó elkészítéséhez mindössze a következő parancsot adták meg: „Nyüzsög a gyönyörű, havas Tokió városa. A kamera a nyüzsgő városi utcán halad, követve több embert, akik élvezik a gyönyörű havas időt és vásárolnak a közeli árusoknál. Gyönyörű cseresznyefa-szirmok szállnak a szélben a hópelyhekkel”.


A filmiparban is aggódnak a mesterséges intelligencia térnyerése miatt is. A hollywoodi forgatókönyvírók részben azért sztrájkoltak tavaly ősszel, mert úgy vélték, hogy a stúdiók hamarosan rajtuk spórolnak majd, hiszen a ChatGPT már képes komplett forgatókönyveket írni. A Sorához hasonló technológiák megjelenésével pedig az aggodalmak fokozódhatnak, hatása a színészektől a vágókon át a látványtervezőkig mindenkire kiterjedhet, átrendezve a terepet az iparágban. Az alábbi trailer a következő utasítás beírásával készült: „Egy 30 éves, piros gyapjúból kötött bukósisakot viselő űrhajós kalandjait bemutató filmelőzetes, kék ég, sós sivatag, filmes stílus, 35 mm-es filmre felvéve, élénk színek.”

Minden második embert becsapják az MI alkotta videók  

A HarrisX piackutató cég nemrég egy online felmérés keretében 1000 amerikai felnőttel tesztelte, hogy képesek-e megkülönböztetni a valódi és a MI által generált videókat, számolt be róla a Variety. A kísérletben a résztvevőknek nyolc videóról kellett megállapítaniuk, hogy azokat az ember vagy az MI alkotta, köztük volt a Sora négy bemutatkozó kisfilmje is. Az eredmények pedig magukért beszélnek:

az emberek csaknem fele minden mesterséges intelligencia által alkotott videónál arra tippelt, hogy azokat hús-vér ember készítette.

A legmeggyőzőbbnek a kaliforniai Big Sur sziklás tengerpartjáról generált képsorokat találták a résztvevők. Az alább megtekinthető videóról tízből hat megkérdezett azt állította, hogy márpedig valódi drónfelvételt lát.


De még a legrosszabbul teljesítő, szintén alább megtekinthető felvétel is átverte a felmérésben résztvevők 44 százalékát. A videót a következő parancs alapján generálta a Sora: „Történelmi felvételek Kaliforniáról az aranyláz idején”.


Az pedig különösen aggasztó képes fest, hogy az igazi emberek által készített anyagok sem szerepeltek jobban a kísérletben: a válaszadók nagyjából fele ezekről sem tudta megmondani, hogy gép vagy ember műve lenne, sőt az egyik videónál a megkérdezettek 36 százaléka hibás választ adott. Miután szembesítették a résztvevőket azzal, hogy a videókat a Sora készítette, megkérdezték őket, mit éreznek. Volt, akiben kíváncsiságot (28 százalék) és érdeklődést (25 százalék) ébresztett, míg másokban bizonytalanságot és szorongást (27, illetve 18 százalék).

Rohamtempóban fejlődik az MI – mi baj lehet?

Tavaly egy adott időpontban, globálisan nagyjából 100 ezer deepfake videó keringett a neten, ötször annyi, mint 2019-ben. A deepfake egy már évek óta létező technológia, amely az MI segítségével hamis tartalmat illeszt általában valamilyen eredeti mozgóképes alapanyagba. Ez többnyire az arc lecserélésével vagy a szájmozgás, illetve a beszéd manipulálásával történik. Ilyen volt az a kamufelvétel, amelyen 

Vlagyimir Putyin orosz elnök békét hirdetett, vagy az a videó, amelyen Zelenszkij ukrán elnök látszólag Ukrajna fegyverletételéről beszélt, nemrég pedig Taylor Swiftről árasztották el a közösségi oldalakat hamis pornóképek. 

A hamisítók kreativitásától függően a deepfake-nek rengeteg fajtája lehet, léteznek a valódihoz megtévesztésig hasonló, csak alapos ellenőrzéssel lebuktatható videók is. A csalók fél óra munkával olyan videókat, hanghívásokat is összeállíthatnak, amelyekkel jóformán bárkit, még a tájékozott internetezőket és szakembereket is könnyen megtéveszthetik. A kiberbűnözők ezzel jelentős károkat tudnak okozni: arra is volt példa pár éve, hogy mintegy 35 millió dollárt tulajdonítottak el egy cég számlájáról az Egyesült Arab Emirátusokban.

Az első és legfontosabb, hogy legyünk kellően körültekintőek, kezeljük fenntartásokkal a látottakat. Gyanakodni kell, ha egy híres ember egy videóban a szöges ellentétét csinálja annak, amit eddig tett: hirtelen más álláspontot kezd képviselni, esetleg megalázó helyzetbe hozza magát, holott soha nem volt jellemző rá.

– magyarázta Bor Olivér kiberbiztonsági szakértő az rtl.hu-nak. Hozzátette, emellett azt tudjuk még tenni, hogy alaposan és jól szemügyre vesszük mind a képeket, mind a videófelvételeket, mind pedig az írásos anyagokat.

Hogyan ismerhető még fel az MI által generált tartalom?

Mi a teendő, ha az interneten találkozunk egy gyanús képpel vagy videóval, és meg szeretnének győződni annak hitelességéről? Hogyan lehet védekezni a manipulált tartalmak, a dezinformáció és a csalások ellen az MI ilyen ütemű fejlődése közepette? Azt lehet mondani, hogy egyre nehezebb dolgunk van, de a megfelelő gondolkodásmóddal és alapos vizsgálattal leleplezhető az MI.  

Ahogy fejlődik a technológia, úgy egyre nehezebb kiszúrni a megtévesztő tartalmakat. Ezért egyetlen fegyverünk marad, ez pedig a kritikus gondolkodás

– hangsúlyozta Bor Olivér. 

A Sora által bemutatott videók többségéről első ránézésre valóban nem könnyű megmondani, hogy ember vagy algoritmus készítette, és az idézett felmérés is azt mutatja, hogy rendesen elbizonytalaníthatja a nézőket. Ugyanakkor 

ha valaki többször megtekinti, megállítgatja, esetleg lassítva vagy ráközelítve nézi meg azokat, akkor látni fogja, hogy valami nem stimmel.

Az MI által generált videóknál gyakori, hogy a személyek arca, egyes testrészei vagy a háttérben lévő objektumok mozgása természetellenes. A homlok, a haj és a nyak is árulkodó lehet, de a száj vagy a szemöldök rendellenes mozgása is utalhat arra, hogy bizony gép műve, amit éppen nézünk. Érdemes figyelni furcsa világításra is, hiszen előfordul, hogy a fényforrások helyzete nem egyezik meg a képen látható árnyékokkal. 

De más bakik is megfigyelhetők. A fent is említett tokiói videónál például látszik, ahogy a bal oldalt haladó sötét jármű egy ponton eltűnik. Ez szembetűnő az alábbi videónál is, amelynél a bal oldali lépcső felé sétáló emberek nekimennek a korlátnak, majd kámforrá válnak.


Az OpenAI is elismeri, hogy az új modellje közel sem tökéletes. A weboldalukon azt írják, hogy a Sora nem tudja pontosan szimulálni a fizikai törvényszerűségeket komplex jeleneteknél, valamint az ok-okozati összefüggések értelmezése is problémát okozhat a modellnek. Példaként említik,

amikor egy legenerált videón egy karakter beleharap egy sütibe, ám azon nem lesz ott a harapásnyom. 

De a térbeli utasításoknál is előfordulhatnak furcsaságok. Előfordulhat, hogy az MI összekeveri a jobb és bal oldalt, valamint meggyűlhet a baja az időben elhúzódó eseményekkel is, mondjuk ha egy adott kamerapályát kell követnie.

A mesterséges intelligencia által generált szövegek felismerésére egyébként már most számos szoftver létezik, ilyen például a GPTZero vagy az Undetectable.ai. A legtöbb MI-érzékelő szolgáltatásért azonban fizetni kell, vagy csak korlátozott terjedelemben képes szövegeket bevizsgálni. Az ingyenes szoftverekkel ráadásul mindig vigyázni kell Bor Olivér szerint. 

Semmi sincs ingyen. Ha nem pénzzel, akkor az adatainkkal fizetünk 

– fogalmazott. 

Az OpenAI is azt ígéri, hogy kifejleszt egy olyan eszközt, ami képes lesz felismerni a Sorával készült videókat. Ha ez is mindenki számára hozzáférhető lesz, akkor a kiberbiztonsági szakértő szerint van okunk szkeptikusnak lenni. „Azért csinálhatja, hogy tovább tudja etetni adatokkal a mesterséges intelligencia gyomrát. Tudni fogja, hogy az adott illető, aki le akarja leplezni az MI által generált képsorokat, az hogyan és mivel szeretné azt elérni” – fejtette ki.

Megregulázható az MI?

A korábban idézett felmérés másik érdekes aspektusa, hogy a válaszadók nagy többsége szerint az Egyesült Államok kormányának olyan szabályozást kellene létrehoznia, amely előírja annak feltüntetését, hogy egy adott tartalmat az MI generált, nem pedig ember. Magyarán fel kéne címkézni, vízjelekkel ellátni minden szöveget, képet, hanganyagot és videót. 

Az Európai Parlament és a Tanács egyébként tavaly év végén ideiglenes megállapodásra jutott a mesterséges intelligenciáról szóló jogszabályról, amely az MI-re vonatkozó első átfogó jogi keret világszinten. Az EU egy úgynevezett kockázatalapú megközelítést alkalmazna: négy kockázati kategóriát állapítanak meg, amelyekbe az alapján sorolnák az egyes technológiákat, hogy azok mekkora potenciális veszélyt jelentenek a felhasználókra. E szerint az általános célú MI-modelleket békén hagynák, de garanciákat kérnének a visszaélések ellen, ennek érdekében korlátoznák a biometrikus azonosítási rendszerek, például az arcfelismerés használatát.

A cégek egyébként egyre inkább odafigyelnek arra, hogy betartsák a törvényeket, és maguk is igyekeznek kordában tartani az MI fantáziáját. Az automatikus szövegellenőrzés elutasítja, ha valaki a felhasználói feltételekbe ütköző tartalmat szeretne generálni – például olyat, amely extrém erőszakot, szexualitást, gyűlöletkeltést tartalmaz, visszaél híres emberek képmásával vagy sértik a szellemi tulajdonukat. Ha például valaki egy képgeneráló szoftverrel szeretne illetlen kontextusban ábrázolni két ismert politikust, akkor azt alapvetően nem fogja engedni. Azonban hiába próbálják a fejlesztők elérni, hogy ne lehessen bárkiről, bármilyen tartalmat előállítani, vannak kiskapuk.

Valamelyest látszatintézkedésnek gondolom. Annyi a kulcs, hogy jól kell kérdezni, megfogalmazni a parancsot. Nem szeretnék tippeket adni az embereknek, de ha valaki picit a mélyére ás és szentel rá időt, akkor könnyű kijátszani

– mondta Bor Olivér. 

A Sorát még hivatalosan nem dobták piacra, jelenleg szakértők bevonásával tesztelik, hogy felmérhessék a lehetséges kockázatokat. „A kiterjedt kutatás és tesztelés ellenére sem tudjuk megjósolni, hogy az emberek milyen előnyös módon fogják használni a technológiánkat, és azt sem, hogy milyen módon fognak visszaélni vele” – közölte az OpenAI a múlt hónapban.

Óvakodjunk a gyanús tartalmaktól

Az általunk megkérdezett kiberbiztonsági szakértő azt tanácsolja, hogy éljünk a forráskeresés lehetőségével: „Ha valaki létrehoz MI segítségével egy adathalász levelet, ami mondjuk egy közműszolgáltató, futárcég vagy akár a Netflix nevében íródik, akkor érdemes megnézni, hogy tényleg vannak-e olyan akciók vagy felhívások, amikre figyelmeztetnek.”

Hozzátette, ne kattintsunk semmilyen linkre a gyanús e-mailből, helyette látogassunk el az eredeti weboldalra és tájékozódjunk. Ha nem vagyunk kellően gyanakvók, akkor nagyon könnyen bedőlhetünk a csalóknak. Bor Olivér azonban megjegyezte, nemcsak a bűnözők aknázzák ki az MI-ben rejlő potenciált, hanem a kibervédelmi szektor is, a legmodernebb vírusírtók már jól használják a mesterséges intelligenciát és a gépi tanulást.

2024 a választások éve, több mint 60 országban tartanak szavazásokat. További aggodalmakra adhat okot, hogy a demokratikus folyamatokba is beleszólhat az MI, lévén a politikai ellenfelek lejáratására könnyen használható lehet, ezt nem nehéz belátni. Hogy valóban bevetik-e a technológiát a kampányok során, azt azonban egyelőre nem tudni.

Ajánló: Nyakunkon a mesterséges intelligencia alkotta politikai reklámok – már magyar párt is próbálkozik a ChatGPT-vel 

Kamu vagy valódi? Tippelje meg, melyik képet generálta az MI

Csatlakozz a Reggeli műsorvezetőinek játékához, és tippeld meg, hogy a videóban szereplő fotókon igazi személyek szerepelnek-e, vagy csak mesterséges intelligencia szüleményei!


Nyitókép: OpenAI

#Tudomány-Tech#openai#mesterséges intelligencia#mi#chatGPT#dezinformáció#ai#álhírek#online csalás#ma

Címlapról ajánljuk