Gyilkos robotokkal vívhatják a háborúkat? – már zajlik az AI-fegyverkezési verseny
2024. július 22. 11:51
A nagyhatalmak és a cégek egyre több pénzt ölnek a mesterségesintelligencia-alapú hadviselésbe. A technológia katonai felhasználása számos etikai kérdést felvet, az pedig hatalmas probléma, hogy a területen nincs semmiféle nemzetközi szabályozás. Az általunk megkérdezett szakértő szerint a hidegháborúhoz hasonló MI-fegyverkezési verseny zajlik, de még korai lenne gyilkos robotokról beszélni. Egy esetleges közvetlen háborút viszont az a nagyhatalom fog megnyerni, amelyiknek hamarabb lesz mesterségesintelligencia-alapú fegyvere.
Az újabb és újabb háborúk, világszerte elmélyülő geopolitikai konfliktusok a mesterségesintelligencia-alapú hadviselés motorjaként és kísérleti terepeként működnek. A terület szakértői pedig már a hidegháborúhoz hasonló fegyverkezési versenyt emlegetnek.
A mesterséges intelligencia (MI) katonai használata számos etikai kérdést is felvet, ennek ellenére a technológia iránti lelkesedés egyre csak nő.
Milyen kérdésekben dönthet majd önállóan a gép a harctéren? Elképzelhető, hogy a mesterséges intelligencia egy nap ölni fog, megszabadítva a gyilkolás felelősségétől az embert? A szakértők szerint az ember még jó ideig nem lesz kihagyható a döntéshozatali láncból, azonban problémát jelent, hogy miközben a védelmi technológiákba áramlik a pénz, még nincsen semmiféle nemzetköz szabályozás, amely korlátozná az autonóm fegyverrendszerek terjedését.
Már Ukrajnában és Izraelben is kísérletezhetnek MI-alapú fegyverekkel
A CNN beszámolója szerint Ukrajna áprilisban mesterséges intelligenciával megtámogatott, robbanóanyagokkal felszerelt drónokkal mért csapást orosz olajfinomítókra, a Bloomberg pedig arról számolt be február végén, hogy a Pentagon algoritmusokat használt a légicsapások célpontjainak azonosítására a Közel-Keleten.
Nagy visszhangja volt az izraeli +972 Magazine és a Local Call nyomozásának is, amely nemrég arra jutott: a terroristák minél hatékonyabb kiiktatása érdekében Izrael egy mesterségesintelligencia-alapú, „Lavender” elnevezésű rendszert használt Gázában. Ezzel könnyebben azonosíthatták a Hamasz potenciális tagjait, a „The Gospel” nevű program pedig épületeket derített fel, mint lehetséges célpontok. A szerzők szerint
annak ellenére vetették be a rendszert, hogy tudták, az esetek mintegy tíz százalékában „hibázik”. Vagyis olyan személyeket jelöl meg, akik csupán laza kapcsolatban állnak a terroristákkal, vagy egyáltalán nincs közük hozzájuk.
A cikkben arról is írtak, az MI segítségével akár 37 ezer lehetséges célpontot azonosíthatott az izraeli hadsereg a gázai háború első heteiben, akiket a program a Hamászhoz vagy a palesztin-iszlám Dzsihádhoz kötött. Az IDF a vádakra úgy reagált, hogy nem használnak olyan rendszert, amely azonosítja a terroristákat, vagy megpróbálja megjósolni, hogy valaki terrorista-e vagy sem.
Hogy pontosan milyen szerepe lehet a mesterséges intelligenciának az izraeli háborúban, azzal a Fókusz is foglalkozott:
Nagy biznisz az MI-alapú fegyvergyártás
Az autonóm fegyverrendszerek évtizedekre nyúlnak vissza, azonban az MI rohamléptékű fejlődése miatt nagy változások küszöbén állhatunk, hiszen a gépek ma már több döntést képesek emberi beavatkozás nélkül meghozni, mint valaha. Az államok és kormányok érdeklődése is növekszik a terület iránt, emiatt egy egyre több pénz öntenek bele – írja hosszú elemzésében a Guardian.
A brit lap összesítése szerint az amerikai hadseregnek összesen több mint 800 aktív, mesterséges intelligenciával kapcsolatos projektje van, a beruházások összértéke pedig csak a 2024-es költségvetésben eléri a 1,8 milliárd dollárt. Pentagon 2025-ig egymilliárd dollárt tervez költeni a Replicator kezdeményezésre, amelynek célja önvezető, pilóta nélküli harci drónok fejlesztésére. Az amerikai légierő májusban végzett is egy virtuális tesztet, hogy kiderüljön, miként teljesíthet egy mesterséges intelligencia által vezérelt harci drón. Az eredmény viszont nem volt valami bíztató, ugyanis
a drón a szimulációban úgy döntött, hogy megöli kezelőjét, nehogy megakadályozza a küldetése sikerét.
A Guardian arról is ír, hogy ezzel párhuzamosan az amerikai légierő pedig hatmilliárd dollárért állítana fel egy 1000 autonóm vadászrepülőgépből álló flottát, a védelmi minisztérium pedig egy olyan MI-alapú eszközt fejleszt, amely a harctéren képes arcfelismerésre és különböző tárgyak azonosítására.
Az adatelemző szoftvereket gyártó, terrorelhárításra szakosodott Palantir pedig májusban 480 millió dolláros szerződés nyert a Pentagontól, hogy létrehozzanak egy mesterséges intelligenciát használó harctéri rendszert, amely képes az ellenséges célpontok azonosítására. Az elsősorban állami megrendelésekből élő cég technológiáját a hírek szerint korábban már a közel-keleti hadműveletekben is bevetette az amerikai hadsereg, de az ukrán erők is használták az eszközeiket.
Etikai aggályok hada
A mesterséges intelligencia katonai használata számos etikai kérdést felvet, ezek miatt április elején aggodalmát fejezte ki az ENSZ főtitkára is. Rebecca Crootof, a Richmond Egyetem jogászprofesszora, az autonóm hadviselés szakértője azt hozza fel példaként, amikor egy önvezető autó hibázik, vagy a sofőrt rossz döntés irányába tereli. „Ha a jármű pillanatokkal a baleset előtt visszaadja az irányítást embernek, ki lesz a hibás?” – teszi fel a kérdést.
Fennáll a veszélye annak, hogy idővel az emberek egyre több döntési jogkört engednek át a gépeknek, akár a frontvonalakon is. Időről időre pedig újból felmerül a sci-fik régóta tárgyalt nagy kérdése: eljöhet-e a „gyilkos robotok” kora, amikor a mesterséges intelligenciával rendelkező gépek emberi közbenjárás nélkül választanak maguknak célpontot, hajtanak végre támadást és ölnek?
Rendkívül aggasztó az a mennyiségű pénz, amit az autonóm fegyverekbe és az MI-alapú célzórendszerekbe öntenek
– mondta Catherine Connolly, a mesterséges intelligencia újfajta fegyverekben való felhasználása ellen küzdő Stop Killer Robots (Állítsuk meg a Gyilkos Robotokat) nevű szervezet kutatási vezetője.
Aktivistáik a Vöröskereszttel együtt már jó ideje követelik az autonóm fegyverrendszerek egyes típusainak betiltását, valamint olyan nemzetközi törvényeket létrejöttét, amelyek korlátozzák a technológia bevethetőségét. Úgy látják, noha a szigorítás indokolt és nemzetközi támogatást élvez, a katonai MI-megoldásokért leginkább felelős országok – Oroszország, Kína, Egyesült Államok, Izrael, India, Dél-Korea és Ausztrália – nem értenek egyet ezzel.
A cégek is szeretnék megúszni a szabályozást
A Palantir vezérigazgatója, Alex Karp korábban többször is Oppenheimerre hivatkozott, azzal érvelve, hogy az Egyesült Államok versenyt fut az idővel Oroszországgal és Kínával az autonóm fegyverek és a mesterséges intelligencia terén.
A BBC-nek adott interjújában jelezte: nem ért egyet a mesterséges intelligencia kutatásának szüneteltetésével, amit a terület szakértői és techguruk is követeltek az emberiségre gyakorolt potenciális kockázatok miatt. Karp szerint jelenleg is a hidegháborúhoz hasonló módon zajlik az MI-fegyverkezési verseny, és ha most lassítanak, akkor hátrányba kerülhet Amerika nemcsak a piacon, hanem a harctéren, az ellenségei ellen is.
Az elmúlt években a Szilícium-völgy techóriásai is egyre nagyobb üzletet látnak a védelmi iparban. 2018-ban etikai és morális aggályok miatt a Google több ezer alkalmazottja kezdett tiltakozásba, amikor kiderült: a vállalat szerződést kötött a Pentagonnal, amely keretében a cég MI-jét használták harci drónfelvételek elemzésére. A Google végül engedett a nyomásnak, és megszakította kapcsolatát a Maven projekttel. Azóta azonban újabb, 1,2 milliárd dolláros szerződést kötött az izraeli hadsereggel felhőalapú MI-szolgáltatásokra. A cég pedig több tucatnyi munkavállalóját rúgta ki, miután az év elején tiltakozás indult az újabb katonai kontraktus ellen.
Még nem jöttek el a gyilkos robotok
Vannak, akik a hadtörténelem első igazi MI-fegyvereként emlegetik, de önmagában ez a megnevezés még lehet, hogy kicsit korai és túlzó – mutatott rá Csiki Varga Tamás biztonság- és védelempolitikai szakértő, az NKE John Lukacs Intézetének tudományos főmunkatársa, amikor az izraeli hadsereg Levander programjáról kérdeztük.
Szerinte azok az alkalmazások, amiket most összekapcsolva, rendszerben használnak, például arcfelismerésre vonatkoznak. A legkülönbözőbb felderítő eszközök, kameraképek, közösségi médiás fotók, ad absurdum meghekkelt mobiltelefonok adataiból dolgoznak. Mint kifejtette, ezeknek a nagyon gyors feldolgozása, amire azt mondjuk, hogy a mesterséges intelligencia általi plusz, de
elképzelhető, hogy ez csak egy „nagyon magas szintű automatizáció”.
Ráadásul itt még mindig csak a célpont azonosításáról van szó, nem arról, hogy a gép dönt a csapásmérésről. A szakértő hozzátette, akik fejlesztik ezeket a magas szinten autonómnak tekinthető fegyvereket, mindig figyelnek arra, hogy legyen lehetőség a beavatkozásra. Magyarán: legyen egy pont, amikor az ember tud dönteni. „Nem hiszem, hogy ezt a nagyon fontos elemet elengedi bármely, a rendszert fejlesztő vagy alkalmazó fél” – mondta.
Nem csak azért, mert nem etikus, hanem mert ha valaki elkezdi, akkor vele szemben is így fognak eljárni. Innentől kezdve pedig ez egy nagyon csúszós lejtő
– figyelmeztet Csiki Varga.
De szerinte más morális dilemmák is felmerülnek, például akkor, amikor egy rendszer bizonytalan. Mondjuk 68 százalékos pontossággal állítja az MI, hogy azt a személyt találta meg, akit likvidálni akarunk, és végül a 32 százalék jön be. Az sem mindegy, milyen környezetben zajlanak a műveletek – erre jó Gáza, ahol a Hamász fegyveresei a civilek közé vegyülnek, így még nehezebb azonosítani a célpontokat.
Atán ott van a másodlagos veszteség kérdése is. Az összes MI és automatizált rendszer azt tudja, amit megtanítanak neki. „Van egy célpontom, azt én azonosítom, meg akarom semmisíteni. Egy hús-vér ember mérlegelheti a csapásmérést, ha a célpont egy óvoda közepén áll, vagy egy buszban utazik, ahol rajta kívül ott van még másik 40 ember. Ha ez gépesítve van, akkor ha programozták, mérlegeli, ha nem, akkor viszont elpusztítja a célpontot a másodlagos veszteséggel együtt” – magyarázta a biztonságpolitikai szakértő.
Csiki Varga Tamás szerint is az látszik a nagyhatalmak és az MI-óriások kommunikációjából, hogy valóban zajlik egy intenzív fegyverkezési verseny. „Ha lesz egy közvetlen nagyhatalmi konfliktus, akkor azt az fogja megnyerni, aki először tudja ezt a mesterségesintelligencia-alapú csapásmérést végrehajtani” – fogalmazott. Hozzátette, reményei szerint ez a fegyverkezés inkább elrettentő jellegű, és a hidegháborús logika érvényesül, ahogy a nukleáris fegyverek esetében is. Az viszont szerinte látható, hogy a fejlett nagyhatalmak és komoly technológiával rendelkező országok a kicsikkel szemben vidáman alkalmaznak mesterséges intelligenciával megtámogatott, vagy valamelyest automatizált csapásmérést, mert ott nem kell félni hasonló válaszcsapástól.
A legnagyobb probléma, hogy a mesterségesintelligencia-alapú hadi rendszerek nemzetközi szabályozása sehol nem tart.
Az NKE főmunkatársa szerint ez két dologra vezethető vissza: egyrészről ez egy teljesen új technológia, a másik ok pedig pont a versengés, vagyis a fejlesztők nem szeretnék a saját kezüket megkötni. „Amíg nem lesz bizonyítottan, több meghatározó szereplőnek ilyen eszköze, eddig lehet, hogy nem is fognak leülni érdemben tárgyalni” – véli Csiki Varga.
A Guardiannak nyilatkozó szakértők szerint, ha a mesterséges intelligencia és az autonóm fegyverrendszerek fejlődése hasonlóan alakul, mint más katonai technológiáké, akkor az is valószínű, hogy használatuk bűnüldöző szervekbe is beszivárog majd. Azonban jó hír is akad: az Európai Unió igyekszik megzabolázni az MI körüli vadnyugatot, a terület iránt pedig hatalmasra nőtt az érdeklődés az elmúlt években, vagyis arra is van remény, hogy a politikai nyomás is növekedni fog a katonai MI-megoldások szabályozására.
Nyitókép (illusztráció): Getty Images