Külföld

Az AI-vezérelt gyilkos fegyverek összehozták Amerikát, Kínát és Oroszországot

Kovács IstvánKovács István

2023. december 9. 11:14

Ismerik azt, amikor az Egyesült Államok, Kína és Oroszország egyetért? Tényleg van ilyen, és ráadásul nem vicc, véresen komoly témában sikerült egy platformra jutniuk a nagyhatalmaknak: együtt küzdenek azért, hogy szabályozatlanul maradjon a mesterséges intelligencia vezérelte gyilkos fegyverek használata. Az ellenérdekelt kisebb nemzetek viszont attól tartanak, hogy szabályok nélkül pillanatok alatt elérhetővé válik a halálos technológia.

Több ország is azt követeli az ENSZ-től, hogy jogilag korlátozzák a mesterséges intelligencia által irányított robothadviselést – írja a New York Times. Bár első látásra úgy tűnik, a félelmek a sci-fi világát idézik, rajokban támadó robotok és önállóan vadászó drónok képei sejlenek fel mögöttük, mindez könnyen valósággá válhat, az Egyesült Államok és Kína is pörgeti az ilyen irányú fejlesztéseit.

Az ilyen kilátások miatt akarnak jogilag kötelező érvényű szabályokat előírni a halálos autonóm fegyverek használatára vonatkozóan, jelenleg egy genfi székhelyű bizottság vizsgálja a kérdést.

„Ez az emberiség történetének egyik legjelentősebb fordulópontja” – Alexander Kmentt, Ausztria főtárgyalója egyenesen így látja ezt a kérdést. „Mi az ember szerepe az erő alkalmazásában? – ez a legalapvetőbb biztonsági, jogi és etikai kérdés.” Az előterjesztésekből meddő jogi vita lett, és most ott tartanak a felek, hogy kicsi az esély a közeli előrelépésre. Az Egyesült Államok, Oroszország, Ausztrália, Izrael és mások mind azzal érveltek, hogy 

nincs szükség új nemzetközi jogszabályra, amíg Kína olyan szűken akarja meghatározni a jogi korlátozást, hogy annak gyakorlatilag alig lenne hatása.

Az oroszok azt mondták, szerintük nincs itt az ideje egy ilyen megállapodásnak. Joshua Dorosin, az USA külügyminisztériumának nemzetközi megállapodásokért felelős vezetője, illetve a Pentagon tárgyalói pedig azzal érvelnek, hogy egy új nemzetközi jogszabály helyett az ENSZ-nek azt kellene figyelembe vennie, hogy a meglévő emberi jogi törvények már most is tiltják a tagállamoknak, hogy olyan fegyvereket használjanak, amelyek civileket céloznak, vagy aránytalanul nagy kárt okoznak nekik.

Érdekes, hogy az Egyesült Államok, Oroszország és Kína is hasonló érveket hangoztat az AI-fegyverekről szóló vitában, sőt az orosz diplomata ki is jelentette, hogy támogatja az USA álláspontját.

Az AI-vezérelt gyilkos fegyverek összehozták Amerikát, Kínát és Oroszországot
Fotó: Youtube

Mindhárom nagyhatalom azzal érvelt, hogy a mesterséges intelligencia bevetése, az autonóm fegyverek előnyökkel járhatnak a polgári áldozatok és a szükségtelen fizikai károk csökkentése révén. Az amerikai delegáció érvelése szerint

az intelligens fegyverek, amelyek számítógépeket és autonóm funkciókat használnak az erő pontosabb és hatékonyabb bevetésére, bizonyítottan csökkentik a polgári lakosság és a polgári objektumok sérülésének kockázatát.

A nagyhatalmi álláspont azonban csak fokozta a kisebb nemzetek aggodalmát, akik tartanak tőle, hogy a halálos autonóm fegyverek általánossá válhatnak a harctéren, még mielőtt bármilyen megállapodás születne a használatukra vonatkozó szabályokról.

Önjáró gyilkos drónok

De konkrétan mitől félnek ezek az országok? Eddig a drónokat általában emberek irányították a küldetések során, jelenleg azonban olyan AI-alapú szoftverek fejlesztése folyik, amelyek lehetővé teszik, hogy a drónok önállóan célpontokat találjanak, és likvidálják azokat. Az ukrajnai háborúban például a drónok ellen elektronikus zavarással lehet védekezni, viszont ha egy AI irányítja az eszközt, ez a fajta védelem totálisan felesleges lesz, mert nem lehet elválasztani az irányítót a dróntól, ami önállóan teszi a dolgát.

Kathleen Hicks védelmiminiszter-helyettes idén nyáron jelentette be, hogy az amerikai hadsereg az elkövetkező két évben többezres nagyságrendű harcképes autonóm rendszereket épít fel. Arra hivatkozott, hogy a kínai fejlesztésekkel versenyre kell kelniük, valamint hogy az autonóm eszközök jóval olcsóbbak, mint a már rendszerbe állított, ember által vezérelt repülők. 

Jelenleg is épp egy Kína elleni, mesterséges intelligencián alapuló elrettentő erőt tesztel az amerikai légierő. Az új harcászati elv szerint egy vadászgép pilótája egy egész rajnyi AI-vezérelt lopakodó drónnal fog elindulni teljesíteni a feladatát. A Valkűr névre keresztelt drónok egyik feladata lesz, hogy a mesterséges intelligencia és az érzékelőik segítségével felismerjék az ellenséges fenyegetéseket, majd ölni induljanak.

Az Egyesült Államok már bevezetett olyan irányelveket, amelyek korlátokat szabnak a mesterséges intelligencia és a halálos autonóm fegyverek használatának. 

  • A Pentagon tiltja bármilyen új autonóm fegyver használatát, sőt még a fejlesztését is – hacsak a védelmi minisztérium vezetői nem hagyták jóvá.
  • Azt is előírják, hogy ilyen fegyvereket meghatározott földrajzi területen, korlátozott ideig lehet működtetni. 
  • És ha a fegyvereket mesterséges intelligencia irányítja, a katonai személyzetnek meg kell őriznie „a képességet arra, hogy kikapcsolja vagy deaktiválja azokat a telepített rendszereket, amelyek nem szándékos viselkedést mutatnak”. 

Ugyanakkor a légierő vezetői már arról is beszéltek, hogy „kezdetben” emberi jóváhagyásra is szükség lesz az akciókban – ami nem túl megnyugtató, mert azt jelenti, hogy eljönnek azok az idők, amikor már önállóan döntenek a szoftverek. Frank Kendall, az amerikai légierőért felelős miniszter egy interjúban azt mondta, ezeknek a gépeknek rendelkezniük kell azzal a képességgel, hogy önállóan is halálos akciót hajtsanak végre, miközben emberi felügyelet alatt kell maradniuk a bevetésük módját illetően. 

A döntések és a döntések elmaradása között a különbség annyi, mint a győzelem és a vereség között, és nem fogunk veszíteni


– mondta. Hozzátette: „Nem hiszem, hogy azok, akikkel szemben állunk, korlátoznák magukat” – vagyis máris katalizátorként működik a félelem attól, amit a másik oldal megtenne.

Thomas X. Hammes nyugalmazott tengerészgyalogos tiszt, aki jelenleg a Pentagon Nemzetvédelmi Egyetemének kutatója, azt mondta, „erkölcsi kötelesség, hogy az Egyesült Államok és más demokratikus nemzetek autonóm fegyvereket építsenek és használjanak”. Azzal érvelt, hogy „ennek elmulasztása egy nagyobb hagyományos konfliktusban sok halálos áldozatot követelne”, ráadásul veszítenének a háborúban.

Megszűnik az ember erkölcsi felelőssége?

A fegyverzetellenőrzést szorgalmazó civilek és diplomaták nem értenek ezzel egyet, úgy vélik, az AI-vezérelt halálos fegyverek, amelyeknél nem az ember engedélyezi az egyes csapásokat, átalakítják a hadviselés természetét, mivel megszűnik az ember közvetlen erkölcsi felelőssége az élet kioltásáról szóló döntésekben. Emellett azzal érvelnek, hogy könnyebben eszkalálódhatnak a konfliktusok, ha nem kell saját katonákat bevetni.


Mindenesetre most az ENSZ-nél pattog a labda, ám a szervezet, mint az korábban már többször kiderült, gyakorlatilag tehetetlen a nagyhatalmakkal szemben a BT-tagok vétója miatt (lásd az Ukrajnára támadó Oroszország esetét).

Az osztrák főtárgyaló is elismerte, hogy az ENSZ-nek a már meglévő szerződések betartatásával is vannak gondjai, ennek ellenére úgy gondolja, hogy szükség van egy új, jogilag kötelező érvényű szabvány megalkotására az autonóm rendszerek esetében. „Attól, hogy mindig is lesznek gyilkosságok, még szükség van jogszabályokra, amelyek tiltják az emberölést. Jelenleg ez az egész terület teljesen szabályozatlan” – érvelt.

Végül abban maradtak, hogy a genfi bizottság 2025 végéig ad magának időt a téma további tanulmányozására. Kmentt ugyanakkor attól tart, ha túl sokáig várnak, azt nagyon meg fogjuk bánni, mivel szerinte hamar olcsón hozzáférhetővé válnak ezek a rendszerek lesz, és a végén mindenhol ott lesznek. 

Az emberek akkor azt fogják kérdezni, hogy miért nem cselekedtünk elég gyorsan, miért nem szorítottuk korlátok közé, amikor még volt rá lehetőségünk?

Nyitókép: John Keeble/Getty Images

#Külföld#mesterséges intelligencia#ai#ensz#valkűr#drón#egyesült államok#oroszország#kína#ma#fegyver#háború

Címlapról ajánljuk