5 augusztus 2021 - Írta: Andrew Dolan

Ismét itt az évszak, amikor a nemzetközi közösség összeül, hogy megvitassák a halálos autonóm fegyverrendszerek (LAWS) lehetséges hatásait.

Előreláthatólag a kijelölt nemzeti kormányzati szakértői csoportok számos képviselője az ilyen fegyverek elleni tiltást szorgalmazta. Ezt az álláspontot a szokásos civil szervezetek rendszeresen támogatják, és utálják azt az elképzelést, hogy a gépek képesek legyenek élet- vagy haláldöntést hozni az emberi működés irányítása nélkül.  

Bár lehet vitatni, hogy ilyen fegyverek már léteznek, folyamatban van az összehangolt erőfeszítés az opprobrium felhasználására, hogy korlátozza az ilyen fegyverrendszereket. Általánosságban elmondható, hogy a fegyverfejlesztés ilyen tendenciái által leginkább érintett államok azok, amelyek a legkevésbé képesek saját fejlesztésre, vagy másoktól való beszerzésre, még akkor is, ha akarják, ami valószínűtlennek tűnik.

 A korábbi évekhez hasonlóan az ilyen érvek, bár nem etikai vonatkozás nélkül, látszólag nem tudják leküzdeni az ezen államok által felvetett akadályokat, amelyek nem osztják ellenfelük aggodalmát vagy disztópikus elképzelését. Putyin elnök egyszer megjegyezte, hogy a vezető ezen a területen „a világ uralkodója” lesz, és úgy tűnik, hogy olyan országok, mint az USA, az Egyesült Királyság és Franciaország osztják nézetét. Ez a megjegyzés több volt, mint bólintás azoknak az államoknak és műszaki szakértőknek, akik a JOG -ban nagyfokú működési hatékonyságot látnak: az ilyen fegyverek alkalmazása csökkenti a harcban szükséges katonák számát, költséghatékonyabb, nagyobb pontossággal és használatakor a járulékos károk jelentős csökkenéséhez kell vezetni. Úgy tűnik, hogy az ilyen fegyverek inkább támogatják az erőszak tekintetében az „arányosságot”, ezért üdvözlendőnek kell lenni, vagy legalábbis az érvelés.

Ezen ellentétes értékek alapján lehetséges -e valamilyen kompromisszum? Mindkét érv nem tartalmaz fontos etikai tényezőket, amikor az emberi méltóság tiszteletben tartásáról vagy a mértékletességről van szó a modern konfliktusban?

Ha megvizsgáljuk az atomfegyver-politika történetét, akkor kompromisszum és korlátozás lehetséges az új vagy nem hagyományos fegyverrendszerekkel kapcsolatban. Ezek a kompromisszumok nem jelentéktelenek, ha csak az atomfegyver -készletek méretének csökkenését, bizonyos fegyvertípusok, például a neutronbomba vagy a szilárd ellenőrző rendszerek bevezetéséről szóló megállapodások megszüntetését nézzük.

A kritikusok azonban gyakran és gyakran vitatkoznak azzal, hogy az ilyen fegyverek számának csökkenése ellenére megtartották halálosságukat az alkalmazkodás, módosítás és fejlesztés révén, és ennek nagy részét a mesterséges intelligencia fejlődésének tulajdonítják. 

A mesterséges intelligencia közös felfogása szerint összhangban van a jó és jóindulatú célokkal, de ez a perspektíva teljesen figyelmen kívül hagyja a mesterséges intelligencia szélesebb körű alkalmazását a biztonsági szférában.  

Lényegében azonban a TÖRVÉNYEK betiltása melletti érvek valószínűleg elkésték a hajót. A működési hatékonyság erőteljes hajtóereje a katonai ipari komplexumnak, ahonnan ilyen halálos technológiák születnek. A dzsinneket ritkán lehet küzdelem nélkül palackokba tenni, és ez az eset sem lesz kivétel. A LAWS kritikusai technikai hibás számításokra vagy szélhámos alkalmazásokra mutatnak a fegyverrendszerekben, hogy megkérdőjelezzék az ilyen fegyvereket használó politikák hatékonyságát és megbízhatóságát. Joggal emelik ki azt is, hogy a mesterséges intelligencia más fegyvernemekben - különösen a kiberben - történő fejlesztései megnehezíthetik a LAWS telepítések zökkenőmentes működési hatékonyságát. Mindazonáltal ez elég valószínű és időszerű ahhoz, hogy valóban kikényszerítse a JOGI tiltását?

Vitathatatlanul a LAWS kritikusainak még jobban megfelelhet, ha aggályaikat kiterjesztik a hagyományos katonai rendszerekre. Két kulcsfontosságú terület jut eszembe.

Először is a rendőri erők militarizálása és a törvények felhasználása a rendőrség és a rendészeti műveletek támogatására. A drónok, felügyeleti rendszerek fokozott használata, különösen azok, amelyek különböző felismerő vagy nyomkövető rendszereket tartalmaznak, valamint a gépek könnyűfegyver -elkötelezettséget támogató adaptációi, mind áttekintést érdemelnek. Nem kell aggódnunk attól, hogy az AI algoritmusok hogyan járulnak hozzá az emberi méltóságot érintő ilyen jellegű kihíváshoz?

Másodszor, és talán még élesebben, szükség van arra, hogy ösztönözzük a JOG egy másik osztályának, a biológiai anyagnak a visszaszorítását. A közelmúltbeli világjárvány aláhúzta azokat a kockázatokat és kihívásokat, amelyek a közösségek biológiai ágensek hatásaival szembeni védelmével kapcsolatosak. Ha a bűnözés és az élettudományi ismeretek közötti kapcsolat kiéleződik, az AI kétségtelenül kulcsszerepet játszik az egzotikus fegyverek új formáinak kifejlesztésében. Az ilyen kockázattól való félelem arra ösztönözheti a LAWS kritikusait, hogy fontolják meg a lobbikormányokat, hogy erősítsék meg az ellenőrzési rendszereket olyan szervekben, mint a Biológiai Hadviselési Egyezmény (BWC), és nézzék meg újra az AI szerepét.

A TÖRVÉNYEK kritikusai messze nem tévednek, de ha befolyásolni akarják a fejlődést, akkor lehet, hogy már késő. Lehet, hogy a fegyvertípusokra vonatkozó korlátozások vagy plafonok lehetségesek, de ugyanígy az érdeklődésük megerősítése a JOG szélesebb osztálya iránt a nem hagyományos környezetben mélyebb etikai vitát válthat ki a szélesebb közönség számára.


* Javasoljuk az olvasóknak, hogy nézzék meg a kormányzati szakértői csoport 2021 -es üléseit a halálos autonóm fegyverrendszerek területén megjelenő új technológiákról.


nyomtatás