A mesterséges intelligencia (AI) vitájának visszatérő aspektusa - legalábbis a népszerű médiában - az egzisztenciális kockázattól való félelem. Az olyan figurák, mint Stephen Hawking, Elon Musk, Bill Gates és Nick Bostrum a legtöbb megbeszélésen rendszeresen szerepelnek az AI lehetséges sötét oldaláról, nevezetesen, hogy ha az AI bizonyos típusainak fejlődését nem jobban értik és szigorúan ellenőrzik, akkor az emberiség sivárral nézhet szembe jövő.

Az ilyen figyelmeztetéseket általában megerősíti az a tendencia, hogy a mesterséges intelligencia kockázatát más, ugyanolyan félelmetes fenyegetések mellett tekintik, amelyek nukleáris konfliktusokból, globális járványokból vagy akár egy aszteroida által sújtott földből származnak. Mindezek együttesen elfogadhatóak, bár a kockázat számszerűsítése, a valószínűség és a lehetséges megkülönböztetése kevésbé egyértelmű. Mindazonáltal a mögöttes téma az emberiség sebezhetősége, és az AI egyértelműen hozzájárulhat e sebezhetőséghez.

Ezért talán ez az alapvető kérdés: mennyire pontosak ezek az állítások?

Talán tisztában kell lennünk azzal, hogy valójában ki végzi ezeket a kockázatértékeléseket, értékelni kell a rendszert, amelyre épülnek, és figyelembe kell venni a folyamatot formáló hatásokat.

A fent említett személyek a tudós, a kutató és a technikai újítók megfontolt keverékét képviselik. Több mint múló ismeretségük van a témával, és még ennél is lényegesebb, hogy jelentős összegeket fektetnek be a mesterséges intelligencia és a „védelem” területén. Valójában vannak más szakemberek, akik hajlamosak egyetérteni velük.

A súlya ellenére a sürgető egzisztenciális kockázat értékelése kiegyensúlyozatlan lehet. Például a mesterséges intelligencia területén dolgozó szakemberek többsége messze nem járul hozzá a kockázat szisztematikus értékeléséhez, és ha mégis, akkor minden esély megvan arra, hogy az adott kutatási vagy fejlesztési területre lokalizálódjon.

Természetesen vannak más hozzászólók, akik hozzájárulnak ehhez a folyamathoz, talán nem minden technikai háttérrel, de ennek ellenére némi betekintést nyújtanak a kockázat általánosabb értékelésébe. Például a tudományos-fantasztikus közösség évek óta disztópikus mesterséges intelligencia-jövőket hozott számunkra, az Azimov „I Robot” és Arthur C Clark hírhedt „HAL” számítógépétől az Aldous Huxley „Brave New World” -ig, valamint Philip K Dick érző androidokig a „Blade Runner” -ben. . A televízió és a mozi nem elhanyagolható tényezőkkel járó mesterséges intelligencia-kockázatot jelentett számunkra a hírhedt „Terminator” és újabban a „Westworld” révén. Az AI-vel összefüggő egzisztenciális kockázat tudatalattijait gyakran túlértékelik vagy összetévesztik más kapcsolódó kockázatokkal, és az embereknek gyakran nehézséget okoz a tudományos és a fikció megkülönböztetése.

Nem lenne bölcs dolog azonban teljesen figyelmen kívül hagyni az ilyen reprezentációkat, mivel a szépirodalom gyakran betekintést enged a jövőbeni technológiákba, és bepillantást enged azokba.

Hasonló eset állhat fenn a filozófiai és teológiai közösségek kommentátoraival kapcsolatban. Azt hiszem, Aquinói volt az, aki azt mondta, hogy „Csak az Isten teremt”, sőt, a XIII. Századi fráter alkotásának, az intelligenciának és a döntő jelentőségű munkájának felületes vizsgálata, mi alkotja az emberiséget, sok kérdés alapját fogja látni a mai AI-vita során. A modernebb időkben Heidegger írásai a technológia rosszindulatú hatására utaltak, ami számára káros volt az ember „hitelességének”, valamint Hubert Dreyfus, a Berkley akadémikus és filozófus munkájának, aki korán azt állította, hogy az AI hasonló az „Alkímia” -hoz. . Ezenkívül Benedek pápa gyakran kritizálta a technológiát, különösen az élettudományok fejleményeinek fényében, amelyek komolyan eladósodtak az AI-vel, mivel attól tartott, hogy az emberiség maga is veszélyeztetett faj lesz, és a társadalom elragadtatja magát olyan tervezői technológiákkal, amelyek azonnali kielégülésünket szolgálják .

Függetlenül attól, hogy milyen érdemei vannak a kockázatnak való ilyen hozzájárulásnak - és biztosak vagyunk abban, hogy a fentiekhez kapcsolódó írók vagy dramaturgok közül sokan nem látnák magukat ilyennek - vitathatatlanul az a legsürgetőbb kérdés, hogy a kockázatot hogyan értékelik?

Kockázatértékelési rendszerekből nincs hiány, de az AI és az egzisztenciális kockázat szempontjából egyetlen rendszer sem tűnik elsődlegesnek. Ahhoz azonban, hogy az értékelés szilárd legyen - jó vagy rossz szempontból -, léteznie kell valamilyen módszertannak, amelyet az emberek alkalmazhatnak annak érdekében, hogy ésszerű megbecsülést érjenek el. Például hogyan lehet különbséget tenni a fenyegetés és a kockázat között? Milyen eszközökkel határozhatjuk meg az információk érvényességét a „hamis hírek” és a „hamis igazság” korában? Honnan szerezzük be az információinkat?

Biztatást kell nyújtani azok számára, akiket eléggé érdekel a mesterséges intelligencia-kockázat, hogy elkezdhessenek egy konkrét mesterséges intelligencia-kockázatelemzési és -értékelési folyamatot mérlegelni. A strukturáltabb megközelítésnek és a holisztikusabb megközelítésnek nem szabad meghaladnia a társadalmat. A mesterséges intelligenciával kapcsolatos kockázatokra vonatkozó, változatos, de tájékozott megjegyzés átmeneti vizsgálata számos szakterületen kiemeli azokat az előnyöket, amelyek olyan rendszerrel rendelkeznek, amely különbséget tud tenni rövid és hosszú távon, valamint az általános AI és szuper intelligencia között. Ennél is fontosabb, hogy létrehozhatunk-e egy mutató- és figyelmeztető rendszert a kockázat kezeléséhez?

Fontos tudomásul venni azt is, hogy annak ellenére, hogy nincs hivatalos kockázatértékelési eljárás, a társadalomnak joga van aggódni az AI-vel kapcsolatos egyes fejlemények miatt, még akkor is, ha ez kevésbé akut, mint az egzisztenciálisabb figyelmeztetések. Az AI-vel kapcsolatos génszekvenálásban és mutációban rejlő etikai kockázatot nem lehet véletlenül figyelmen kívül hagyni. Az AI-re gyakorolt ​​esetleges hatás globális szinten emberek millióinak foglalkoztatási kilátásaira sem gyakorolható. Valószínűleg a legsürgősebb kockázat a halálos autonóm fegyverrendszerek fejlesztésével jár. Az Egyesült Nemzetek Szervezetében az elmúlt három évben folytatott megbeszélések nem vezették közelebb a nemzetközi közösséget e fegyverek - amelyek közül sok már itt van - tilalmához, és annak a kockázatához, hogy az ilyen fegyvertervezők kihasználják az egyéb csúcstechnológiák fejlesztéseit, mint pl. nanotechnológia, arra késztet minket, hogy mérlegeljük az emberiség jólétére gyakorolt ​​hatásokat.

Mivel a mesterséges intelligencia ígérete megvalósulni látszik, elkerülhetetlenül két versengő vízió jelenik meg az emberiség jövőjéről: Shangri-la-ban vagy a Bábel tornyában élünk? Ha ez utóbbi, akkor most tudnunk kell, hogy elkezdhessük ásni magunkat az egészből. Ezt azonban szigorú és holisztikus kockázatértékelési eljárás nélkül nem tudjuk megtenni.

Ezt az előadást Andrew Dolan tartotta 8. december 2017-án az AI Forum Hungary-n, Budapesten

nyomtatás