2017. december 8. – Dr. Martony Ágnes
I. Előadásomban arra a kérdésre keresem a választ, hogy szükséges lenne-e egy újabb szabályozó hatóság felállítása a mesterséges intelligencia térhódítása következtében.
Előadásom elején ismertetnék néhány olyan esetet, kutatást, amely nagy visszhangot kapott a közelmúltban a brit és az amerikai sajtóban, majd mielőtt levonnám a következtéseket feltennék egy tisztán elméleti kérést, ami talán inkább csak egy megjegyzés, a másik komolyabb átgondolást igényel
Elsőként vegyük sorra azokat a kutatásokat, amelyek jelen előadás alapjául szolgálnak.
II. Az elmúlt hónapok során tehát többször lehetett olvasni a brit és az amerikai sajtóban azokról az eljárásokról, amelyben az arcképfelismerést használták.
Ilyen volt, amikor az egyik kínai metró beléptető rendszerét probláták meg úgy kialakítani, hogy az egyes a közbiztonságra veszélyes egyének már ne is léphessenek be az állomás területére, megelőzendő azt, hogy ott merényletet vagy tömeges balesetet okozzanak.
Ugyanígy olvasni lehetett olyan start up-ok munkájáról is, akik az általuk működtetett arcképfelismerési rendszerükre hivatkozva azt hírdették magukról, hogy meg tudják állapítani ki lehet terrorista vagy pedofil.
A The Times 2017. szeptember 20- számában Steven Arnocky az ontariói Nipissing Egyetem pszihológia tanára által vezetett kutatásról olvashattunk. A kutatás során 145 hallgatót kérdeztek meg szexuális szokásaikról és ezt vizsgálták az arcképeikkel összefüggésben. A kutatás arra a következtetésre jutott, hogy azon személyek, akinek az arca szélesebb volt az átlagosnál (itt a szélesség és a hosszúság arányáról van szó) azon férfiaknak és nőknek nagyobb a szexuális aktivitásuk, mint a vékony vagy vékonyabb arcúaké, hajlamosabbak a félrelépésre illetve a promiszkuitásra. A The Times illusztrációként Wayne Rooney az Evereton angol foci klub játékosának képét tette közzé, azzal a megjegyzéseel, hogy a fenti megállapítás nem csenghet hihetetlenül a szurkolók fülének, hiszen a focista magánéleti botlásai mindeki előtt ismertek.
Hasonlóan kényes témát feszegetett Michal Kosinki and Yilun Wang kutatása Stanford-i egyetemen. Kutatásukban arra kerestek választ vajon az arcképfelismerés technológiájával megállapítható-e nagy valószínűséggel a vizsgált személy szexuális irányultsága. A kutatás alapjául társkereső oldalakra feltett fényképek szolgáltak és ezek alapul vételével született meg a kutatási eredmény. A kutatás ereményét a Journal of Personality and Social Psychology tette közzé.
A gépi arcképfelismerés, a kutatás eredménye az lett, hogy a gép nagy pontossággal állapította meg, mely egyének jelölték magukat az azonos neműekhez vonzódóknak (a gép viszont kisebb pontossággal állapította meg a heteroszexualitást a fényképek vizsgálatakor).
Magyar jogi végzettséggel ezeket a cikkeket olvasva először a megdöbbenés vett rajtam erőt, hogy egyáltalán ilyen összehasonlító vizsgálatokat lehet, szabad végezni. Joghallgatóként az egyik legfontosabb dolog amit megtanítottak nekünk, hogy a külsőségekből, az egyén kinézetéből nem lehet és nem szabad következtetéseket levonni az egyén természetére vonatkozóan, illetve arra nézve, hogy lehet-e bűnöző valaki, viselkedhet-e valamilyen tipusként, amely alapján kategórizálni lehet.
Minden joghallgató megtanulta Cesare Lombroso nevét, aki a XIX. században végzett tanulmányokat arra nézve vajon az emberi arc egyes vonásai tipizálhatóak-e és ennek alapján meg lehet-e valakiről állapítani nagy biztonsággal vagy valószínűséggel, hogy bűnelkövető lesz vagy már az. Tolvajnak születik-e, gyilkosnak esetleg pedofilnak.
Itt jön a személyes megjegyzés: vajon egy olyan világban, amelyben egyre inkább elfogadottabbá válik, hogy az embert semmiféle determináció nem köti – még a nemi identitása sem, az is csak a társadalmi szokások alapján felvett identitás – akkor egy gép arra kapjon lehetőséget, hogy külsődleges jegyek alapján meghatározásokat tehessen: adott esetben kijelentse rólunk, hogy agresszívek vagyunk, esetleg hogy homoszexuálisok vagy pedofilok. Ez csak egy megjegyzés tehát, amin szerintem érdemes elgondolkozni.
III. Ami lélegzet elállító volt számomra az az, hogy a fenti kutatások jellegére, tartalmára, céljára és eredményére tekintettel nem az egyértelmű elutasítás volt a válasz a szakmai-tudományos életen belül, hanem komoly tudományos vita bontakozott ki arról vajon a kutatások eredményei komolyan vehetőek-e vagy sem.
Az ontariói egyetem kutatását véleményező Londoni Univerity College oktatója szerint az arcvonások és a szexuális aktivitás kölcsönhatását kutató vizsgálat eredményét “hihetőnek” lehet elfogadni, hona némi fenntartások azért hangoztathatóak lennének, hiszen kicsi volt a kutatásban részt vevő csoport létszáma.
A másik említett kutatás esetén, ahol az arcképfelismerés eredménye az illető homo vagy heteroszexualitásának megállapítása volt még komolyabb tudományos vita alakult ki. Megfogalmazódott az, hogy az algoritmus figyelemmel volt-e egy “prenatal hormone theory-“nak nevezett (egyesek által vitatott) elméletre, mely szerint a homoszexuális személyeknek gender-atipikus arcvonásaik vannak.
Megfogalmazódott továbbá, hogy a felhasznált képek nem nagy általánosságban képek voltak, hanem egy társkereső oldal képei, melyeknél lehet hogy már a kiválasztásnál eleve olyan képeket posztoltak a társkeresők, amelyek inkább mutattak egyik mint másik irányba. Itt felvetődött az a kérdés (egy privacy issue), vajon kaptak-e a kutatást végzők előzetes felhasználási engedélyt a képek tulajdonosaitól.
Felmerült még, hogy az analizált képek kiválasztásakor nagyobb diverzitásnak kellene érvényesülnie, mind a nemek, mind az etnicitás, mind a kultúrális különbségek tekintetében.
Jelen előadás szempontjából legfajsúlyosabb kérdésként merült fel, hogy sok esetben nem értjük milyen rendszer szerint jön létre az algoritmus által megalkotott vélemény, tehát hogy jobban kellene tanulmányozni a gépek intelligenciáját, hogy megértsük milyen következtetések alaján született a megállapítás.
Az algoritmus, a ‘mesterséges’ idegháló csomópontjai egymással kapcsolatban állnak, interaktívak: nem csak egyszerűen végrehajtanak egy előre betáplált parancsot, hanem egymással kommunikálnak, megosztják az ‘információt’ – ebből kifolyólag nem értjük, érthetjük hogyan születik az általuk hozott döntés. Ez jelentheti azt is, hogy adott esetben a mesterséges intelligencia nem azokat az információkat veszi alapul egy döntés meghozatalakor, amelyekre mi emberek, emberi ésszel, emberi tudással, emberi tapasztalattal, kulturális attitüddel építenénk egy döntést.
Ennél a pontnál észrevételezni kell, hogy egy klinikai tudományos vagy egyetemi kutatást, egy állami pénzből megrendelt kutatást nem lehet csak úgy elvégezni.
A kutatás megkezdése előtt engedélyeztetni kell az engedélyeztető hatóságnál/bizottságnál (Institutional Review Board IRB). Ezek az engedélyezési szabályok több évtizeddel ezelőtt lettek megállapítva, a tudomány akkori állásának megfelelően, arra tekintettel, abból a célból, hogy az ember ne legyen kitéve megalázó vagy etikátlan kisérleteknek.
Ugyanakkor manapság, ha a kutatás kizárólag adatok feldolgozásából áll (big data) és valóságos hús-vér személlyel nem kerül kapcsolatba nagy valószínűséggel nem szükséges hozzá semmilyen előzetes kutatási engedély beszerzése vagy a kutatás témájának, módjának, céljának jóváhagyatása.
Jelenleg a kutatásokat engedélyező bizottságok nem jogosultak számbavenni a kutatás társadalmi hatását. Jelenleg senki sem vizsgálja, hogy az algoritmussal készített kutatások milyen algoritmust használnak, azok mennyire megbízthatóak, milyen adatok kerülnek felhasználásra. Ez nem csak a magánszféra által végzett, hanem a közpénzből fizetett kutatásokra is jellemző.
Mindezt látva már vannak jelek arra, hogy a tisztességtelen kutatást vagy a kutatás tisztességtelen célokra, eredményekre való felhasználását minimalizálják. Egyes esetekben maguk a cégek, amelyek kifejlesztik az algoritmust és azt egy applikációként bocsátja rendelkezésre mondjuk – megkövetelik, hogy a felhasználó előzetesen engedélyeztesse az algoritmus felhasználását. Tehát egy magáncég tart előzetes etikai vizsgálatot saját termékének alkalmazása kapcsán.
Van arra is példa, hogy több magáncég hozott létre ilyen bíráló bizottságot – természetesen ezeknek nincsek kötelező eljárása vagy kötelező döntése, hiszen nem államilag felállított, meghatározott jogkörrel és hatósági jogosítványokkal eljáró szervek.
IV. Zárásként engedjék meg, hogy személyes megjegyzést tegyek. A fenti kutatásokat céljait, eredményeit, az azokra regáló válaszokat és vitákat olvasva, az igazán meglepő az volt számomra, hogy a tudományos élet nem ítélte el egyértelműen az arcképfelismeréssel végzett, az emberi természetre vonatkozó kutatásokat. Azért volt meglepő ez számomra, mert úgy gondolom, hogy ilyen kutatásokat emberek ma nem végezhetnének el a világon nagy valószínűséggel következmények nélkül.
Számomra az látszik, hogy a mesterséges intelligencia egyfajta fetisizációja zajlik. Az, hogy a technológiai haladásnak előnye van minden egyébbel szemben. Az látszik, mintha azt gondolnánk, hogy a gép az emberi előítéletektől mentes, abszolút döntést tudna hozni. Erre tekintettel nincsen vele szemben korlát – olyan morális vagy etikai korlát, amely egy emberek által véghezvitt folyamat esetén beállnának. Kérdés, hogy ez meddig maradhat így?
Köszönöm megtisztelő figyelmüket!
Az előadás az AI Forum Hungary 2017. december 8-án megtartott rendezvényén hangzott el.