2017. december 8. - Dr. Martony Ágnes 

I. Előadásomban arra a kérdésre keresem a választást, hogy szükséges lenne-e egy újabb szabályozó hatóság felállítása a mesterséges intelligencia térhódítása következtében.

Előadásom elején ismert néhány néhány esetet, kutatást, amely nagy visszhangot kapott a közelmúltban a brit és az amerikai sajtóban, majdnem levonnám a következményekkel érzett egy tisztán elméleti kérést, ami talán csak egy megjegyzés, egy másik komolyabb átgondolást igényel

Elsőként vegyük sorra azokat a kutatásokat, mely jelen előadás alapjául szolgálnak.

II. Az elmúlt hónapok során tehát többször lehet olvasni a brit és az amerikai sajtóban azokról az eljárásokról, amelyek az arcképfelismerést használják.

Ilyen volt, amikor az egyik kínai metró beléptetési rendszer problémája meg úgy alakul, hogy az egyes közbiztonsági veszélyes egyének már nem is léphessenek be az állomás területére, megelőzendő azt, hogy ott merényletet vagy tömeges balesetet okozzanak.

Ugyanígy olvasni lehet olyan start up-ok munkájáról is, akik az általuk működtetett arcképfelismerési rendszerükre hivatkozva azt hírdették magukról, hogy meg tudják állapítani, hogy lehet terrorista vagy pedofil.

A The Times 2017. szeptember 20- számában Steven Arnocky az ontariói Nipissing Egyetem pszihológia tanára által vezetett kutatásról olvashattunk. A kutatás során 145 hallgatót kérdeztek meg szexuális szokásaikról és ezt vizsgálták az arcképzel összefüggésben. A kutatás arra a következtetésre jutott, hogy azon személyek, akinek az arca szélesebb volt az átlagosnál (itt a szélesség és a hosszúság aránya van szó) azon férfiaknak és nőknek nagyobb a szexuális aktivitásuk, mint a vékony vagy vékonyabb arcúaké, a hajlamosabbak a félrelépésre és a ígérem. A The Times illusztrációként Wayne Rooney az Evereton angol foci klub játékosának képét tette közzé, amely megjegyezte, hogy a fenti megállapítást nem csenghet hihetetlenül a szurkolók fülének, mivel a focista magánéleti botlásai mindeki előtt ismerték.

Hasonlóan kényes témát feszegetett Michal Kosinki és Yilun Wang kutatása Stanford-i egyetemen. Kutatásukban arra kerestek választó vajon az arcképfelismerés technológiájával megállapítható-e nagy valószínűséggel a vizsgált személy szexuális irányultsága. A kutatás alapjául társkereső oldalakra feltett fotószolgáltatások és ezek alapul vételével született meg a kutatási eredmény. A kutatás ereményét a Journal of Personality and Social Psychology tette közzé.

A gépi arcképfelismerés, a kutatás eredménye az lett, hogy a gép nagy pontossággal állapította meg, mely egyének jelölték magukat az azonos neműekhez vonzódóknak (a gép másik kisebb pontossággal állapította meg a heteroszexualitást a vizsgálati vizsgálatot).

Magyar jogi végzettséggel ezeket a cikkeket olvasva először megdöbbenés vett rajtam erőt, hogy egy ilyen ilyen összehasonlító vizsgálatot lehet, szabad végezni. Joghallgatóként az egyik legfontosabb dolog, amit megtanítottak nekünk, hogy a külsőségekből, az egyén kinézetéből nem lehet és nem szabad következtetéseket levonni az egyén természetére, akkor is nézni, hogy lehet-e bűnöző valaki, viselkedhet-e valamilyen tipusként, amely alapján kategorizálni lehet.

Minden joghallgató megtanulta Cesare Lombroso nevét, aki a XIX. században végzett tanulmányokat arra nézve vajon az emberi arc egyes vonásai tipizálhatóak-e és ennek alapján meg lehet-e valakit meghatározni nagy biztonsággal vagy valószínűséggel, hogy bűnelkövető lesz vagy már az. Tolvajnak születik-e, gyilkosnak esetleg pedofilnak.

Itt jön a személyes megjegyzés: vajon egy olyan világban, sokkal inkább elfogadottabb változást, hogy az ember semmiféle meghatározása nem köti - még a nemi identitás sem, az csak a társadalmi szokások alapján felvett identitás - akkor egy gép arra kapjon válaszot, hogy külsődleges jegyek alapján meghatározó tehessen: adott esetben kijelölt rólunk, hogy agresszívek vagyunk, esetleg hogy homoszexuálisok vagy pedofilok. Ez csak egy megjegyzés tehát, amin szerint érdemes elgondolkozni.

III. Ami lélegzet elállító volt számomra az az, hogy a fenti kutatások jellegére, tartalmára, céljára és eredményére tekintettel nem az összes elutasítás volt a válasz a szakmai-tudományos életen belül, hanem a tudományos tudományos vita bontakozott ki, amelyről a kutatások eredményei komolyan vehetőek-e vagy sem.

Az ontariói egyetem kutatási véleményező Londoni Univerity College oktatója szerint az arcvonások és a szexuális aktivitás kölcsönhatását kutató vizsgálati eredményekkel „hihetőnek” lehet elfogadni, hona némi fenntartásokat, mert hangoztathatóak lennének, mivel kicsi volt a kutatásban részt vevő csoport létszáma.

A másik említett kutatás esetén, ahol az arcképfelismerés eredményét az illető homo vagy heteroszexualitásának megállapítása jelentette, még komolyabb tudományos vita alakult ki. Megfogalmazódott az, hogy az algoritmus figyelemmel volt-e egy “prenatal hormon theory-“ nak nevezett (egyesek által vitatott) elméletre, mely szerint a homoszexuális személyeknek gender-atipikus arcvonásaik vannak.

Megfogalmazva is, hogy a felhasznált képek nem nagy általánosságban készült képek voltak, hanem egy társkereső oldal képei, amelyeknél lehet, hogy már egy kiválasztásnál eleve olyan képeket tartalmaznak, amelyek társkeresők, inkább mutánsak, mint egy másik irányba. Itt felvetődött az a kérdés (egy privacy issue), vajon kaptak-e a kutatást végzők előzetes felhasználási engedélyével és a képek tulajdonosaitól.

Felmerült még, hogy az elemzett képek kiválasztásával nagyobb diverzitásnak kell érvényesülnie, mind a nemek, mind az etnicitás, mind a kultúrális különbségek között.

Jelen előadás legfelsőbb súlyosabb kérdésként merült fel, hogy sok esetben nem értjük, milyen rendszer szerint jön létre az algoritmus által megalkotott vélemény, tehát hogy jobban kellene tanulmányozni a gép intelligenciáját, hogy megértsük milyen következtetéseket alaján született megállapítás.

Az algoritmus, a 'mesterséges' idegháló csomópontjai egymással összefüggésben, interaktívak: nem csak egyszerûen végrehajtják az elõzõ betáplált parancsot, hanem egymással kommunikálnak, megosztják az 'információkat' - ebből kifolyólag nem értjük, érthetjük, hogyan születnek az általuk hozott döntések. Ez jelentheti azt, hogy adott esetben a mesterséges intelligencia nem azokat az alapvető veszi alapul egy döntést meghozatalakor, akikre mi emberek, emberi és emberi, emberi tudással, emberi tapasztalattal, kulturális attitüddel építenénk egy döntést.

Ennél a pontnál észrevételezni kell, hogy egy klinikai tudományos vagy egyetemi kutatást, egy állami pénzből megrendelt kutatást nem lehet csak úgy végre.

A kutatás megkezdése előtt engedélyeztetni kell az engedélyeztető hatóságnál / bizottságnál (Institutional Review Board IRB). Ezek az engedélyezési szabályok több évtizeddel ezelőtt lettek meghatározva, a tudomány akkori állásának megfelelően, arra nézve, abból a célból, hogy az ember ne legyen kitéve megalázó vagy etikátlan kisérleteknek.

Ugyanakkor manapság, ha a kutatás személyes adatainak feldolgozása már létezik (big data) és valóság hús-vér személlyel nem kerül kapcsolatba nagy valószínűséggel nem szükséges hozzá semmilyen előzetes kutatási engedély beszerzéséhez vagy a kutatás témájának, módjának, céljának jóváhagyásához.

Jelenleg a kutatásokat engedélyező bizottságok nem jogosultak számbavenni a kutatás társadalmi hatását. Jelenleg senki sem vizsgálja, hogy az algoritmussal készített kutatások milyen algoritmust használnak, azok mennyire megbízhatóak, milyen adatok kerülnek felhasználásra. Ez nem csak a magánszféra által végzett, hanem a közpénzből fizetett kutatásokra jellemző.

Mindezt látva már vannak jelek arra, hogy a tisztességtelen kutatást vagy a kutatás tisztességtelen célját, eredményesen való felhasználását minimalizálják. Az egyes esetekben maguknak a cégeknek, amelyek kifejlesztik az algoritmust és azt az alkalmazást, mint amilyen a kibocsátás elérhető mondjuk - megkövetelik, hogy a felhasználó előzetesen engedélyezze az algoritmus felhasználását. Tehát egy magáncég tart előzetes etikai vizsgálatot saját termékének alkalmazása kapcsán.

Van arra példa, hogy több magáncég hozta létre ezt a bíráló bizottságot - ezeknek az ügyeknek nincs szükség kötelező eljárásra vagy kötelező döntésre, mivel nem államilag felállított, meghatározott jogkörrel és hatósági jogosítványokkal rendelkező szervekkel rendelkezik.

IV. Zárásként engedjék meg, hogy személyes megjegyzést tegyek. A fenti kutatásokat megcélzó, eredményes, az azokra válaszoló válaszokat és vitákat olvasva, az igazán meglepő az volt számot, hogy a tudományos élet nem ítélte meg az embereket az arcképfelismeréssel végzett, az emberi természetre vonatkozó kutatásokat. Azért volt meglepő ez számomra, mert úgy gondolom, hogy ilyen kutatásokat emberek ma nem végezhet el a világon nagy valószínűséggel következmények nélkül.

Számomra az látszik, hogy a mesterséges intelligencia egyfajta fetisizációja zajlik. Az, hogy a technológiai haladásnak előnye van minden egyébbel szemben. Az látszik, mintha azt gondolnánk, hogy a gép az emberi előítéletektől mentes, abszolút döntést tudna hozni. Erre tekintettel nincs vele szemben korlát - olyan morális vagy etikai korlát, amely egy ember által véghezvitt folyamat esetén beállította. Kérdés, hogy ez meddig maradhat így?

Köszönöm megtisztelő figyelmüket!

Az előadás az AI Forum Hungary 2017. december 8-án megtartott rendezvényen hangzott el.

nyomtatás