Hogyan lehetnek barátaink a robotok?

Ki tehet arról, ha egy ártatlan chatbot mindössze 24 óra leforgása alatt szexistává válik? Hogy történhet meg, hogy egy állásra felvételiztető algoritmus rasszista döntéseket hoz? Hasznos-e az olyan MI-fejlesztés, amely ezrektől veszi el a munkát? A mesterséges intelligencia etikai kérdései nem a jövő, hanem a jelen legégetőbb kérdései – a tudomány viszont még csak keresi a helyes válaszokat.


A mesterséges intelligencia napjainkban már megkerülhetetlen társunk, a jövőre nézve pedig a legígéretesebb technológiai innováció az emberiség történetében. Számtalan gazdasági, technikai és társadalmi problémát segít megoldani, és ahogy tovább fejlődik, várhatóan egyre több területre gyűrűzik be a hatása. Az MI-vel már most is közvetlenül találkozhatunk, amikor irányítja az autónkat, kiporszívózza a szőnyegünket, sakkozik velünk, vagy az ízlésünkre szabottan ajánl nekünk sorozatokat. Ennek a technológiának az alkalmazása azonban minden előnye ellenére olyan etikai dilemmákat vet fel, amelyekre érdemes előre felkészülni, és megoldásokat keresni. Ki a felelős például egy önvezető autó által okozott balesetért? Miként kerülhető el, hogy az MI előítéletessé váljon, és igazságtalan döntéseket hozzon? Hogyan mozogjunk a közösségi platformokon, ha az algoritmusok 0–24 órában valamilyen terméket vagy eszmét akarnak nekünk eladni, és a gyenge pontjainkat lesik? Mit kezdjünk azzal, ha az egyre fejlődő telefonos asszisztensünkkel könnyebb összebarátkozni, mint a kiismerhetetlen hús-vér embertársainkkal, és mihez kezdjünk magunkkal, ha mindent jobban tud, és hatékonyabban végez el nálunk? Nem állítható, hogy az emberiség nem kezdett el időben foglalkozni a témával – legalábbis az elmélet szintjén –, de egyértelmű válaszaink még nincsenek a felmerülő kérdésekre.

Robotok egykor és most

A sci-fi irodalomban már régi toposz a rossz útra tévedt komputer és a teremtője ellen fellázadt robot, ahogy sokat tárgyalt téma az ember és a gép közötti kapcsolat érzelmi jellege, valamint a gépek autonómiája. Nem véletlen, hogy az MI-vel kapcsolatos első irányelvek is egy klasszikus sci-fi író, Isaac Asimov Körbe-körbe című, 1942-ben publikált novellájában láttak napvilágot.

A törvények alapja, hogy a gépek semmiképpen ne árthassanak az embernek, de a gyakorlatban ez a szabály korántsem mindig egyértelmű.

Az MI koncepciója eredetileg az emberihez hasonló, azt leképező intelligencia létrehozására irányuló kísérletet jelentette, az MI azonban egyelőre nem áll azon a szinten, hogy komplex módon meg tudja ítélni egy helyzet ártalmasságát, és minden veszélyt, ami egy embert fenyegethet beleértve a mentális veszélyeket is. Ma a kutatók a fejlettség szempontjából három MI-fokozatot különböztetnek meg. A jelenlegi szakaszban, ahol most járunk, az MI mesterséges szűk intelligenciaként kategorizálható, amely korlátozott hatókörrel és csak meghatározott tevékenységekben alkalmas az emberinél jobb teljesítményt nyújtani. A következő, egyelőre még csak teoretikus kategória az általános MI, amely az emberekhez hasonló, illetve megegyező módon képes környezetének megértésére és a gondolkodásra. A harmadik szintet a mesterséges szuperintelligencia jelenti, amely lényegében minden területen felülmúlja majd az emberi intelligenciát. Dr. Tilesch György, a kaliforniai PHI Institute elnöke, az Omar Hatamlehhel közösen írt Mesterség és intelligencia – Vegyük kezünkbe sorsunkat az MI korában című könyv egyik szerzője szerint egyelőre hatalmas ugrásra vagyunk még az embernél okosabb MI-től, ugyanis azok a fejlesztési vonalak, amelyeket ma látunk, a teljesítményalapú megközelítésből születtek.

Ez még csak a kezdet

Napjainkban az MI kifejezést az adatosztályozás során használt nagy teljesítményű eszközökre is gyakran alkalmazzák, amelyek igen meggyőzőek, de az emberi intelligenciától fényévekre vannak. A kutató szerint azonban érzékelhető, hogy egy új korszak határára értünk, mert látszik a szélesedés ezen a területen. Ahogy dr. Tilesch György meséli, a Deep Blue sakkautomata, amikor 1997-ben legyőzte Kaszparovot, beprogramozottan ismerte az összes történelmileg lejátszott lépéskombinációt. Aztán 2017-ben a Google által fejlesztett AlphaZero neurális hálózat olyan taktikákat kezdett alkalmazni a sakkban, amelyeket ember még soha nem használt, és ezek már valamilyen, az emberétől eltérő, azt meghaladó intelligenciára utaló jelek voltak. Az is megfigyelhető, hogy egyes modellek, amelyeket egy bizonyos feladatra fejlesztettek ki, kevés változtatással felhasználhatók más feladatkör megoldására is. Azokat a modelleket például, amelyeket a COVID kapcsán a gyógyszeriparban a proteinek felépítésének azonosítására használtak, villámgyorsan át lehetett ültetni az akkumulátorfejlesztések területére is.

Fortepan

Szexista chatbot

Már a jelenben is érzékelhetők azok a problémák, amelyeket a technológia fejlődése előrevetít, és meghatározhatják a jövőnket. Az MI nem dolgozik elfogulatlan adatbázisokból: emberek adják meg tanulási célrendszerét, akik öntudatlan kognitív torzításokkal rendelkeznek ezért az algoritmus hordozza, és néha felerősíti az emberi előítéleteket. Kérdéses, hogy jelenlegi formájában képes-e igazságos döntéseket hozni olyan területeken, amelyek közvetlen hatással vannak emberi sorsokra.

Az MI dönthet hitelkérelmekről, az állásra jelentkezőket ma már számos helyen MI szűri meg, és a dolgozók munkateljesítményét is több helyen algoritmusok figyelik. A mostani szűk MI még sokszor előítéletes és igazságtalan. Erre hírhedt példa a chat, amely egy nap alatt szexista és rasszista lett a Twitteren, vagy az Amazon felvételiztető algoritmusa, amely megtanulta, hogy mindenféle állásra a fehér férfi programozókat részesítse előnyben.

A Massachusettsi Műszaki Egyetemen (MIT) folyó Gender Shades projekt keretében pedig kiderült, hogy az arcfelismerő rendszerek az afroamerikaiak esetében sokkal rosszabbul működnek.

Borzasztóan sokan dolgoznak ma azon, hogy az MI kevésbé legyen előítéletes

– mondja dr. Tilesch György.

Világszerte számos startup és tanácsadó cég foglalkozik azzal, hogy egyfajta ellenalgoritmusokkal etikai szempontból vizsgálják át az MI-t felépítő adatokat és a modelleket. Ezek az eszközök elvileg felhívják a figyelmet arra, ha valamilyen előítélettel találkoznak. Az emberi tényezőt azonban szeretik figyelmen kívül hagyni, pedig ezt a kérdést nem lehet csak a technológia oldaláról megközelíteni. A megoldást most még nem tudjuk, valószínűleg tökéletes nem is lesz, de az biztos, hogy sok komponensből áll össze. Azok a cégek, amelyek ezt jelenleg a legjobban csinálják, jól kombinálják a technológiai megoldásokat az emberi látószöggel, és a technológiai fejlesztést a nulladik pillanattól kezdve folyamatosan etikai átvilágításokon viszik át, és akció közben is monitorozzák. Ennek az a hatalmas előnye, hogy nem két év múlva jövünk rá, ha valami hatalmas, kikezelhetetlen etikai probléma alakult ki a rendszerben, amikor már elégett nagyon sok pénz és a vállalat jó hírneve. Az is nehezíti a problémát, hogy egy MI-megoldás soha nincs készen, mert a tanulás képessége miatt az adatbázisok és a működési modellek bármikor képesek meghibásodni vagy összeomlani, vagy éppen sikeres »mérgező« kibertámadások áldozatává válni. Ezért van szükség folyamatos felülvizsgálatra, amit csak előremutató szabályozással lehet elérni. Az MI hatalmas erőt képvisel, olyan, mint egy szilaj csata mén, amelyet folyamatosan kordában kell tartani ahhoz, hogy el ne szabaduljon. Úgyhogy a fő üzenet az, hogy az emberi kontroll és a technológiai megoldások totális házassága hozhatja el a nagyrészt megnyugtató megoldást.

Mesterséges intelligencia a Nagytotál rovatban és más érdekességek a Hamu és Gyémánt magazin tavaszi számában!

Kíváncsi vagy a folytatásra? A teljes cikk a Hamu és Gyémánt aktuális lapszámában olvasható. A magazin megrendelhető és előfizethető közvetlenül a kiadótól és digitális változatban is beszerezhető.

Régi és új – 6 kihagyhatatlan cikket ajánlunk a Hamu és Gyémánt magazinbólMegjelent a Hamu és Gyémánt tavaszi száma!

Szerző: Lengyel Csilla

A figyelmetekbe ajánljuk