white and brown human robot illustration

Bízhatunk a mesterséges intelligenciákban egyáltalán?

Ne vitatkozzunk tovább arról, hogy a mesterséges intelligencia érző-e, a kérdés inkább az, hogy megbízhatunk-e benne. Rossz mesterséges intelligenciáról szóló vitára összpontosítunk.


A mai viták nagy része arról szól, hogy az olyan attribútumokat, mint az érzőképesség, a tudatosság és a személyiség, hozzárendeljük-e a mesterséges intelligenciához. A probléma ezekkel a vitákkal az, hogy olyan fogalmakra összpontosítanak, amelyek homályosan definiáltak, és különböző emberek számára különböző dolgokat jelentenek. A funkcionalisták például azzal érvelhetnek, hogy a neurális hálózatok és a nagy nyelvi modellek tudatosak, mert (legalábbis részben) ugyanazt a fajta viselkedést mutatják, amit egy embertől elvárnánk, még akkor is, ha más szubsztrátumra épülnek. Mások azzal érvelhetnek, hogy a szerves anyag a tudatosság feltétele, és arra a következtetésre juthatnak, hogy a neurális hálózatok soha nem lesznek tudatosak. Belevethetünk érveket a qualia, a kínai szobakísérlet, a Turing-teszt stb. témakörébe, és a vita a végtelenségig folytatódhat.

A gyakorlatiasabb kérdés azonban az, hogy mennyire kompatibilisek a jelenlegi neurális hálózatok az emberi elmével, és mennyire bízhatunk meg bennük kritikus alkalmazásokban? És ez azért fontos vita, mert a nagy nyelvi modelleket többnyire olyan cégek fejlesztik, amelyek kereskedelmi alkalmazásokat kívánnak belőlük készíteni. Például elégséges tréninggel egy csimpánzt is be lehet tanítani arra, hogy autót vezessen. De vajon beültetnéd-e egy olyan útra a kormánykerék mögé, amelyen gyalogosok fognak átkelni? Nem tenné, mert tudja, hogy bármennyire is okosak, a csimpánzok nem úgy gondolkodnak, mint az emberek, és nem lehet rájuk olyan feladatokat bízni, amelyek az emberek biztonságát érintik. Hasonlóképpen, egy papagájt is meg lehet tanítani sok mondatra. De rábíznád, hogy legyen az ügyfélszolgálati ügynököd? Valószínűleg nem.

Még az emberek esetében is előfordul, hogy bizonyos kognitív károsodások kizárják az embereket bizonyos olyan munkakörök és feladatok vállalásából, amelyek emberi interakciókat igényelnek vagy az emberi biztonságot érintik. Sok esetben ezek az emberek tudnak olvasni, írni, folyékonyan beszélni, és hosszú beszélgetésekben is következetesek és logikusak maradnak. Nem kérdőjelezzük meg az érzékenységüket, tudatosságukat vagy személyiségüket. De tudjuk, hogy döntéseik a betegségük miatt következetlenné és kiszámíthatatlanná válhatnak. Az számít, hogy megbízhatunk-e abban, hogy az illető úgy gondolkodik és dönt, ahogy egy átlagos ember tenné. Sok esetben azért bízunk meg emberekre feladatokat, mert tudjuk, hogy az érzékelőrendszerük, a józan eszük, az érzéseik, a céljaik és a jutalmaik többnyire kompatibilisek a miénkkel, még akkor is, ha nem beszélik a nyelvünket. Mit tudunk a LaMDA-ról?

Nos, először is, nem úgy érzékeli a világot, mint mi. A nyelvi tudása nem ugyanolyan tapasztalatokra épül, mint a miénk. A józan tudása instabil alapokra épül, mert nincs garancia arra, hogy a nagy mennyiségű szöveg lefedje mindazt, amit mi kihagyunk a nyelvből. Tekintettel erre az inkompatibilitásra, mennyire bízhatunk a LaMDA-ban és más nagyméretű nyelvi modellekben, függetlenül attól, hogy mennyire jók a szövegkimenet előállításában? Egy barátságos és szórakoztató chatbot program talán nem is rossz ötlet, amíg nem tereli a beszélgetést kényes témákba. A keresőmotorok szintén jó alkalmazási területet jelentenek az LLM-ek számára (a Google néhány éve használja a BERT-et a keresésben). De rájuk lehet-e bízni érzékenyebb feladatokat, például egy nyílt végű ügyfélszolgálati chatbotot vagy egy banki tanácsadót (még akkor is, ha rengeteg releváns beszélgetés átiratán képezték ki vagy finomhangolták őket)?

Alkalmazásspecifikus benchmarkokra lesz szükségünk, hogy teszteljük az LLM-ek konzisztenciáját és az emberi józan ésszel való kompatibilitásukat a különböző területeken. Ha valódi alkalmazásokról van szó, mindig világosan meghatározott határoknak kell lenniük, amelyek meghatározzák, hogy a beszélgetés hol válik tiltottá az LLM számára, és hol kell átadni egy emberi operátornak. Az emberi intelligencia a megfelelő problémák megtalálásáról szól, a mesterséges intelligencia pedig arról, hogy ezeket a problémákat a leghatékonyabb módon oldja meg. Újra és újra láthattuk, hogy a számítógépek képesek rövidítéseket találni a bonyolult problémák megoldására anélkül, hogy elsajátítanák az emberek kognitív képességeit. Láttuk ezt a dámajáték, a sakk, a Go, a programozási versenyek, a fehérjehajtogatás és más jól meghatározott problémák esetében.

A természetes nyelv bizonyos szempontból különbözik, de ugyanakkor hasonlít is az összes többi problémához, amelyet a mesterséges intelligencia megoldott. Egyrészt a transzformátorok és az LLM-ek megmutatták, hogy lenyűgöző eredményeket tudnak produkálni anélkül, hogy végigmennének a normális emberhez hasonló nyelvtanulási folyamaton, ami azt jelenti, hogy először fel kell fedezni a világot és megérteni annak alapvető szabályait, majd el kell sajátítani a nyelvet, hogy ezen a közös tudáson alapuló interakciót folytathassunk más emberekkel. Másrészt hiányzik belőlük a nyelvtanulással járó emberi tapasztalat. Jól körülhatárolt, nyelvvel kapcsolatos problémák megoldására lehetnek hasznosak. De nem szabad elfelejtenünk, hogy az emberi nyelvfeldolgozással való kompatibilitásuk korlátozott, ezért óvatosnak kell lennünk, hogy mennyire bízunk bennük.

(Forrás: TheNextWeb)


A figyelmetekbe ajánljuk