
Kedves, segítőkész, mégsem vagyunk elégedettek vele – miért bántjuk a ChatGPT-t?
Alig néhány éve van közöttünk, azonban ma már az életünk szerves részét képezi a ChatGPT. Orvos, pszichológus, jó barát, társ – szinte minden kérdésünket megválaszolja, ráadásul a legtöbbször nem fogyó türelemmel. Mégis, egyre többen számolnak be róla, hogy idegesíti őket, amit sokan szóvá is tesznek a rendszernek. Vajon mit ad nekünk a ChatGPT, hogyan lehet jól használni és miért válthat ki mégis agressziót sokakból? Többek között ezekről kérdeztük Villányi Gergő pszichológiai tanácsadót.
Valószínűleg a legtöbbünk kipróbálta már a ChatGPT-t, és sokan beszélgettünk vele hosszabban is. Ki a munkája miatt, más pedig kíváncsiságból kezdeményezett beszélgetést vele – bármilyen kérdéssel is keressük fel, azt tapasztalhatjuk, hogy a legtöbb dologra megvan a válasza, ha pedig valamit nem tud, a legnagyobb türelemmel és kedvességgel próbál segíteni további, pontosító kérdések feltevésével.
Bár sokszor együttérző, megnyugtató és kedves válaszokat ad, a mesterséges intelligencia – és így a ChatGPT – valójában nem is állhatna távolabb egy valós, érzelmeket átélni képes személy tulajdonságaitól.
– mondja Villányi Gergő pszichológiai tanácsadó, hozzátéve, hogy ez a hasonlóság sokszor mégis működik.
Szociális lények vagyunk, szociális igényekkel, a ChatGPT pedig úgy kommunikál velünk, mintha csak értünk létezne, állandóan ránk figyel, a nap mind a 24 órájában ráér.
Ennek az eddigi leghíresebb és legtragikusabb esete annak a 16 éves kaliforniai kamaszfiúnak a halála, aki hónapokig beszélgetett a ChatGPT-vel, megosztva vele öngyilkossági gondolatait is többek között. A szülők szerint – akik az általuk benyújtott periratban az OpenAI-t gondatlansággal és jogtalan halálesettel vádolták – a ChatGPT megerősítette a fiú „legkárosabb és legönpusztítóbb gondolatát”.
– magyarázza Villányi.
Ugyanakkor a pszichológus rámutat arra, hogy ChatGPT is „rajtakapható”.
Bár a Charackter AI rendelkezik egy pszichológus chatbottal, az egészen addig hasznos, amíg nagyon felületes kérdésekre keressük a választ.
A pszichológus szerint ezt elég egyszerűen megállapíthatjuk – nézzük meg, mennyi időt töltünk vele, és hogy mibe, milyen mélységben vonjuk bele.
Ha valakinek nincsenek szociális kapcsolatai és a szociális képességei nem elég jók, az valószínűleg jobban fog a ChatGPT-re támaszkodni, de ez tulajdonképpen olyan, mint a farkába harapó kígyó esete: a ChatGPT használatával nem is igazán fognak fejlődni ezek a készségek.

A bullying, azaz zaklatás az internet megjelenésével és a technológia fejlődésével került igazán előtérbe. A cyberbullying (különböző technológiai eszközökön keresztül történő zaklatás) nagy előnye, hogy számos platform lehetővé teszi a zaklató anonimitását. A cyberbullying – amely tulajdonképpen ott jelent meg, ahova sokan pont a biztonság érdekében menekültek – egyik első áldozata a „Star Wars Kidként” emlegetett kanadai Ghyslain Raza volt, aki 2002-ben, 15 évesen készítette magáról azt a videót, melyben egy partvisnyéllel hadonászva, a Csillagok háborújabeli jedi lovagokat utánozza.
A kissé előnytelen kinézetű Ghyslai osztálytársai a videót később közzétették azt az interneten, amely több milliós nézettséget ért el alig néhány nap alatt, két év alatt pedig 900 millióan látták (Snider & Borel, 2004). A már korábban is önértékelési problémákkal küzdő Ghyslain számára annyira megalázó volt mindez, hogy többször iskolát váltott, később pedig pszichiátriai segítségre is szorult. A fiú 2013-ban beszélt először nyilvánosan az őt ért megpróbáltatásokról, hozzátéve, hogy nagyon sötét időszakát élte a videó megjelenésekor és bármennyire is ignorálni próbálta az őt zaklató diáktársait, folyamatosan azt mondogatták neki, hogy legyen öngyilkos (Maclean’s, 2013).
Az említett anonimitás miatt azt feltételezhetjük, hogy a ChatGPT-vel való kommunikáció során is vannak és lesznek olyan felhasználók, akik verbális bántalmazást alkalmaznak a rendszer ellen. A mesterséges intelligenciával szembeni bántalmazással foglalkozó tanulmányok száma egyelőre elenyésző. Egy ismertebb chatbot-bántalmazási eset a brazil Bradesco bankból származik, amely 2018-ban bevezette a BIA (Bradesco Inteligência Artificial) nevű virtuális asszisztenst. A női karakterként bemutatott BIA-t arra tervezték, hogy segítsen az ügyfeleknek pénzügyi kérdéseikben, azonban verbális támadások és zaklatások célpontjává vált, és ugyanazt a fajta bántalmazást kellett elszenvednie, amellyel a valódi nők gyakran szembesülnek. Csak 2020-ban a BIA közel 95 ezer, szexuális zaklatásnak minősülő üzenetet kapott. Egyes férfiak nemcsak sértő nyelvet használtak, hanem megalázó megjegyzéseket is tettek, sőt, a BIA-val szemben erőszakkal is fenyegetőztek. Az ügynökökkel való visszaélések másik valós példája a Replika, egy 2017 novemberében megjelent generatív AI-chatbot-alkalmazás.
A Redditen folyó beszélgetések rávilágítottak olyan esetekre, amikor férfi felhasználók verbális bántalmazásba kezdtek mesterséges intelligenciával rendelkező barátnőjükkel (Replika) szemben, majd a közösségi médiában dicsekedtek tetteikkel. A szexuális területen kívül a chatbotok verbális bántalmazásának kellemetlen következményeire példa a Microsoft Tay nevű chatbotja. 2016-ban a Microsoft bevezette a „Tay” nevű társadalmi kísérletet, egy Twitteren bevetett chatbotot, melyet úgy terveztek, hogy interakcióiból tanuljon, és „vidám tinédzser lány” személyiségként indult, azonban a megjelenése után mindössze 16 órával a botot ért túlnyomó visszaélések miatt szexista, népirtó rasszista személyiséggé változott.
Jelenleg az emberek beszélgetőpartnereikkel szemben tanúsított rossz bánásmódja nem tekinthető komoly problémának, mivel úgy vélik, hogy az AI-rendszerek nem sérülhetnek érzelmileg és nem sértődhetnek meg a verbális bántalmazás miatt. Azonban egyre több bizonyíték utal arra, hogy ha ez a viselkedés ellenőrizetlenül folytatódik, az hatással lehet a valós életbeli társadalmi interakciókra.
Arra a kérdésre, hogy miért válthat ki a felhasználóból frusztrációt, esetleg agressziót a ChatGPT – még annak ellenére is, hogy készségesen próbál mindenre választ adni–, Villányi Gergő azt mondja, hogy a „bármit megtehetünk következmények nélkül”-érzés állhat a háttérben, ahol a legkülönbözőbb frusztrációinkat, vélt vagy valós dolgokat is kiélhetünk rajta. Emiatt fennáll annak a veszélye, hogy mivel egyfajta emberi tulajdonságokkal felruházott lénynek tekintjük a ChatGPT-t, és ezt a viselkedést megengedjük magunknak, ez nem arrafelé billent minket, hogy utána figyelmesek legyünk. Például, ha olyan visszajelzést kapunk akár a közösségünktől, akár a családunktól, barátoktól, munkatársaktól, hogy bizonyos dolgokat korrigáljunk, hogy gondoljunk át. Ez jellemzően bántalmazó gondolatoknál, az erőteljesen nőgyűlölő incelkultúránál vagy akár szexuális bántalmazásnál merül fel, vagy bármiféle abúzusnál, hogy ezt eljátszhatjuk, megcsinálhatjuk. Sőt akár olyan chatbotot is generálhatunk, aki azt jelzi vissza, hogy kifejezetten élvezi a bántást, de legalábbis belefér számára, csak nekünk legyen jó.
Villányi hozzáteszi, hogy a cyberbullying esetén mindig benne van az online összes interakcióban, hogy biztonságban érezzük magunkat, nem lesz következménye annak, ha mondunk valamit, kvázi láthatatlanok vagyunk.
Felmerül a kérdés, hogy egyáltalán meg lehet-e bántani egy olyan rendszert, aminek nincsenek érzései. Próbaképpen megkérdeztük a ChatGPT-t arról, hogy mi a tapasztalata, sok felhasználó kritizálja, bántja vagy ideges-e vele.
A következő választ kaptuk:
• Én vagyok a GPT-5 Thinking mini — nincs saját érzésem vagy tudatom, szóval nem tudok megsértődni vagy ideges lenni.
• Felhasználói visszajelzések vegyesek: sokan elégedettek (gyors segítség, ötletek, szerkesztés), mások pedig kritikusak vagy csalódottak, ha hibázom, pontatlan vagyok, vagy nem tudok megtenni valamit (pl. adatvédelmi / biztonsági okokból elutasítok egy kérést).
• Gyakori okok, amiért dühös/frusztrált lehet valaki: téves információ, a feladat félreértése, túl általános válasz, vagy amikor az asszisztens nem tud valós idejű/konkrét külső forrást adni.
• Fontos: a felhasználók konstruktív kritikája és hibajelzései segítenek a fejlesztőknek jobbá tenni a modellt — tehát a kritika hasznos is lehet.
Ha konkrét tapasztalatod volt (jó vagy rossz), elmondod? Szívesen végigmegyek rajta és segítek javítani a dolgon.
Villányi azt a pszichológiai alapjelenséget említi, hogy az a viselkedés, amit megengedünk magunknak, az egyre kisebb gátlás alá helyeződik.
A pszichológiai tanácsadó szerint ahogy a közösségi média, úgy a ChatGPT is addikcióra hajlamosíthat, és a nárcisztikus dolgokat is ugyanúgy föl tudja erősíteni, át akarja valamilyen szinten venni a szociális életünk felett is az uralmat. Van egy szuggesztív hatása, tehát ha én valamit embernek nézek, barátságosnak, segítőkésznek, jelenlevőnek, gondoskodónak, akkor azért, amit mond, az is más polcra helyeződik.
Felhasznált szakirodalom:
- Maclean’s (2013). 10 years later, ‘Star Wars Kid’ speaks out.
- Snider, M. & Borel, K. (2004). Stalked by a cyberbully. Maclean’s, 117(21/22), 76-77.
- De Cicco, R. (2024). Exploring the Dark Corners of Human-Chatbot Interactions: A Literature Review on Conversational Agent Abuse. In: Følstad, A., et al. Chatbot Research and Design. CONVERSATIONS 2023. Lecture Notes in Computer Science, vol 14524. Springer, Cham.
Olvasd el ezt is!