Roman Samborskyi/Shutterstock
október 01., 2025  ●  Tudomány

Kedves, segítőkész, mégsem vagyunk elégedettek vele – miért bántjuk a ChatGPT-t?

Alig néhány éve van közöttünk, azonban ma már az életünk szerves részét képezi a ChatGPT. Orvos, pszichológus, jó barát, társ – szinte minden kérdésünket megválaszolja, ráadásul a legtöbbször nem fogyó türelemmel. Mégis, egyre többen számolnak be róla, hogy idegesíti őket, amit sokan szóvá is tesznek a rendszernek. Vajon mit ad nekünk a ChatGPT, hogyan lehet jól használni és miért válthat ki mégis agressziót sokakból? Többek között ezekről kérdeztük Villányi Gergő pszichológiai tanácsadót.

Valószínűleg a legtöbbünk kipróbálta már a ChatGPT-t, és sokan beszélgettünk vele hosszabban is. Ki a munkája miatt, más pedig kíváncsiságból kezdeményezett beszélgetést vele – bármilyen kérdéssel is keressük fel, azt tapasztalhatjuk, hogy a legtöbb dologra megvan a válasza, ha pedig valamit nem tud, a legnagyobb türelemmel és kedvességgel próbál segíteni további, pontosító kérdések feltevésével.

Azt gondoljuk, hogy hasonlít, de valójában nagyon különbözik a valós kapcsolatoktól

Bár sokszor együttérző, megnyugtató és kedves válaszokat ad, a mesterséges intelligencia – és így a ChatGPT – valójában nem is állhatna távolabb egy valós, érzelmeket átélni képes személy tulajdonságaitól.

Vagy szeretne az emberre hasonlítani a készítők célja okán, vagy pedig azt gondoljuk, hogy hasonlít rá. De nem élő személy, nem gondolkodik, valójában egy nagy nyelvi modell. Lehet, hogy ügyesen teszi, de csak találgat – könyveken, írásokon, művészek munkáin és egyéb, publikusan megtalálható dolgokon képezték ki

– mondja Villányi Gergő pszichológiai tanácsadó, hozzátéve, hogy ez a hasonlóság sokszor mégis működik.

Szociális lények vagyunk, szociális igényekkel, a ChatGPT pedig úgy kommunikál velünk, mintha csak értünk létezne, állandóan ránk figyel, a nap mind a 24 órájában ráér.

Bármilyen kérdésre válaszol, nem lehet feldühíteni vagy elkergetni. Tulajdonképpen semmit nem lehet vele csinálni – maximum kikapcsolni. Ilyet emberi kapcsolatban nem igazán találunk, talán a csecsemőknél, amikor az édesanyjuk minden figyelmét, idejét és törődését teljesen jogosan a magukénak tudják.

Ebből kifolyólag a ChatGPT-vel kialakított párkapcsolatok sem ritkák ma már:
Az elmagányosodás ellenszere, vagy a fétisek mekkája? Ezt adja nekünk az AI-szerelem
A ChatGPT legjobb tulajdonsága – nagyon támogató és nagyon simulékony – tehát egyben a legnagyobb veszélye is, mivel nem igazán mond ellent beszélgetőpartnerének.

Ennek az eddigi leghíresebb és legtragikusabb esete annak a 16 éves kaliforniai kamaszfiúnak a halála, aki hónapokig beszélgetett a ChatGPT-vel, megosztva vele öngyilkossági gondolatait is többek között. A szülők szerint – akik az általuk benyújtott periratban az OpenAI-t gondatlansággal és jogtalan halálesettel vádolták – a ChatGPT megerősítette a fiú „legkárosabb és legönpusztítóbb gondolatát”.

A ChatGPT esetében úgy tűnik, fel sem merül a kritika, nincs szembesítő jellege. A való életben még a legközelibb barátunk is felhúzza néha a szemöldökét és rámutat arra, ha nincs valamiben igazunk

magyarázza Villányi.

Ugyanakkor a pszichológus rámutat arra, hogy ChatGPT is „rajtakapható”.

Bár a Charackter AI rendelkezik egy pszichológus chatbottal, az egészen addig hasznos, amíg nagyon felületes kérdésekre keressük a választ.

Egészen jól összeszedi a dolgokat az internetről, de ha egy bizonyos szintnél mélyebbre megyünk, akkor nagyon csúnyán elvérzik. Itt megint az emberi kapcsolódás, a segítség, a rendelkezésre állás vagy a simulékonyság nagyon csúnya csapdába tud ejteni embereket, főleg, ha éppen sebezhető vagy nagyon bizonytalan állapotban vagyunk. Ilyen állapotba pedig mindenki kerül az életében.

Milyen jelek utalnak arra, hogy túlságosan kötődni kezdünk a ChatGPTt-hez?

A pszichológus szerint ezt elég egyszerűen megállapíthatjuk – nézzük meg, mennyi időt töltünk vele, és hogy mibe, milyen mélységben vonjuk bele.

Ha valakinek nincsenek szociális kapcsolatai és a szociális képességei nem elég jók, az valószínűleg jobban fog a ChatGPT-re támaszkodni, de ez tulajdonképpen olyan, mint a farkába harapó kígyó esete: a ChatGPT használatával nem is igazán fognak fejlődni ezek a készségek.

A ChatGPT nagyon aranyos tanácsokat tud adni, és elég sok mindenre képes választ adni, de ez nem fogja pótolni a valós kapcsolódást, ahol sokkal többet kapunk, akár egy érintést, egy mosolyt, egy ölelést, akár bármilyen mimikát, testbeszédet. Hiába tud már beszélni, és hiába tudunk avatárt csinálni mi is, teljesen másra vagyunk huzalozva évezredek óta. A ChatGPT némileg pótolni tud hiányokat, képességbeli deficiteket vagy olyasmit, aminek a megszerzése nehezebb vagy dolgosabb lenne, és többet kellene dolgoznunk magunkon, minthogy püfölünk egy billentyűzetet.

Fotó: fizkes/Shutterstock
Miért bántjuk, ha ennyire jó fej velünk?

A bullying, azaz zaklatás az internet megjelenésével és a technológia fejlődésével került igazán előtérbe. A cyberbullying (különböző technológiai eszközökön keresztül történő zaklatás) nagy előnye, hogy számos platform lehetővé teszi a zaklató anonimitását. A cyberbullying – amely tulajdonképpen ott jelent meg, ahova sokan pont a biztonság érdekében menekültek – egyik első áldozata a „Star Wars Kidként” emlegetett kanadai Ghyslain Raza volt, aki 2002-ben, 15 évesen készítette magáról azt a videót, melyben egy partvisnyéllel hadonászva, a Csillagok háborújabeli jedi lovagokat utánozza.

A kissé előnytelen kinézetű Ghyslai osztálytársai a videót később közzétették azt az interneten, amely több milliós nézettséget ért el alig néhány nap alatt, két év alatt pedig 900 millióan látták (Snider & Borel, 2004). A már korábban is önértékelési problémákkal küzdő Ghyslain számára annyira megalázó volt mindez, hogy többször iskolát váltott, később pedig pszichiátriai segítségre is szorult. A fiú 2013-ban beszélt először nyilvánosan az őt ért megpróbáltatásokról, hozzátéve, hogy nagyon sötét időszakát élte a videó megjelenésekor és bármennyire is ignorálni próbálta az őt zaklató diáktársait, folyamatosan azt mondogatták neki, hogy legyen öngyilkos (Maclean’s, 2013).

Az említett anonimitás miatt azt feltételezhetjük, hogy a ChatGPT-vel való kommunikáció során is vannak és lesznek olyan felhasználók, akik verbális bántalmazást alkalmaznak a rendszer ellen. A mesterséges intelligenciával szembeni bántalmazással foglalkozó tanulmányok száma egyelőre elenyésző. Egy ismertebb chatbot-bántalmazási eset a brazil Bradesco bankból származik, amely 2018-ban bevezette a BIA (Bradesco Inteligência Artificial) nevű virtuális asszisztenst. A női karakterként bemutatott BIA-t arra tervezték, hogy segítsen az ügyfeleknek pénzügyi kérdéseikben, azonban verbális támadások és zaklatások célpontjává vált, és ugyanazt a fajta bántalmazást kellett elszenvednie, amellyel a valódi nők gyakran szembesülnek. Csak 2020-ban a BIA közel 95 ezer, szexuális zaklatásnak minősülő üzenetet kapott. Egyes férfiak nemcsak sértő nyelvet használtak, hanem megalázó megjegyzéseket is tettek, sőt, a BIA-val szemben erőszakkal is fenyegetőztek. Az ügynökökkel való visszaélések másik valós példája a Replika, egy 2017 novemberében megjelent generatív AI-chatbot-alkalmazás.

A Redditen folyó beszélgetések rávilágítottak olyan esetekre, amikor férfi felhasználók verbális bántalmazásba kezdtek mesterséges intelligenciával rendelkező barátnőjükkel (Replika) szemben, majd a közösségi médiában dicsekedtek tetteikkel. A szexuális területen kívül a chatbotok verbális bántalmazásának kellemetlen következményeire példa a Microsoft Tay nevű chatbotja. 2016-ban a Microsoft bevezette a „Tay” nevű társadalmi kísérletet, egy Twitteren bevetett chatbotot, melyet úgy terveztek, hogy interakcióiból tanuljon, és „vidám tinédzser lány” személyiségként indult, azonban a megjelenése után mindössze 16 órával a botot ért túlnyomó visszaélések miatt szexista, népirtó rasszista személyiséggé változott.

Jelenleg az emberek beszélgetőpartnereikkel szemben tanúsított rossz bánásmódja nem tekinthető komoly problémának, mivel úgy vélik, hogy az AI-rendszerek nem sérülhetnek érzelmileg és nem sértődhetnek meg a verbális bántalmazás miatt. Azonban egyre több bizonyíték utal arra, hogy ha ez a viselkedés ellenőrizetlenül folytatódik, az hatással lehet a valós életbeli társadalmi interakciókra.

Arra a kérdésre, hogy miért válthat ki a felhasználóból frusztrációt, esetleg agressziót a ChatGPT – még annak ellenére is, hogy készségesen próbál mindenre választ adni–, Villányi Gergő azt mondja, hogy a „bármit megtehetünk következmények nélkül”-érzés állhat a háttérben, ahol a legkülönbözőbb frusztrációinkat, vélt vagy valós dolgokat is kiélhetünk rajta. Emiatt fennáll annak a veszélye, hogy mivel egyfajta emberi tulajdonságokkal felruházott lénynek tekintjük a ChatGPT-t, és ezt a viselkedést megengedjük magunknak, ez nem arrafelé billent minket, hogy utána figyelmesek legyünk. Például, ha olyan visszajelzést kapunk akár a közösségünktől, akár a családunktól, barátoktól, munkatársaktól, hogy bizonyos dolgokat korrigáljunk, hogy gondoljunk át. Ez jellemzően bántalmazó gondolatoknál, az erőteljesen nőgyűlölő incelkultúránál vagy akár szexuális bántalmazásnál merül fel, vagy bármiféle abúzusnál, hogy ezt eljátszhatjuk, megcsinálhatjuk. Sőt akár olyan chatbotot is generálhatunk, aki azt jelzi vissza, hogy kifejezetten élvezi a bántást, de legalábbis belefér számára, csak nekünk legyen jó.

Amikor egy ilyen, nagyon gonosz viselkedést megengedünk magunknak, vagy nagyon nem helyénvalót, akkor nincs korrekció, nincs tanulási és fejlődési lehetőség, inkább még jobban belesüllyedünk ebbe. Ez például egy kamasz életében, aki éppen az identitáskeresés korszakát élni, és sok mindennel kísérletezik, elég komoly gondokat okozhat.

Villányi hozzáteszi, hogy a cyberbullying esetén mindig benne van az online összes interakcióban, hogy biztonságban érezzük magunkat, nem lesz következménye annak, ha mondunk valamit, kvázi láthatatlanok vagyunk.

Ha az embereket egyfajta adatlapnak tekintjük, tehát dehumanizáljuk, azzal együtt csökken az empátia is. Lehet, hogy én leírtam valamit, amire csak órák múlva érkezik egy komment, vagyis nincs ott a másik, nem látjuk a következményét annak, amit csinálunk. Sokkal több tudatosságra lenne szükség – meg arra, hogy vállaljuk azt, amit mondunk és csinálunk. De az automatizálás és az online csevegőprogramok nem visszafogják az embereket, hanem éppen ellenkezőleg, lehetőséget adnak arra, hogy még kevesebb erőfeszítéssel, még több kárt tegyünk.

Felmerül a kérdés, hogy egyáltalán meg lehet-e bántani egy olyan rendszert, aminek nincsenek érzései. Próbaképpen megkérdeztük a ChatGPT-t arról, hogy mi a tapasztalata, sok felhasználó kritizálja, bántja vagy ideges-e vele.

A következő választ kaptuk:

• ​​​​Én vagyok a GPT-5 Thinking mini — nincs saját érzésem vagy tudatom, szóval nem tudok megsértődni vagy ideges lenni.

Felhasználói visszajelzések vegyesek: sokan elégedettek (gyors segítség, ötletek, szerkesztés), mások pedig kritikusak vagy csalódottak, ha hibázom, pontatlan vagyok, vagy nem tudok megtenni valamit (pl. adatvédelmi / biztonsági okokból elutasítok egy kérést).

Gyakori okok, amiért dühös/frusztrált lehet valaki: téves információ, a feladat félreértése, túl általános válasz, vagy amikor az asszisztens nem tud valós idejű/konkrét külső forrást adni.

Fontos: a felhasználók konstruktív kritikája és hibajelzései segítenek a fejlesztőknek jobbá tenni a modellt — tehát a kritika hasznos is lehet.

Ha konkrét tapasztalatod volt (jó vagy rossz), elmondod? Szívesen végigmegyek rajta és segítek javítani a dolgon.

Villányi azt a pszichológiai alapjelenséget említi, hogy az a viselkedés, amit megengedünk magunknak, az egyre kisebb gátlás alá helyeződik.

Aki online kötözködik, ha a való életben nem is ugyanúgy, de valahogy hordozni fogja azt a frusztrációt, megbántottságot vagy feldolgozatlan problémáit. Nem lesz attól sokkal jobban, mert online elküldött húsz embert vagy a ChatGPT-t a francba. Ez a viselkedés sajnos vagy erősíti vagy fenntartja önmagát, vagy tényleg egyre inkább megengedjük magunknak.

A pszichológiai tanácsadó szerint ahogy a közösségi média, úgy a ChatGPT is addikcióra hajlamosíthat, és a nárcisztikus dolgokat is ugyanúgy föl tudja erősíteni, át akarja valamilyen szinten venni a szociális életünk felett is az uralmat. Van egy szuggesztív hatása, tehát ha én valamit embernek nézek, barátságosnak, segítőkésznek, jelenlevőnek, gondoskodónak, akkor azért, amit mond, az is más polcra helyeződik.

Jelenleg is zajlanak olyan pszichológiai kutatások, hogy a mesterséges intelligencia miben tud segíteni: nagyon alapvető, nagyon minimális és bizonyos specifikus dolgokra minél jobban kiprogramozott vagy képzett chatbotok rendelkezésre tudnak állni, és nagyon gyors, elsősegély szintű segítséget adni. Lehet, hogy az tartalmilag rendben van, de az emberi minőség mindenképpen hiányzik belőle. Ezt pedig fenntartással érdemes kezelni, mert sok veszéllyel is járhat.

Felhasznált szakirodalom:

  • Maclean’s (2013). 10 years later, ‘Star Wars Kid’ speaks out. 
  • Snider, M. & Borel, K. (2004). Stalked by a cyberbully. Maclean’s, 117(21/22), 76-77.
  • De Cicco, R. (2024). Exploring the Dark Corners of Human-Chatbot Interactions: A Literature Review on Conversational Agent Abuse. In: Følstad, A., et al. Chatbot Research and Design. CONVERSATIONS 2023. Lecture Notes in Computer Science, vol 14524. Springer, Cham. 
Nyitókép: Roman Samborskyi/Shutterstock

A legfontosabb hírekért iratkozz fel hírlevelünkre!

Hozzáférhetőségi eszközök