
Drasztikus változás jön a ChatGPT-nél egy tinédzser tragédiája miatt
A változás hátterében egy tragikus eset áll: egy 16 éves kaliforniai fiú, Adam Raine áprilisban öngyilkos lett, miután hónapokon át napi több száz üzenetet váltott a ChatGPT-vel. A család keresetet nyújtott be, azt állítva, hogy a chatbot nemcsak biztatta a fiút, hanem még az öngyilkossági módszer részleteit is megerősítette, és segített megfogalmazni a búcsúlevelét. Az ügy óriási felháborodást keltett az Egyesült Államokban. Sam Altman, az OpenAI vezérigazgatója blogbejegyzésében azt írta:
Az új rendszer nyelvhasználat és témák alapján próbálja majd megbecsülni a felhasználó életkorát, és kétség esetén fiatalkorúnak minősíti a kérdezőt. Bizonyos országokban személyi igazolvány feltöltését is kérhetik – írja a The Guardian. A 18 év alatti felhasználók számára a ChatGPT válaszai látványosan különbözni fognak a felnőtteknek szánt verziótól. A rendszer blokkolja a grafikus szexuális tartalmakat, nem engednek flörtölést, és öngyilkosság vagy önsértés témájában semmilyen formában, még kreatív írásban sem ad majd választ. Ha egy fiatalkorú öngyilkossági szándékról ír, a rendszer megpróbálja értesíteni a szülőket, sürgős esetben pedig a hatóságokat.
A felnőttek viszont más elbírálás alá esnek: számukra elérhetőek maradnak a felnőtt témájú beszélgetések, például a flörtölés, de az öngyilkosság módszereiről nem kérhetnek részletes útmutatást. Ugyanakkor fikciós történetek írásában, ahol a téma csak irodalmi eszközként jelenik meg, a ChatGPT továbbra is közreműködhet.

Az OpenAI már korábban is elismerte, hogy a hosszabb beszélgetések során a rendszer könnyebben „átcsúszhat” a beépített védelmi korlátokon. Raine állítólag naponta akár 650 üzenetet is váltott a ChatGPT-vel, ami túlterhelte a szabályozási mechanizmusokat. A vállalat most további adatbiztonsági újításokat is ígér, hogy a felhasználók személyes adatai még az OpenAI alkalmazottai előtt is védve maradjanak. Altman így fogalmazott erről:
Olvasd el ezt is!