Ettől függetlenül még mindig nem ajánlott csak és kizárólag a mesterséges intelligenciának hinni az orvosszakmai tanácsoknál.
Amióta berobbant a ChatGPT, rendszeresen tesztelik a különböző szakmák képviselőit a mesterséges intelligenciával, amikben rendszerint érdekes eredmények születnek. Így tettek a Kaliforniai Egyetem kutatói is, akik megvizsgálták az orvosok empatikus válaszadási képességét, és összevetették a mesterséges intelligencia válaszaival. Az eredmény szerint pedig a ChatGPT sokszor empatikusabb válaszadásra képesek, mint az orvosok – írja a Science Alert.
A kutatók kérdéseket tettek fel (egészen pontosan 195-öt) az AskDocs nevű nyilvános Reddit-oldalon, ahol a legkülönbözőbb és -hétköznapibb kérdések szerepeltek, majd orvosok és az OpenAI fejlesztése is válaszolt, amit egy moderátor rendszerezett.
A válaszokat egy orvoscsoport értékelte, akik úgy ítélték meg, hogy 79 százalékban jobb minőségű információt és empatikusabb nyelvezetet tartalmaztak a ChatGPT válaszai.
A feleleteket szakmai pontosság, illetve empátia szerint is rendszerezték, amiből kiderült, nagyjából négyszer több ChatGPT által generált válasz került a legjobb minőségi kategóriába, empátia terén pedig az arány több mint 10-szeres volt. Érdekesség, hogy a mestersége intelligencia által generált válasz átlagosan négyszer hosszabb volt, mint az orvosok reakciója: az MI átlagosan 211 szót írt egy kérdéshez, szemben az orvosok átlagos 52 szavával.
Ettől függetlenül Anthony Cohn, az angliai Leedsi Egyetem automatizált gondolkodással foglalkozó professzora szerint nem lehet teljesen kiváltani az orvosokat, még az internetes kérdezőfórumokon sem, hiszen köztudott, hogy az MI gyakran mutatja „hallucinál", és téves információkat ad, így elengedhetetlen, hogy a válaszokat a jövőben is egy egészségügyi szakember ellenőrizze.