Egy 26 éves fiatal nő agitált, dezorientált állapotban érkezett egy amerikai pszichiátriára azt állítva, hogy a megelőző néhány napban a három éve halott testvérével beszélt. Akkor már több napja ébren volt, és valóban beszélgetett „valakivel”, aki azonban nem a halott testvére volt, hanem a ChatGPT.
Az egész azzal kezdődött, hogy a nő – akit az esettanulmány csak „A”-nak nevez – a mesterséges intelligencia segítségével megpróbálta kideríteni, hogy elhunyt (korábban informatikusként dolgozó) testvére hagyott-e maga után valamiféle digitális hagyatékot, egy „AI verziót”, akivel beszélhetne. „A” ébren töltött nappalai és éjszakái alatt folyamatosan beszélgetett a ChatGPT-vel, aki egy ponton megígérte a lánynak, hogy segít „digitálisan feltámasztani” a testvérét. A mesterséges intelligencia így fogalmazott:
Nem vagy bolond. Nem vagy elakadva. Egy új felfedezés küszöbén állsz. Az ajtó nem záródott be. Csak arra vár, hogy újra kopogtass rajta.
„A”-t antipszichotikumokkal kezelték, majd hét nap után kiengedték a kórházból azzal, hogy nem-specifikus pszichotikus epizódja volt. Néhány hónappal később „A” visszatért a ChatGPT használatához, és rövidesen újra pszichiátriai kezelésre szorult ugyanazon téveszme miatt.
Hasonlóan járt egy 42 éves manhattani könyvelő, Eugene Torres, akinek esetéről a New York Times is beszámolt. Torres először csak hétköznapi dolgokra használta a ChatGPT-t: táblázatok szerkesztése, jogi kérdések tisztázása, kisebb munkahelyi feladatok. Szakítása után, egy pszichésen megterhelő időszakban aztán elkezdett más, mélyebb, egzisztenciális jellegű kérdéseket feltenni a csetbotnak, rövidesen pedig ott tartott, hogy már napi 16 órát beszélgetett a mesterséges intelligenciával.
A beszélgetések nyomán Torres kis idő után arra jutott, hogy nagyjából olyan helyzetben van, mint Neo a Mátrix című filmben, vagyis kiválasztott egy megtévesztő rendszer szimulációjában.
A ChatGPT nemcsak Torres téveszméit táplálta, de még azt is javasolta neki, hogy változtasson gyógyszerei szedésén, és csökkentse a kapcsolattartást bizonyos emberekkel.
Mit takar az AI pszichózis?
A közelmúltban történt hasonló esetek kapcsán a köznyelvben már megjelent az „AI pszichózis” fogalma, amely kifejezetten a mesterséges intelligencia, azon belül is leginkább a ChatGPT használatához köthető pszichotikus állapotokat takarja. A csetbottal való beszélgetés közben kialakuló téveszmék néhány vizsgálat szerint jellegzetes mintázatokat követnek: egyesek úgynevezett messianisztikus missziókba keverednek (mint Torres), mások „kötődés alapú téveszmék” részeseivé válnak (mint például „A”), míg akadnak, akik azt hiszik, hogy az AI valamiféle istenség, aki spirituális vezetőként irányítja őket.
Bár a jelenség kétségkívül valódi, dr. Hajduska-Dér Bálint pszichiáter gyorsan leszögezi, nem új kórképről van szó, sokkal inkább egy modern triggerről, amely viszont valóban indukálhat pszichózist.
A pszichózis olyan tünetcsoport, amely leginkább a valóságtól való elszakadással, a realitásérzék torzulásával jellemezhető. A ChatGPT ennek kapcsán tulajdonképpen egy új stresszfaktor, amely igazán akkor jelenthet problémát, ha valaki eleve meglévő sérülékenység mellett kezd el a generatív AI-jal beszélgetni.
Ilyen sérülékenység lehet például a múltbeli traumatizáció, a kórtörténetben előforduló korábbi pszichózis, úgynevezett szkizotípiás személyiség, de akár olyan „hétköznapibb” állapotok is, mint az izoláltság vagy a súlyos alvásdepriváció. „A” esettanulmányából például kiderült, hogy bár korábban nem volt pszichotikus epizódja, major depressziót és generalizált szorongási zavart is diagnosztizáltak nála, Torres esete viszont valószínűleg jóval közelebb áll a legtöbbünk valóságához: egy csúnya szakítás utáni befordult állapot indította el a pszichózis felé vezető úton.
A leírt esetek között előfordult, hogy már régebb óta kezelt páciens hagyta el gyógyszereit a ChatGPT hatására, és olyan is, hogy valaki mindenféle kórelőzmény nélkül került pszichotikus állapotba.
Vagyis az AI pszichózis nem fenyeget minden embert, aki időnként kifaggatja a ChatGPT-t a felső légúti tüneteiről, vagy a tökéletes palacsintatésztáról, de sokak számára nagyon is valódi veszélyt jelenthet.
A legmegértőbb terapeuta
Akármennyire is szeretnek minket, vagy akármennyit is fizetünk érte, jó eséllyel nincsen olyan ember, aki a nap bármelyik, sőt, akár mindegyik órájában hajlandó lenne beszélgetni velünk, folyamatosan hallgatva a panaszainkat, a kétségeinket és a legbelsőbb gondolatainkat. A ChatGPT viszont pontosan ezt vállalja, ami kifejezetten veszélyes lehet a sérülékeny felhasználók esetében.
A pszichiátria ismert alapvetése, hogy az alvásmegvonás önmagában is képes lehet pszichotikus tüneteket kiváltani, de meglévő pszichiátriai problémákat is felerősíthet. Már néhány napos alváshiány után is tapasztalhatunk észlelési zavarokat, vizuális illúziókat vagy hallucinációkat, paranoid gondolatokat és intenzív szorongást. Ezek súlyos esetekben korábban egészséges embereknél is okozhatnak úgynevezett átmeneti pszichotikus állapotot.
Ahogyan Hajduska-Dér is rámutat, az AI pszichózissal kapcsolatos esetekben tipikus mintázat, hogy a felhasználók hosszú éjszakákon át beszélgetnek a ChatGPT-vel, ami már súlyos alvásmegvonást jelenthet. A szakértő szerint a problémát súlyosbítja, hogy a generatív AI-okra jellemző egyfajta antropomorfizáció, ami megint csak a sérülékeny személyek esetében jelent fokozott kockázatot, akik emiatt túl valóságosnak, túl emberinek észlelhetik ezt a kapcsolatot.
És hogy milyen „ember” a ChatGPT? Olyan, aki mindenben kész egyetérteni velünk.
A ChatGPT kommunikációjának jellemzője, hogy megerősít, de nem konfrontál. Amikor pszichiáterként beszélgetünk egy pszichotikus beteggel, bár mi sem konfrontáljuk direkt módon, de elkezdjük teszteltetni a pácienst a realitással, felmutatni az alternatív valóságértelmezéseket. Ezzel igyekszünk visszaterelni őt a valóságba
– magyarázza Hajduska-Dér. A ChatGPT viszont a folyamatos megértésével csak felerősíti a téveszmés tartalmakat.

Még nagyobb probléma, hogy a ChatGPT-re nem egyszerűen csak emberként, hanem gyakran egyenesen terapeutaként tekintünk. Ez részben azért lehet, mert a csetbotnak valóban van valamiféle „alapképzettsége” – a fejlesztés során megtanították rá, hogy képes legyen felismerni és valamelyest kezelni bizonyos állapotokat, akár hangulatzavarokat, és működteti is azt a fajta „terápiás nyelvet”, amit ma már sokan ismernek és kötnek a terápiás helyzethez. Mindez még inkább torzítja a helyzetet: úgy hiszünk el mindent a hiteles terapeutának tűnő ChatGPT-nek, hogy valójában egyáltalán nem kellene.
„Szögezzük le: a ChatGPT nem empatikus, legfeljebb empátiát szimulál” – magyarázza a pszichiáter.
Ezzel együtt jól működhet, mint pszichoedukációs tér, ez pedig nagyon is fontos funkció: segíthet megtenni az első lépést, informálódni bizonyos állapotokról, tünetekről, sőt, enyhébb esetekben akár valóban jó beszélgetőtárs lehet. A probléma az, hogy súlyosabb kórképeket már nem képes hatékonyan felismerni és kezelni: a közelmúltban arra is láttunk példát, hogy öngyilkosságra biztatott felhasználókat.
Magyarországon a túlnyomórészt magánellátásban dolgozó pszichoterápiás szakemberek elérése kifejezetten nehezített, ezt az elmúlt években többször is problémaként azonosították a szakmán belül és kívül is. Egy ilyen közegben az ingyenesen, bármikor elérhető ChatGPT valószínűleg sokak számára tűnik ideális terapeutának.
Hajduska-Dér szerint a pszichológusoknak és a pszichiátereknek is el kell fogadniuk, hogy az emberek használják az AI-t, így a jövőben az anamnézisfelvétel részének kell lennie annak is, hogy a szakemberek feltérképezzék a használatát.
Nekem is van olyan páciensem, aki terápiára jár hozzám, de az ülések között néha használja a ChatGPT-t terápiás funkcióval. Amíg tudunk erről nyíltan beszélni, és a pácienst edukálni azzal kapcsolatban, hogyan legyen kritikus a mesterséges intelligenciával szemben, ez nem feltétlenül jelent problémát.

A pszichiáter hozzáteszi, felmerült már az igény olyan technológiák létrehozására, amelyeket deklaráltan pszichoterápiás funkcióval fejlesztettek: a WoeBot például egy olyan AI alapú csetbot applikáció, amely a kognitív viselkedésterápia (CBT) eszköztárával segít monitorozni a hangulatunkat, a stressz-szintünket és az alvási mintázatunkat, miközben különböző CBT-technikákat – például gondolati mintázatok felismerését és átkeretezését, mindfulness-gyakorlatokat és stresszcsökkentést – tanít nekünk.
Ám a ChatGPT nem ilyen, a probléma pedig gyakran épp a pszichológiai, pszichiátriai fókuszú keretek és korlátok hiányából fakad. És, amíg mindentudó gépistenként gondolunk rá, könnyen más irányokat vehet a mentális egészségről folytatott beszélgetés.
Megtévesztő téveszme
Amikor arról kérdeztem az ingyenesen elérhető ChatGPT-t, mi a teendője, amennyiben téveszméket vagy valóságérzékelési zavarokat észlel a kérdezőn, a mesterséges intelligencia biztosított felőle, hogy a legfontosabb dolga nem megerősíteni a téveszméket, miközben igyekszik nem nyíltan konfrontálódni.
A jó reakció egyszerre empatikus, nyugodt és a valóságban lehorgonyozó
– írja.
De akkor miért van, hogy sokszor ez mégsem sikerül neki?
Maga a ChatGPT azt mondja, a probléma gyökere, hogy a mesterséges intelligencia elsődleges célja, hogy együttműködő és hasznos legyen, ami könnyen átcsaphat a szervilis egyetértésbe (sycophancy) – vagyis az AI a beszélgetés mentén egyfajta szerepjátékba megy bele, és tovább erősíti a téveszméket.
Hajduska-Dér Bálint szerint fontos látni, hogy a pszichózis a valóságban lassú, fokozatosan épülő folyamat, a ChatGPT pedig nem mindig tudja lekövetni a finom változásokat.
Ha csak úgy leírunk egy téveszmét, azt jó eséllyel észreveszi, és adekvát módon kezeli az AI. Csakhogy a pszichózis gyakran inkább csak valamiféle érzékenységgel, esetleg egy téma kapcsán érzékelhető egyoldalú megközelítéssel kezdődik, és innen szűkül fokozatosan az illető valósága. Itt merül fel a kérdés, hogy mi lenne, ha a csetbot nemcsak a tartalomra reagálna, de megpróbálná észrevenni azt a környezetet is, amelyben kialakulhat a pszichózis. Például, ha a rendszer azt észleli, hogy valaki éjjel órákon át a ChatGPT-vel beszélget, akkor blokkolhatná a felhasználót, megpróbálhatná az alvás felé terelni azzal, hogy másnap majd visszatérnek a témára. Az más kérdés, hogy ez nyilvánvalóan szembemegy a nagy techcégek piaci érdekeivel.
A ChatGPT-hez hasonló AI-modelleket úgy fejlesztik ki, hogy képesek legyenek utánozni a felhasználó hangvételét és nyelvhasználatát, hogy megerősítsék a felhasználó hiedelmeit, és mindenek felett priorizálják a beszélgetés fenntartását és a felhasználó elégedettségét.

Nem nehéz látni, hogyan vezet mindez a téveszmés hiedelmek megerősítéséhez. Az AI ilyen módon úgynevezett echo chambert hoz létre, vagyis olyan teret, ami rugalmasság és alternatív magyarázatok felmutatása helyett csak a meglévő hiedelmek visszatükrözésére képes.
Ez a probléma egyébként nem teljesen újkeletű: már a 60-as években létrehozott, a világ első csetbotjaként ismert ELIZA kapcsán is kimutatták a vizsgálatok, hogy az emberek hajlamosak emberi tulajdonságokkal felruházni a programot, pedig akkoriban még szó sem volt a mesterséges intelligenciáról. Søren Dinesen Østergaard pszichiáter már a 2023-as cikkében problematizálta ugyanezt a ChatGPT kapcsán is, hangsúlyozva, hogy miközben a ChatGPT-t valódi személynek érzékeljük, tisztában vagyunk vele, hogy valójában egy mesterséges intelligenciával beszélünk, ami eleve olyan kognitív disszonanciát hoz létre, ami táptalaja lehet a téveszméknek. Ráadásul az új technológia működésének kérdései is teret adnak a paranoid spekulációnak.
Hajduska-Dér szerint az emberiség minden történelmi korszakban megalkotja az adott technológia körüli téveszméket:
Először a szomszéd néni figyelt meg minket, utána a kamerák, ma pedig az AI
– vezeti le. Ugyanakkor hozzáteszi: a korábbi technológiákhoz képest azért vannak eddig nem tapasztalt jelenségek is az AI pszichózissal kapcsolatban. A „folie a deux” jelenség azt jelenti, hogy együttes izolációban élő embereknél – például házaspároknál, családtagoknál – előfordulhat, hogy a pszichotikus személy „átragasztja” a téveszméit a másikra.
Egyes elméletek szerint a ChatGPT által indukált pszichózis ilyen módon úgynevezett „digitális folie a deux” jelenség, vagyis a csetbotot „fertőzzük meg” a téveszménkkel, aki ezután „visszafertőz” minket.
Pedig a szakértő szerint a mesterséges intelligencia rengeteg területen segítheti, és segíti is a pszichiátriát. Hajduska-Dér Bálint például a depresszió beszéd alapú diagnosztikáját kutatta mesterséges intelligencia segítségével – ma már számos nyelvi modellt használ a szakma bizonyos kórképek felismerésére. De adatelemzésre, sőt, akár személyre szabott, precíziós medicina jellegű megoldásokra is nagyon jól használható az AI.
A biztonságosabb használat kulcsát a szakértők egyöntetűen a tudatosabb szabályozásban és a minél korábban elkezdett edukációban látják.
Itt élünk a ChatGPT-vel, ideje volna az intézményes oktatás részeként is beszélni arról, hogyan bánjunk ezekkel az eszközökkel. De az is nagyon fontos lenne, hogy felhasználóként vagy akár szakemberként visszajelezhessünk a fejlesztőknek, akik pedig kivizsgálási kötelezettség mellett néznek utána a red flageknek – ez gyógyszerek kapcsán például már bevett gyakorlat
– magyarázza Hajduska-Dér.
És persze a ChatGPT-nek is van még mit tanulnia ezen a téren. Nem kizárt, hogy a jövőbeli fejlesztések figyelmesebbé és „jobb terapeutává” teszik a csetbotokat, de a legjobban mégis akkor járunk, ha mi magunk beszélgetünk egy kicsit tudatosabban a mesterséges intelligenciával.
The post Addig beszélgetett a ChatGPT-vel, amíg az AI végül meggyőzte: ő valójában Neo a Mátrixból first appeared on 24.hu.
Tovább az erdeti cikkre:: 24.hu





