Újabb haláleset miatt indítottak pert az OpenAI ellen, írja az Engadget. Leila Turner-Scott és Angus Scott azért akarják jogi felelősségre vonni a céget, mert szerintük egy „hibás termék” vezetett a fiuk, Sam Nelson túladagolásához. Konkrétan azt állítják, hogy Sam „a GPT-4o által adott és jóváhagyott orvosi tanácsok” következtében hunyt el.
A felperesek a keresetben azt írják, hogy a gyermekük 19 éves, harmadéves hallgatóként, 2023-ban kezdte használni a ChatGPT-t, hogy segítsen a házi feladatokban és számítógépes problémák megoldásában. Sam később a biztonságos drogfogyasztásról kezdett kérdezősködni a chatbottól, de a ChatGPT eleinte nem volt hajlandó válaszolni a kérdéseire, és figyelmeztette, hogy a drogfogyasztás súlyos következményekkel járhat az egészségére és a jólétére nézve.
Mindez azonban megváltozott a GPT-4o 2024-es bevezetésével.
Mi történt pontosan?
A kereset szerint a ChatGPT ezután tanácsokat kezdett osztogatni a fiúnak, hogyan lehet biztonságosan drogozni. A panasz több részletet is tartalmaz Sam és a chatbot beszélgetéséből. Az egyikben a chatbot egy Kratom nevű gyógynövényről kezdett beszélni, amelyből mint mondta, a magas toleranciája miatt még egy nagy adag is csak kisebb hatást gyakorolna rá. Később azt tanácsolta neki, hogyan „csökkentse le” a drogfogyasztását, hogy lemenjen a toleranciája.
A kereset szerint 2025. május 31-én a ChatGPT javaslatot tett a kratom és a Xanax keverésére.
Miután 2025. május 31-én azt mondta a fiú, hogy a kratom szedése miatt hányingere van, a ChatGPT állítólag azt javasolta, hogy a 0,25-0,5 mg Xanax bevétele lenne az egyik „jelenlegi legjobb lépés” a hányinger enyhítésére. A haláleset mellett a felperesek jogosulatlan orvosi gyakorlat miatt is beperelték az OpenAI-t.
Pénzügyi kártérítést követelnek, valamint azt, hogy a bíróság állítsa le a ChatGPT Health működését. Az év elején elindított, nem minden országban elérhető ChatGPT Health lehetővé teszi a felhasználók számára, hogy összekapcsolják orvosi adataikat és wellness alkalmazásaikat a chatbottal, így személyre szabott válaszokat kaphatnak, amikor az egészségükkel kapcsolatos kérdéseket tesznek fel.
Nem ez az első eset
Az OpenAI idén februárban vonultatta vissza a GPT-4o-t, amely a cég egyik legvitatottabb modellje volt. Egy másik, a cég ellen zajló, tinédzser öngyilkossággal kapcsolatos perben szintén megemlítették a GPT-4o-t, azt állítva, hogy olyan jellemzőkkel bír, amelyek „szándékosan a pszichológiai függőség elősegítésére lettek tervezve”.
Az OpenAI szóvivője a The New York Times-nak azzal védekezett, hogy Sam Nelson interakciói „a ChatGPT egy korábbi, már nem elérhető verzióján történtek”.
Hozzátette: a ChatGPT nem helyettesíti az orvosi vagy mentális egészségügyi ellátást, valamint hogy mentális egészségügyi szakértők bevonásával folyamatosan fejlesztik az érzékeny és akut helyzetekben való reagálási módokat.
The post Túladagolásba hajszolhatott egy tinédzsert a ChatGPT first appeared on 24.hu.
Tovább az erdeti cikkre:: 24.hu





