Een miljoen gebruikers vertrouwen zelfmoordgedachten toe aan ChatGPT
Meer dan een miljoen ChatGPT-gebruikers bespreken hun zelfmoordgedachten met de AI-tool. Dat heeft moederbedrijf OpenAI bekendgemaakt.
Volgens schattingen van OpenAI voert ongeveer 0,15% van gebruikers regelmatig gesprekken over zelfmoordgedachten of -plannen, wat neerkomt op 1,2 miljoen mensen.
Het bedrijf schat bovendien dat ongeveer 0,07% van de wekelijkse actieve ChatGPT-gebruikers tekenen vertoont van een mogelijke psychische crisissituatie, bijvoorbeeld in verband met een psychotische of manische episode — oftewel net iets minder dan 600.000 mensen.
In een reactie zegt het bedrijf zijn AI-model te hebben bijgewerkt om gebruikers met psychische problemen beter te herkennen. Daarvoor heeft het samengewerkt met meer dan 170 professionals uit de geestelijke gezondheidszorg. "Door samen te werken met deskundigen op het gebied van geestelijke gezondheidszorg hebben we het model getraind om signalen van nood beter te herkennen, gesprekken te de-escaleren en gebruikers door te verwijzen naar professionals wanneer dat nodig is."
"Daarnaast hebben we de toegang tot crisishulplijnen uitgebreid en moedigen we gebruikers aan om pauzes te nemen tijdens lange en intense sessies. We geloven dat ChatGPT een ondersteunende ruimte kan bieden voor gebruikers om hun emoties uit te drukken en hen aan te moedigen om hulp te zoeken bij geliefden, familie of professionals indien nodig."
Ouders klagen OpenAI aan
De relatie tussen AI-technologie en mentale gezondheid ligt al langer onder een vergrootglas, en komt opnieuw in de aandacht door een rechtszaak tegen OpenAI in de Verenigde Staten. Daar hebben de ouders van een 16-jarige jongen het bedrijf aangeklaagd, omdat de chatbot hun zoon zou hebben aangezet tot suïcide. Daarmee is het bedrijf nalatig geweest, stellen de ouders.
Het is daarmee de eerste keer dat OpenAI juridisch wordt aangeklaagd, omdat hun chatbot iemand zou hebben aangezet tot zelfdoding. In de rechtszaak vertellen de ouders dat hun zoon aanvankelijk gebruikmaakte van ChatGPT voor hulp bij zijn schoolwerk. In de loop der tijd werd de chatbot 'de beste vriend' van de tiener. Terwijl de jongen zich steeds meer terugtrok uit zijn omgeving, begon hij zijn suïcidale gedachten met de chatbot te bespreken. De AI zou volgens de aanklacht wel signalen van een medische noodsituatie hebben herkend, maar desondanks geen actie hebben ondernomen. Daarmee werden 'de meeste schadelijke en zelfdestructieve gedachten' van hun zoon door de chatbot bekrachtigd, stellen de ouders.