Kan een chatbot de rol van behandelaar in de ggz aannemen?

Die vraag heeft veel ethische implicaties, zo blijkt uit onderzoek van promovendus Mehrdad Rahsepar Meadi. De zorgprofessionals zijn het er dan ook niet over eens. Tijdens het congres AI in de GGZ, op 14 juni in de Rode Hoed in Amsterdam, staakten de stemmen. 

Iets genuanceerder gesteld: 51 procent van de aanwezigen vindt dat het niet kan en 49 procent ziet wel mogelijkheden. “Mijn praatje was dus genuanceerd genoeg”, lacht Mehrdad Rahsepar Meadi achteraf. Hij is arts in opleiding tot psychiater bij GGZ inGeest en promovendus bij Amsterdam UMC. Hij is hoofdauteur van de publicatie Does a lack of emotions make chatbots unfit to be psychotherapists?, dat in april verscheen in het wetenschappelijke tijdschrift Bioethics. En er is een publicatie (Ethics of Conversational Artificial Intelligence in Mental Health: A Scoping Review) in beoordeling: onder leiding van Rahsepar Meadi werd een literatuurstudie gedaan naar ethische vraagstukken die naar voren komen over kunstmatige intelligentie in de ggz.

Chatbots

Er zijn veel verschillende chatbots, zo laat de onderzoeker zien. Vaak zijn het commerciële tekstprogramma’s zoals ChatGPT, waarmee je ook gesprekken kunt voeren over gevoelens of psychische klachten. Het zijn er tientallen en ze zijn gewoon te downloaden via de Appstore. Een toepassing als Woebot bestaat al sinds 2017 en vanaf die tijd voeren mensen al gesprekken over zichzelf. Voor de zogenaamde ‘mental health chatbots’ (MHCB’s) voeren fabrikanten uitdrukkelijke disclaimers dat ze niet bedoeld zijn als vervanging van een behandelaar, stelt Rahsepar Meadi. “Maar als je de websites bekijkt, dan krijg je toch wel het gevoel dat ze bedoeld zijn als therapeut. Er wordt ook vermeld dat ze gebruik maken van evidencebased behandelmethodes, zoals cognitieve gedragstherapie-technieken. Helaas is dit nog weinig onderzocht.”

Zorgen De chatbots hebben een potentiële voordelen. Ze kunnen een oplossing zijn voor de lange wachttijden in de ggz, een manier zijn om psychische zorg te bieden aan mensen die om een of andere reden geen toegang hebben tot gezondheidszorg en ze kunnen de zorg meer betaalbaar maken. Maar er zijn ook veel zorgen. In zijn studie identificeert Mehrdad Rahsepar Meadi tien hoofdthema’s: 1. schadereductie en veiligheid, 2. verklaarbaarheid, transparantie en vertrouwen, 3. verantwoordelijkheid en verantwoordelijkheidsplicht, 4. empathie en menselijkheid, 5. rechtvaardigheid, 6. vermenselijken en misleiding, 7. autonomie, 8. effectiviteit, 9. privacy en vertrouwelijkheid en 10. zorgen over banen van zorgverleners. Privacy en vertrouwelijkheid wordt het vaakst genoemd (in 64 procent van de artikelen), gevolgd door schade en veiligheid (52 procent). Die laatste licht Rahsepar Meadi eruit: “Het allervaakst zijn er zorgen over dat chatbot inadequaat reageert in een situatie van stress of suïcidaliteit. Daar zijn ook praktijkvoorbeelden van. Ze pikken cues niet op en slaan dus niet op de juiste manier alarm.” Daarnaast zijn er zorgen over schadelijke of foutieve suggesties, bijvoorbeeld doordat chatbots ook willekeurige teksten kunnen produceren. ‘Hallucineren’ heet dat in AI-vakjargon.

Afhankelijkheid Anders dan een behandelaar, staat een chatbot 24/7 aan. Die constante beschikbaarheid kan verkeerde afhankelijkheid creëren en zelfs verslaving. Mehrdad Rahsepar Meadi: “Dat kan ten koste gaan van het menselijk contact en sociale isolatie of eenzaamheid in de hand werken.”

Verantwoordelijkheid In een kwart van de onderzochte artikelen wordt gesproken over de ‘responsibility gap’ in de AI. Er zijn grote zorgen rondom verantwoordelijkheid. Chatbots kunnen adviezen of aanbevelingen geven, maar ze zijn geen persoon, dus je kunt ze hiervoor niet verantwoordelijk houden. Om ergens moreel verantwoordelijk voor te zijn, moet je aan twee voorwaarden voldoen, zo legt Rahsepar Meadi uit: Je moet weten dat een bepaalde actie een bepaald gevolg heeft én je moet controle hebben op het uitvoeren van die actie. Dat is binnen de ‘blackbox’ van AI niet mogelijk. Maar wie moet dan verantwoordelijkheid nemen? “Uit gesprekken met behandelaren krijg ik de indruk dat die daar niet happig op zijn”, zegt de onderzoeker. “En programmeurs zijn er al helemaal niet mee bezig.”

Vermenselijken een ander thema dat vaak wordt genoemd is wat in het Engels met een chique woord ‘anthropomorphism’ heet. In het Nederlands is dat ‘vermenselijken’. Gebruikers zijn geneigd om menselijke eigenschappen aan een apparaat of computerprogramma toe te kennen, ook als ze weten dat ze met bijvoorbeeld een robot of een chatbot communiceren. Zo gaan ze bijvoorbeeld ChatGPT om een mening vragen. Het risico is dat ze dan teleurgesteld raken, en vervolgens misschien ook het vertrouwen kwijtraken in menselijke behandelaren of zelfs in de gehele ggz.

Tegenoverdracht In het genoemde artikel over chatbots in Bioethics schrijven Mehrdad Rahsepar Meadi en zijn medeauteurs over het gebrek aan empathie en menselijkheid. Omdat de MHCB geen emoties hebben, kunnen ze geen oprechte empathie bezitten of gebruikmaken van het Freudiaanse begrip van ‘tegenoverdracht’ (de gevoelens die de therapeut ervaart in de relatie met de cliënt en inzet voor de diagnose en de behandeling). Dat impliceert dat chatbots mindere kwaliteit van zorg leveren. Ze zullen patiënten minder baten en ze zullen sneller geneigd zijn om schade toe te brengen dan een menselijke behandelaar. Tegelijkertijd kunnen er ook voordelen zijn aan het niet hebben van emoties. Mensen praten soms makkelijker over moeilijke dingen met een apparaat dan face to face met een behandelaar. Menselijke behandelaars zouden ook boos kunnen worden. En er kan een risico zijn op het aangaan van een ongepaste relatie met een patiënt. Emoties kunnen ook zo hun nadelen hebben.

Context Terug naar de oorspronkelijke vraag: Mag een MHCB-ggz-behandelaar zijn? Rahsepar Meadi neemt alle overwegingen uit beide publicaties mee, maar de context waarin de chatbot wordt gebruikt speelt ook een rol, zo legt hij uit. “We moeten ook kijken op welke manier een bot wordt ingezet. Is het volledig zelfstandig? Mag het alleen bepaalde informatie geven? Mag het überhaupt aanbevelingen geven? Bij welke patiënt of bij welke aandoening heeft het positief effect en bij welke niet? Wordt het ingezet op een plek waar veel of weinig wachtlijsten zijn? Of is het in een derdewereldland waar helemaal geen ggz is? Dat speelt allemaal een rol.” Vervolgens trekt hij de vraag rondom zorgethiek nog breder: In welke context is het geoorloofd om minder dan de gouden standaard in de zorg toe te staan?

Te vroeg De deelnemers aan de AI-conferentie in de Rode Hoed zijn verdeeld. En vraag je het Mehrdad Rahsepar Meadi op de man af – zoals dagvoorzitter Ruud Koolen doet – dan zegt hij dat het nog te vroeg is om een afdoende antwoord te formuleren. Hij staat er niet compleet tegenover, maar spreekt wel duidelijk zijn afkeer uit over de ‘louche manier waarop commerciële chatbots worden aangeprezen’.

Tijdens het congres AI in de GGz, bedreiging of zegen werd het onafhankelijke Kennisplatform AI in de GGZ gelanceerd. Daarop staan korte video’s, artikelen, checklists en geaccrediteerde webinars. Kijk op www.aiggz.nl.

Tijdens het congres AI in de GGz, bedreiging of zegen werd het onafhankelijke Kennisplatform AI in de GGZ gelanceerd. Daarop staan korte video’s, artikelen, checklists en geaccrediteerde webinars. Kijk op www.aiggz.nl.

Laat een reactie achter

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *