Artikel bewaren

Je hebt een account nodig om artikelen in je profiel op te slaan

Login of Maak een account aan
Reacties0

AI als spiegel

Annemarie de Leng
Foto: Christiaan Krop
We staan op een keerpunt. Niet omdat er een nieuwe therapievorm is ontdekt, maar omdat onze cliënten steeds vaker met iets anders praten dan met ons. Iets dat luistert, reageert, empathisch klinkt – maar geen mens is. Kunstmatige intelligentie is niet langer een technische curiositeit. Ze is in de behandelkamer, ook al zit ze niet op de stoel tegenover je.
Het ironische is dat AI ons dwingt om scherper te kijken naar wat écht menselijk is aan therapie. Dat is niet het gesprek, niet de empathie, maar de frictie. De stilte die zwaar ligt, het moment dat je als behandelaar tegen een cliënt zegt: ‘Ik zie dat anders.’ De confrontatie is daarbij vaak cruciaal, de toenemende spanning die het mogelijk maakt om overtuigingen of vastgeroeste patronen te doorbreken. Dat is wat een chatbot niet kan en wat we als beroepsgroep moeten blijven koesteren.
Tegelijk mogen we niet doen alsof AI ons werk niet kan ondersteunen en verbeteren. Datawetenschapper Kasper van Mens laat in zijn artikel op pagina 26 zien dat slimme AI-modellen al kunnen voorspellen wanneer een cliënt ‘off-track’ raakt. Dat gebeurt niet op basis van een onderbuikgevoel, maar op basis van duizenden behandeltrajecten; niet om de therapeut te vervangen, maar om hem of haar te ondersteunen bij moeilijke beslissingen. AI als navigatiesysteem, niet als bestuurder.
Maar deze technologie is geen neutrale tool. Ze is gestoeld op data uit een wereld vol ongelijkheid. En ze werkt het best met wat meetbaar is, zoals met symptomen, behandelscores en voorspellende patronen. Wat ze niet ziet is de context; de financiële zorgen van patiënten, het isolement, en de onzekerheid die achter een depressie schuilt. Als we die data niet vastleggen, blijft het AI-model blind en dan is de zorg oppervlakkig.
Daarom is het tijd dat behandelaren een dubbele verantwoordelijkheid op zich nemen. Ten eerste moeten we technologische vaardigheden ontwikkelen, zoals ook klinisch psycholoog Tom Van Daele vertelt in een interview op pagina 18. Niet omdat we zelf AI-modellen moeten kunnen ontwikkelen, maar om in elk geval te begrijpen wat onze cliënten doen met chatbots, apps en andere online zelfhulptools. We mogen die onderwerpen ook niet negeren, maar moeten er juist naar vragen. ‘Heb je daar al over gepraat met een chatbot?’. Het kan het begin zijn van een dieper gesprek, bijvoorbeeld over wat steun écht betekent.
Ten tweede moeten we meedenken over de gebruikskaders van AI-toepassingen. Het gaat dan niet alleen om de privacy en veiligheid van patiënten, maar ook om ethiek en de kwaliteit van zorg. Wie beoordeelt of een AI-tool goed is? Wie is verantwoordelijk als het misgaat? En hoe voorkomen we dat AI wordt ingezet als een schijnoplossing voor te lange wachtlijsten?

AI lost niets op, maar ze zorgt er wel voor dat we er niet aan ontkomen om onszelf ongemakkelijke vragen te stellen over ons vak en onze rol; over wat we willen behouden en over wat werkelijk belangrijk is in de ggz. Want uiteindelijk is therapie geen techniek, maar een relatie en die blijft onvervangbaar.

Annemarie de Leng, hoofdredacteur
Beeld: Christiaan Krop