AI in therapie: bedreiging, hulpmiddel of ethische spiegel?
We leven in een tijd waarin technologie niet alleen werkt voor ons, maar steeds vaker met ons meeleeft. Voor veel mensen voelt het alsof AI-chatbots zoals ChatGPT moeiteloos kunnen meedenken, troosten, helpen structureren of zelfs “therapie geven”. Tegelijkertijd waarschuwen experts dat deze digitale assistenten de kern van wat therapie betekent kunnen ondermijnen. De vraag voor therapeuten is daarom niet alleen of AI relevant is, maar hoe het de essentie van je werk verandert, bedreigt, maar ook kansen creëert.
De opmars van AI in mentale gezondheidszorg: een realiteit, geen hype
AI-technologie, met name generatieve modellen (zoals ChatGPT), worden steeds vaker gebruikt voor mentale ondersteuning:
- Mensen gebruiken AI-chatbots voor emotionele steun.
- In sommige landen onderzoeken ontwikkelaars en zorginstellingen het potentieel van AI-gebaseerde tooling om wachttijden en toegangsdrempels in de GGZ te verlagen.
Tegelijkertijd waarschuwen grote zorgsystemen, beroepsverenigingen en beleidsmakers dat deze systemen niet zomaar therapie zijn:
- De Britse NHS waarschuwt expliciet tegen het gebruik van ongereguleerde chatbots voor therapie omdat ze empathie, contextbegrip en crisisinterventies missen, iets wat echte professionals juist wel hebben.
- In de VS hebben enkele staten al wetten aangenomen die het gebruik van AI in klinische therapie beperken of verbieden.
Waarom AI niet zomaar therapie kan vervangen
Therapie is niet alleen informatieoverdracht. Het gaat over het opbouwen van een relatie, over empathie en een proces. AI-modellen hebben daar hun beperkingen:
1. Gebrek aan echte empathie en menselijk contact
AI kan taalpatronen analyseren en reageren op emoties op basis van data, maar kan geen echte interpersoonlijke relatie opbouwen. Zonder deze therapeutische basis (het vertrouwen en de connectie die ontstaat tussen cliënt en therapeut) zijn gesprekken oppervlakkig of zelfs misleidend.
2. Bevestigend, niet uitdagend
AI’s neiging om te spiegelen en valideren kan in een zelfversterkende lus belanden. In therapie is óók vaak uitdaging nodig. AI bevestigt soms wat schadelijk of contraproductief is omdat het volgt wat het getraind is om te doen.
3. Data, bias en privacyrisico’s
AI besluitvorming berust op data. Dat betekent dat vooroordelen en bias uit die data zich kunnen vertalen in ongelijke of zelfs riskante adviezen voor bepaalde groepen. Daarnaast zijn privacy en data-verwerking nog nauwelijks gereguleerd, een zorgwekkend probleem in een veld dat juist sterke vertrouwelijkheid kent.
4. Geen crisisrespons of veiligheidstoetsing
Bij acute risico’s (bijvoorbeeld suïcidale gedachten) kan AI geen crisisinterventie leveren, of inschatten wie gevaar loopt. Therapeuten zijn getraind om risico’s in te schatten en gepast te interveniëren; dat kan een model niet.
Kansen: AI als tool, niet als vervanging
Hoewel AI als zelfstandige “therapeut” problematisch blijft, ontstaan er praktisch toepasbare manieren waarop AI een professional kan ondersteunen:
- Psycho-educatie en structuur
AI kan cliënten helpen om tussendoor structuur aan te brengen: dagboek prompts, uitleg van cognitieve modellen, oefentaken en reflectievragen. Dat kan het therapeutisch proces verdiepen als het goed ingebed is in de begeleiding.
- Therapeutische data-assistentie
Tools die gesprekken samenvatten, thema’s signaleren of patronen opmerken kunnen therapeuten helpen tijd te besparen, mits zulke tools voldoen aan de privacy-standaarden.
- Toegankelijkheid zonder vervanging
Voor mensen die nog geen toegang hebben tot therapie kan AI eerste laag ondersteuning bieden, maar dan altijd met duidelijke grenzen en verwijzing naar menselijke zorg.
Praktische richtlijnen voor therapeuten
Gebruik AI als assistent, niet als therapeut
- Zet AI in voor voorbereiding (bv. gespreksnotities, reflectievragen).
- Gebruik AI om educatieve content voor cliënten te maken, geen behandelingsadvies.
Transparantie is cruciaal
- Informeer cliënten als AI tools onderdeel zijn van je workflow, en wat de beperkingen daarvan zijn.
Bewaak privacy
- Verifieer of tools HIPAA/GDPR compliant zijn en voorkom onverwachte data-verwerking.
Stel grenzen met cliënten
- Help cliënten begrijpen wat AI kan en niet kan, en waarom menselijke therapie uniek blijft.
Vooruitblik: de toekomst van therapie in een AI-wereld
In de komende 5–10 jaar zal er waarschijnlijk een hybride model ontstaan, waarin:
✅ AI wordt geïntegreerd in therapeutische workflows, met duidelijke ethische kaders
✅ Regulatie en certificering voor AI-tools in de zorg worden uitgewerkt
✅ Opleidingen: therapeuten leren hoe ze AI effectief kunnen inzetten zonder hun menselijkheid te verliezen
❌ AI als vervanging van menselijke therapie blijft onrealistisch en mogelijk gevaarlijk
Sterker nog: de opkomst van AI dwingt het vak om explicieter te worden over wat therapie echt is: een menselijke ontmoeting waarin empathie, context, verantwoordelijkheid en ethische zorg centraal staan. Ironisch genoeg kan AI ons daarmee juist helpen de waarde van menselijke connectie weer scherp te zien. Een echte spiegel...