LLM’s voor psychologische ondersteuning: een baanbrekende studie en enkele open vragen
7 april 2026
Tegenwoordig stuit je regelmatig op de ene ‘baanbrekende studie’ na de andere. Het werk van Max Rollwage en collega’s bij Limbic over hoe de veiligheid, kwaliteit en aanvaardbaarheid van interacties met LLM’s voor psychologische ondersteuning kan worden geoptimaliseerd, verdient die titel misschien echt. Het meest interessante aspect voor mij was het voorgestelde dual-component systeem — een cognitieve laagarchitectuur die in combinatie met elke LLM kan worden gebruikt om de ‘therapeutische’ functies ervan te verbeteren.
Van theorie naar praktijk
Twee studies werden gebruikt om van theorie naar praktijk te gaan. In de eerste beoordeelden 22 clinici sessietranscripten van gebruikers die gevraagd waren om realistische scenario’s ter bespreking voor te leggen aan therapie-agenten. Rekening houdend met een aantal methodologische overwegingen, presteerden LLM’s met de cognitieve laagarchitectuur beter dan basis-LLM’s zoals ChatGPT en Gemini, maar ook beter dan menselijke therapeuten.
De toepassing in de echte wereld werd vervolgens onderzocht bij meer dan 8.000 mensen in de VS (volledig online, op zoek naar ondersteuning bij welzijn) en in het VK (gemengd, d.w.z. in combinatie met face-to-facegesprekken). Tijdens deze uitwisselingen werd de cognitieve laag dynamisch geactiveerd, enkel wanneer de aard van de interacties dat vereiste. De algehele acceptatie was hoog, en de klachten van deelnemers verbeterden, met sterkere verbetering wanneer interacties meer gebruik maakten van de cognitieve laag.
Stof tot nadenken
Ook de klinische kwaliteit van de interacties werd beoordeeld. 128 transcripten werden beoordeeld door getrainde clinici, terwijl de overige (19.000+) werden beoordeeld met behulp van een op LLM gebaseerde evaluator. Dat is begrijpelijk gezien dat enorme aantal, maar de eerdere overeenstemming met menselijke beoordelingen was niet sterk genoeg om dat als een volledig zelfstandige aanpak comfortabel te vinden. AI laten evalueren door AI stoort me enigszins.
De oplossing kiest ook voor een juridisch grijs gebied, wat duidelijk is in de terminologie: psychotherapeutische interacties in de titel, CGT als theoretisch kader, mentaal welzijnsassistentie en AI-ondersteunde therapeutics, alles door elkaar. De auteurs merken op dat er geen expliciet regelgevend kader bestaat voor autonome AI-therapieagenten, maar in de EU bestaat dat in zekere mate wel: het is simpelweg niet toegestaan om geen mens in de lus te hebben. Misschien beperkt de nieuwe architectuur de risico’s aanzienlijk, maar of dat genoeg is om beperkingen op dergelijke agenten op te heffen, is een andere vraag. Ter vergelijking: de Therabot-studie van vorig jaar omvatte wel menselijk toezicht in de studie, hoewel dat eerlijk gezegd ook veel eenvoudiger was in een veel meer gecontroleerde context en met een veel kleinere steekproef.
Het meest interessante idee voor mij werd voorgesteld in de discussie over hoe AI en menselijke therapieagenten mensen in nood kunnen ondersteunen. De auteurs stellen twee onderscheiden paden voor: AI zou een therapeutische alliantie kunnen bevorderen via consistente, niet-oordelende protocoleinhaving en klinische kennis, terwijl menselijke therapeuten gebruik kunnen maken van hun aangeboren relationele diepte en empathie.
Het volledige artikel is beschikbaar hier.