De wachttijden voor een psycholoog zijn lang. Soms moet je wel een jaar wachten. Hoe handig zou het dan zijn als je met je problemen terechtkan bij ChatGPT? Nog even en dat is geen enkel probleem meer.
Er is al anekdotisch bewijs dat ChatGPT een prima therapeut is, zeker voor mensen die een echte psycholoog misschien een beetje eng vinden. Maar nu is er ook echt onderzoek naar gedaan. Onderzoekers van de Ohio State University vergeleken de antwoorden van psychotherapeuten met die van ChatGPT. Conclusie: de chatbot is beter.
Zelfs inlevingsvermogen
Uit eerder onderzoek bleek al dat mensen nauwelijks het verschil merken tussen antwoorden van echte mensen of van machines. Een eng idee, maar wie weleens met ChatGPT babbelt snapt het volledig. De chatbot kan je leraar, je raadgevende vader en je beste vriendin in een zijn. Recente studies bevestigen dan ook dat AI zelfs empathie en inlevingsvermogen toont. En zowel professionals in de geestelijke gezondheidszorg als cliënten vinden de AI-teksten beter dan die van professionele therapeuten.
In het nieuwe onderzoek met meer dan 800 deelnemers toonden de Amerikanen aan dat mensen zelden correct konden bepalen of reacties waren geschreven door ChatGPT of door een echte therapeut. De deelnemers kregen achttien voorbeelden van relatietherapie voorgeschoteld. Ze zagen niet alleen het verschil niet tussen mens en AI, ze vonden de AI over het algemeen ook beter.
Langere antwoorden
De onderzoekers zoomden verder in op de verschillen. Zo waren de antwoorden van de chatbot gemiddeld genomen langer dan die van therapeuten. Nadat er was gecontroleerd voor de lengte van de antwoorden bleef ChatGPT reageren met meer zelfstandige naamwoorden en bijvoeglijke naamwoorden dan therapeuten.
Wat dit zegt? We gebruiken zelfstandige naamwoorden om dingen te beschrijven en bijvoeglijke naamwoorden voor meer context. Je zou dus kunnen zeggen dat de chatbot meer context biedt dan de echte therapeuten. En die uitgebreidere context kan ervoor hebben gezorgd dat de respondenten de antwoorden van ChatGPT meer waardeerden, wat betreft de gemeenschappelijke factoren van de therapievoorbeelden. Dit zijn de onderdelen van de behandeling, die alle therapievormen gemeen hebben om de gewenste resultaten te bereiken.
Assistent voor de therapeut
Volgens de auteurs kunnen hun bevindingen een indicatie zijn dat ChatGPT het potentieel heeft om psychotherapie te verbeteren. Het werk kan leiden tot het testen en ontwikkelen van nieuwe behandelmethodes, waarbij AI een handige assistent is van de therapeut. De onderzoekers roepen therapeuten dan ook op om hun kennis op het gebied van AI zo snel mogelijk uit te breiden, omdat het waarschijnlijk niet lang meer duurt voor chatbots een belangrijke rol gaan spelen in de behandelkamer.
De wetenschappers schrijven tot besluit: “Sinds de uitvinding van ELIZA bijna zestig jaar geleden, hebben onderzoekers gedebatteerd over de vraag of AI de rol van een therapeut kan overnemen. Hoewel er nog steeds veel belangrijke vragen zijn, geven onze bevindingen aan dat het antwoord waarschijnlijk ‘ja’ is. We hopen dat ons werk zowel het publiek als mensen uit de geestelijke gezondheidszorg stimuleert om belangrijke vragen te stellen over de ethiek, haalbaarheid en het nut van de integratie van AI en behandelingen in de geestelijke gezondheidszorg, voordat de AI-trein het station verlaat.”
ELIZA
ELIZA was een van de eerste chatbots. Het computerprogramma werd tussen 1964 en 1966 gebouwd door Joseph Weizenbaum, die destijds aan het gerenommeerde MIT werkte. Gebruikers konden met ELIZA praten, zoals ze nu met ChatGPT doen. Door een vroege vorm van patroonvergelijking kon ELIZA reacties produceren. Weizenbaum wilde met het programma de oppervlakkigheid van menselijke gesprekken aantonen, maar schrok ervan hoe serieus de eerste gebruikers ELIZA namen. De gesprekken werden al heel snel persoonlijk en ELIZA werd gezien als mens. Nog steeds noemen we het toedichten van menselijke eigenschappen aan een chatbot het Eliza-effect.


