Je kunt nog zo praten als Brugman, maar een wappie overtuigen van hoe het echt zit? Het lukt bijna niemand. Maar dat is buiten ChatGPT gerekend. Die kan het namelijk wel.
In de coronavaccins zit een chip, de wereld wordt geleid door reptielen en de maanlanding is in scène gezet. Oh, en Elvis is niet dood, hij leeft. Mensen geloven de gekste complottheorieën en zijn daar niet van af te brengen. Maar volgens MIT-professor David Rand en hoogleraar psychologie Thomas Costello van de American University lukt dat de LLM’s (Large Language Models) wel. Grote taalmodellen als ChatGPT slaagden erin om het geloof in complottheorieën bij mensen te verminderen en die afname hield zeker twee maanden aan. De studie werpt daarmee nieuw licht op de psychologische mechanismen achter het fenomeen en biedt mogelijk nieuwe hulpmiddelen om de verspreiding van complottheorieën te bestrijden.
Down the rabbithole
Complottheorieën zijn zo oud als de mensheid. De overtuiging dat bepaalde gebeurtenissen het gevolg zijn van geheime complotten door machtige personen of organisaties tref je aan in alle lagen van de bevolking en in landen over de hele wereld. Psychologen stellen dat dit soort ideeën diepgewortelde psychologische behoeftes vervullen, waardoor mensen ongevoelig zijn voor feiten en logica. En als iemand eenmaal in de rabbithole duikt, zou het haast onmogelijk zijn hem er weer uit te krijgen.
Maar dat was voor de onderzoekers geen afdoende conclusie. “We vroegen ons af of het mogelijk was dat mensen simpelweg nog niet waren blootgesteld aan overtuigend bewijs dat hun theorieën weerlegt”, legt Rand uit. “Complottheorieën komen in vele vormen voor en de details van de theorie en de argumenten die hem ondersteunen verschillen van persoon tot persoon. Dus als je probeert de theorie te weerleggen, maar niet bekend bent met de specifieke argumenten van een bepaald persoon, zal je dat niet lukken.”
Effectief complottheorieën ontkrachten vereist dus twee dingen: gepersonaliseerde argumenten en toegang tot enorme hoeveelheden informatie. En laten beide nu in overvloede beschikbaar zijn via generatieve AI, zoals ChatGPT.
ChatGPT-4 Turbo
Om hun theorie te testen, maakten de onderzoekers gebruik van de kracht van GPT-4 Turbo, het meest geavanceerde grote taalmodel van OpenAI. Ze voerden de AI de argumenten en overtuigingen van meer dan 2000 complotdenkers om gepersonaliseerde, op bewijs gebaseerde dialogen tot stand te brengen.
De studie maakte gebruik van een unieke methodologie waardoor het leek alsof er een diepe betrokkenheid was bij de individuele overtuigingen van de deelnemers. Hen werd eerst gevraagd om een complottheorie die ze geloofden in hun eigen woorden te beschrijven, samen met het bewijs dat hun overtuiging ondersteunde.
Van hun geloof gevallen
Vervolgens gebruikte GPT-4 Turbo deze informatie om een gepersonaliseerde samenvatting van de complottheorie van de deelnemer te genereren en een dialoog te starten. De AI had als taak om gebruikers te overtuigen dat hun ideeën onjuist waren, waarbij de strategie werd aangepast op basis van de unieke argumenten en bewijzen van elke deelnemer. Deze gesprekken, die gemiddeld 8,4 minuten duurden, stelden de AI in staat om direct in te gaan op de complottheorie en het specifieke bewijs te weerleggen waar elke proefpersoon mee kwam.
De resultaten waren indrukwekkend: gemiddeld verminderden de AI-gesprekken het geloof van de deelnemers in hun gekozen complottheorie met ongeveer 20 procent, en een kwart van de deelnemers verwierp de complottheorie na het gesprek helemaal. Twee maanden later bleken ze bovendien nog steeds van hun geloof gevallen.
Complotdenkers ontvolgen
De effectiviteit van de AI-dialoog bleef ook niet beperkt tot specifieke soorten complottheorieën: van fraude bij de Amerikaanse verkiezingen tot complotten rond het coronavirus, ChatGPT wist ze allemaal onderuit te halen.
Iets minder succesvol was de chatbot bij mensen voor wie de complottheorieën heel belangrijk waren en die aangaven dat een theorie centraal stond in hun wereldbeeld, maar ook op hen had de AI nog steeds een positieve invloed.
De deelnemers vielen bovendien niet alleen van hun geloof, ze handelden er ook naar. Zo gingen ze vaker complotdenkers ontvolgen op social media en voerden ze zelf ook meer gesprekken om de wappie-theorieën te ontkrachten.
Een waarschuwing
De onderzoekers waarschuwen wel: als je AI kunt inzetten om complottheorieën te ontkrachten, kun je het net zo goed gebruiken om mensen er in te laten geloven. Ook hierbij geldt: AI kan geweldige voordelen opleveren, mits het verantwoord en door de juiste personen wordt gebruikt.
Handig voor zoekmachines
Niettemin is het potentieel enorm. Zo kan AI worden geïntegreerd in zoekmachines om gebruikers die zoeken naar complotgerelateerde termen wél de juiste informatie te bieden.
“Dit onderzoek toont aan dat bewijs veel belangrijker is dan we dachten, zolang het daadwerkelijk verband houdt met de overtuigingen van mensen”, vertelt een van de onderzoekers. “Dit heeft implicaties die verder reiken dan alleen complottheorieën: alle overtuigingen die zijn gebaseerd op slecht bewijs kunnen in theorie op deze manier worden aangepakt.”
Het mooie van de huidige studie is dat een veelgehoord vooroordeel onderuit wordt gehaald, namelijk dat complotdenkers niet openstaan voor logische argumenten. Als je met gepersonaliseerd tegenbewijs komt, zoals ChatGPT dat kan, lukt het wel degelijk om mensen te overtuigen van de waarheid.
“Voordat we toegang hadden tot AI, was complotonderzoek grotendeels gebaseerd op observatie en correlatie, wat leidde tot theorieën over complotten die psychologische behoeften vervullen”, besluit Costello. “Onze verklaring is veel eenvoudiger: vaak hadden mensen gewoon niet de juiste informatie.”