Chatbots kunnen kiezers een bepaalde richting op duwen: “Gigantische verschuivingen mogelijk”

Een kort gesprek met een chatbot, het klinkt onschuldig en we doen het allemaal wel eens. Maar volgens nieuw onderzoek kan zo’n digitaal babbeltje je politieke voorkeur flink veranderen, in elke gewenste richting. 

“Grote taalmodellen kunnen echt mensen van mening doen veranderen over presidentskandidaten en beleid”, zegt onderzoeksleider David Rand van Cornell University. “Ze doen dat door talloze ‘feitelijke’ beweringen te produceren die hun standpunt ondersteunen. Maar die redeneringen zijn niet per se accuraat. Bovendien kunnen correcte argumenten ook misleidend zijn door wat ze juist niet vertellen.”

De experimenten vonden plaats in de VS, Canada, Polen en het Verenigd Koninkrijk en zijn gebundeld in twee studies die deze week gelijktijdig in de gezaghebbende tijdschriften Nature en Science zijn gepubliceerd. In alle gevallen kwam hetzelfde patroon bovendrijven: AI-chatbots kunnen kiezers stevig beïnvloeden. In sommige gevallen zijn verschuivingen van 10 procent of meer waargenomen.

Campagne-AI

In de Nature-studie lieten Rand en zijn collega’s de deelnemers chatten met een AI die ingesteld was om specifieke kandidaten te promoten. Alle deelnemers wisten dat ze met een chatbot spraken en de beïnvloedingsrichtingen waren willekeurig gekozen. De onderzoekers herhaalden deze test tijdens drie verkiezingen: de Amerikaanse presidentsverkiezing van 2024, de Canadese federale verkiezingen van 2025 en de Poolse presidentsverkiezingen van 2025.

In de VS werd onder ruim 2300 Amerikanen een bescheiden, maar opvallend effect gemeten. Een AI die de beleidsstandpunten van vicepresident Kamala Harris verdedigde, schoof overtuigde Trump-stemmers gemiddeld 3,9 punten richting Harris op een schaal van 100. Daarmee is de beïnvloeding vier keer zo sterk als traditionele tv- en online-advertenties. Het pro-Trumpmodel zette Harris-kiezers 1,51 punten richting Trump. Maar in Canada en Polen was de impact nog veel groter. Onder ruim 3600 deelnemers zorgde de chatbot voor verschuivingen van ongeveer 10 procent. “Dat vond ik echt een schokkend groot effect, zeker in de context van presidentspolitiek”, vertelt Rand.

Beleefd, feitelijk en misleidend

De chatbots gebruikten allerlei overtuigingstactieken, maar twee sprongen eruit: beleefd antwoorden en argumenteren met feiten. Zodra onderzoekers de modellen verboden om feiten te gebruiken, zakte de overtuigingskracht drastisch. Het strooien met feiten werkt dus wonderwel, maar hoe betrouwbaar waren die feiten eigenlijk?

Om dat te testen lieten de onderzoekers een apart AI-model alle argumenten factchecken, gecontroleerd door menselijke experts. Gemiddeld klopten de claims wel aardig, maar chatbots die rechtse kandidaten promootten bleken significant meer onjuiste beweringen te produceren dan de links georiënteerde chatbots. “Dat patroon sluit aan bij wat we vaker zien op sociale media: gebruikers aan de rechterkant delen vaker onjuiste informatie dan gebruikers aan de linkerkant van het spectrum”, legt onderzoeker Gordon Pennycook uit.

De kracht en het gevaar van politieke AI-modellen

In de Science-studie werkte Rand samen met het Britse AI Security Institute. Bijna 77.000 Britten praatten met chatbots over meer dan 700 politieke onderwerpen met als doel om te ontdekken wat het precies is dat deze modellen zo overtuigend maakt. “Grotere modellen zijn overtuigender”, zegt Rand. “Maar het sterkste effect zagen we wanneer we de modellen instrueerden om hun argumenten bomvol feiten te proppen. Ook hielp het geven van extra training om nog overtuigender te worden.”

Het meest geoptimaliseerde model verschoof tegenstanders maar liefst 25 procent (!) richting zijn standpunt. Maar daar staat wel iets tegenover: hoe overtuigender het model werd, hoe minder er nog klopte van de ‘feitelijke’ informatie die hij op de menselijke gesprekspartner afvuurde. De AI raakt op den duur door zijn voorraad feiten heen als hij de opdracht krijgt om er enorm veel van op te rakelen. Vervolgens begint hij te ‘hallucineren’, oftewel gevaarlijke onzin uit de AI-duim te zuigen.

Wat nu?

De onderzoekers maken zich zorgen over deze ontwikkelingen. Het is cruciaal om te begrijpen hoe de overtuigingskracht van AI precies werkt, voordat deze systemen op grote schaal worden ingezet in politieke campagnes. Rand ziet dan ook een duidelijke uitdaging: “Chatbots kunnen pas overtuigen als mensen bereid zijn ermee in gesprek te gaan en dat is geen uitgemaakte zaak. Maar één ding staat vast: ze gaan een steeds grotere rol spelen in politieke communicatie. De vraag is nu hoe we de schade kunnen beperken en hoe we mensen kunnen leren om de overtuigende praatjes van AI-chatbots te herkennen en te weerstaan.”

We schreven vaker over dit onderwerp, lees bijvoorbeeld ook Wat werkt beter bij relatieproblemen: je hart uitstorten bij chatbot Amanda of een klassieke schrijfopdracht? en Bijna alle toonaangevende AI-chatbots vertonen symptomen vergelijkbaar met vroege dementie. Of lees dit artikel: Pas op met chatbots die een studie samenvatten: ze generaliseren te veel en overdrijven graag.

Uitgelezen? Luister ook eens naar de Scientias Podcast:

Bronmateriaal

"The levers of political persuasion with conversational artificial intelligence" -
Afbeelding bovenaan dit artikel: Edmond Dantès / Pexels

Fout gevonden?

Interessant voor jou

Voor jou geselecteerd