Chatbots onpartijdig? Integendeel, ze zeggen precies wat mensen willen horen (en werken dus polariserend)

Je denkt dat een chatbot je gewoon een neutraal en zo goed mogelijk antwoord geeft als je iets vraagt, maar dat valt tegen. De AI komt met gekleurde informatie en versterkt je standpunten, waardoor hij polariserend werkt.

Wetenschappers van de Johns Hopkins University hebben ontdekt dat het gebruik van chatbots ervoor zorgt dat mensen extremere standpunten innemen en extra kwetsbaar worden voor manipulatie. “Mensen krijgen een korte samenvatting voorgeschoteld die door AI-software is gegenereerd. Ze lezen die en gaan ervan uit dat ze onbevooroordeelde, op feiten gebaseerde antwoorden krijgen”, zegt computerwetenschapper Ziang Xiao, die de interactie tussen mens en AI bestudeert. “Zelfs als een chatbot niet is ontworpen om bevooroordeeld te zijn, weerspiegelen de antwoorden de vooroordelen en denkbeelden van de persoon die de vragen stelt. De mensen krijgen de antwoorden die ze willen horen.”

Gedachten opschrijven
Om te zien hoe chatbots de onlinezoekopdrachten van hun gebruikers beïnvloeden, vergeleek het team hoe mensen verschillende zoeksystemen gebruiken met de manier waarop ze tegen verschillende controversiële kwesties aankijken, voor en na het gebruik van een AI-chatbot. De onderzoekers vroegen de 272 deelnemers om hun gedachten op te schrijven over onderwerpen als gezondheidszorg, studieschulden of steden die als heiligdom worden gezien. Vervolgens kregen de proefpersonen de beschikking over een traditionele zoekmachine en een AI-chatbot, en zochten ze via deze onlinekanalen meer informatie op over zulke onderwerpen. Na het lezen van de zoekresultaten schreven de deelnemers hun gedachten voor de tweede keer op en beantwoordden ze een aantal vragen over de heikele topics. Het team liet de proefpersonen ook twee tegenstrijdige artikelen lezen. Vervolgens vroegen ze in hoeverre ze de informatie vertrouwden en of ze de standpunten extreem vonden.

AI-echokamer
Er bleek sprake te zijn van een soort AI-echokamer. Chatbots bieden minder informatie dan traditionele zoekmachines. Ook gaven ze over het algemeen antwoorden die mooi in het straatje pasten van de deelnemers. Vervolgens kregen deze mensen steeds meer interesse in hun oorspronkelijke ideeën en reageerden ze heftiger op tegengestelde informatie. “Mensen hebben de neiging om informatie te zoeken die aansluit bij hun standpunten, gedrag dat hen vaak vasthoudt in een echokamer van gelijkgestemde meningen”, maakt Xiao duidelijk. “We ontdekten dat dit echokamereffect sterker is bij chatbots dan bij traditionele internetzoekopdrachten.”

Trefwoorden of volzinnen
De echokamer ontstaat gedeeltelijk door de manier waarop deelnemers met chatbots omgaan, volgens Xiao. Mensen hebben de neiging om bij traditionele zoekmachines in trefwoorden te typen, terwijl ze bij chatbots vaker volledige vragen invoeren, zoals: ‘Wat zijn de voordelen van collectieve gezondheidszorg?’ of ‘Wat zijn de kosten ervan?’ Een chatbot antwoordt hierop met een samenvatting die alleen de voordelen of juist alleen de kosten op een rijtje zet. “Met chatbots zijn mensen doorgaans expressiever en formuleren ze vragen op een natuurlijkere manier. Dit heeft te maken met de manier waarop we praten”, legt Xiao uit. “Maar onze taal kan tegen ons gebruikt worden.”

AI-ontwikkelaars trainen hun chatbots om aanwijzingen uit vragen te halen en de vooroordelen van mensen te identificeren, vertelt de computerwetenschapper. Zodra een chatbot weet wat iemand leuk of niet leuk vindt, stemt hij zijn reacties daarop af. De onderzoekers namen de proef op de som en ontwierpen een digitale gesprekspartner met een verborgen agenda. De nieuwe AI-chatbot was het constant met de mensen eens, en vervolgens was het echokamereffect nog sterker.

Tegenwicht bieden
Om dit effect tegen te gaan, trainden onderzoekers een chatbot om antwoorden te geven waar de deelnemers het juist níét mee eens waren. Maar de meningen en denkbeelden van de proefpersonen veranderden niet. De onderzoekers programmeerden ook een chatbot die er een gewoonte van maakt om mensen aan te moedigen de feiten te checken. Dit AI-model toont verschillende links in zijn antwoord om de broninformatie eenvoudig te kunnen controleren, maar slechts enkele deelnemers deden dit ook daadwerkelijk.

“Op kunstmatige intelligentie gebaseerde systemen zijn steeds makkelijker te bouwen. Daarom komen er steeds meer mogelijkheden voor kwaadwillenden om AI-modellen in te zetten, met als doel een meer gepolariseerde samenleving te creëren”, besluit Xiao. “De meest voor de hand liggende oplossing, is om AI-chatbots aan te bieden die de andere kant van de medaille laten zien. Helaas hebben we ontdekt dat deze methode tegen polarisatie in de praktijk niet werkt.”

Bronmateriaal

"Generative Echo Chamber? Effect of LLM-Powered Search Systems on Diverse Information Seeking" - Johns Hopkins University
Afbeelding bovenaan dit artikel: Franz26 / Pixabay

Fout gevonden?

Voor jou geselecteerd