Gevaarlijke feedbackloop: mensen nemen vooroordelen over van AI (die alles van de mens heeft afgekeken)

ChatGPT was de revelatie van het afgelopen jaar op het gebied van AI. Voor het eerst leek de gewone mens echt iets te kunnen met kunstmatige intelligentie. Maar er werd ook gewaarschuwd: de chatbot wilde nog weleens het een en ander verzinnen. Nu is er nog een ander nadeel. Hij leert zichzelf vooroordelen aan, die mensen vervolgens overnemen.

Uit een studie van de Deusto Universiteit in het Spaanse Bilbao blijkt dat er systematische fouten in het ‘denken’ van AI zijn geslopen in de vorm van aangeleerde vooroordelen. Die kunnen grote invloed hebben op de beslissingen van de mens.

Op bijna elke vraag een antwoord
Kunstmatige intelligentie is op dit moment al erg indrukwekkend. Zo is het mogelijk om een gesprek met een AI-model te voeren, bijna net zoals je met een ander mens zou doen. De AI heeft op zowat elke vraag een antwoord en de teksten die uit ChatGPT komen – of een soortgelijke AI-engine – zijn taalkundig sterk opgebouwd. Hierdoor komt deze nieuwe technologie erg betrouwbaar over en heb je sterk de neiging om alle informatie voor waar aan te nemen.

Steeds meer professionele vakgebieden implementeren op AI gebaseerde tools om specialisten bij te staan in de besluitvorming. De AI is er bijvoorbeeld erg goed in om een efficiënte en zorgvuldige structuur aan te brengen. Ook kun je gedurende een project met hulp van AI beter controleren of alles volgens plan verloopt. Zo worden er minder fouten gemaakt in de voorbereiding en de uitvoering.

Hallucinaties
Maar toch zitten er nog veel haken en ogen aan deze technologie. Het gebruik van AI is niet zonder gevaar, onder andere omdat AI-modellen kunnen gaan ‘hallucineren’. Een hallucinerende chatbot kan een prachtig verhaal verzinnen vol willekeurige onwaarheden, wanneer hij het antwoord op een vraag niet weet. Hij zegt dan niet dat hij geen idee heeft, maar verzint een zelfverzekerde reactie, omdat het algoritme bepaalde onzin een hoge ranking geeft. Ook klagen gebruikers dat AI-bots ‘sociopathisch’ klinken, of dat ze vergeten artificieel te zijn en juist beweren dat ze een mens zijn.

Er zitten daarnaast ook meer genuanceerde fouten in hun output, omdat de data die gebruikt worden om de AI-modellen te trainen, gebaseerd zijn op voorgaande menselijke gedachtes en beslissingen. Als er in deze data systematische fouten verborgen zitten, dan leert het AI-algoritme deze verkeerde informatie aan en reproduceert het vervolgens alsof het de waarheid is. Zo is er veel bewijs dat AI-systemen menselijke vooroordelen overnemen en versterken, en daar blijft het niet bij.

Gevaarlijke feedbackloop
Twee Spaanse psychologen ontdekten dat het tegenovergestelde effect ook op grote schaal voorkomt: mensen nemen de vooroordelen en halve waarheden over van de AI waarmee ze omgaan. De AI wordt dus niet alleen besmet door menselijke vooroordelen, maar het werkt ook andersom. Het risico dat we hiermee in een gevaarlijke feedbackloop terechtkomen, is groot.

De onderzoekers voerden een reeks van drie experimenten uit, waarbij vrijwilligers een medisch diagnostische taak verrichtten. De helft van de deelnemers kreeg een AI-model toegewezen, die een systematische fout vertoonde. De controlegroep kon geen hulp inroepen van kunstmatige intelligentie en moest de taak dus op eigen kracht doen. Er waren geen echte patiënten, de medische diagnoses werden in een simulatie gesteld.

Hardnekkige fouten
De deelnemers die door het AI-algoritme werden geholpen, maakten dezelfde fouten als de AI aandroeg, terwijl de controlegroep deze fouten niet maakte. Het mag duidelijk zijn dat de aanbevelingen van de AI invloed hadden op de beslissingen van de deelnemers.

Maar de belangrijkste ontdekking van het onderzoek was dat de deelnemers na interactie met het AI-systeem de systematische fout bleven maken, ook als ze in een volgend experiment de diagnostische taak zonder hulp uitvoerden. Met andere woorden, proefpersonen die eerst werden geassisteerd door de bevooroordeelde AI, herhaalden de fout in eenzelfde context zonder het AI-hulpje aan hun zijde. Dit effect werd niet waargenomen bij de deelnemers in de controlegroep, die vanaf het begin de taak zonder hulp uitvoerden.

Meer onderzoek en regelgeving
De wetenschappers concluderen dat bevooroordeelde informatie, die op professionele en zelfverzekerde wijze wordt gebracht door een AI-algoritme, een blijvende negatieve impact kan hebben op de menselijke besluitvorming. De ontdekking dat mensen fouten van de AI blijvend overnemen, maakt het nodig dat er meer onderzoek komt wat betreft de omgang tussen mens en AI. Daarnaast is er nieuwe regelgeving nodig om een eerlijke en ethische AI te garanderen. Daarbij moeten we niet alleen kijken naar de technische kenmerken, maar ook naar de psychologische aspecten van de samenwerking tussen een AI en de mens.

Bronmateriaal

"Humans inherit artificial intelligence biases" - Scientific Reports
Afbeelding bovenaan dit artikel: PhonlamaiPhotos Images

Fout gevonden?

Interessant voor jou

Voor jou geselecteerd