AI is racistisch, maar dat heeft ook voordelen

We herkennen vooroordelen van kunstmatige intelligentie namelijk sneller dan die van onszelf. “Algoritmen zijn een tweesnijdend zwaard. Ze kunnen een hulpmiddel zijn dat onze slechtste neigingen versterkt, en een hulpmiddel dat ons kan helpen onszelf te verbeteren.”

Beslissingen van kunstmatige intelligentie (AI) zouden een stuk objectiever moeten zijn dan keuzes die wij als mensen maken. Levenloze technologie kent immers geen emoties of vooroordelen die een objectieve blik in de weg zitten. Tenminste, dat zóu zo moeten zijn. In de praktijk barsten kunstmatige intelligentieprogramma’s van discriminerende algoritmes. De technieken worden namelijk getraind door mensen (die dus wel vooroordelen hebben) of door gebruik te maken van beschikbare bronnen, waar racisme en discriminatie dus ook in voorkomen.

Zo bleek eerder dat het voor de “AI-bot” Midjourney onmogelijk was om een afbeelding te maken van een zwarte arts die een wit kind behandelt. Maar ook met minder specifieke verzoeken is het duidelijk dat de algoritmes doordrenkt zijn van racisme. Willekeurige AI-gezichten worden tegenwoordig bijvoorbeeld als realistischer beschouwd dan echte gezichten, maar: alleen bij witte mensen. En dat is een serieus probleem. Mensen van kleur worden zo minder als menselijk gezien, wat kan leiden tot meer raciale vooroordelen, online misinformatie en zelfs veiligheidsrisico’s.

Algoritme laat structurele discriminatie zien
Maar al die geprogrammeerde vooroordelen kunnen we ook inzetten voor het goede, stelt Carey Morewedge, hoogleraar marketing aan de Boston University Questrom School of Business. AI houdt ons met al de stereotypes namelijk een flinke spiegel voor, en dat is iets wat we kunnen gebruiken om vooroordelen juist áf te leren. “Algoritmen kunnen menselijke vooroordelen verzamelen en versterken, en algoritmen brengen daarmee ook structurele vooroordelen in onze samenleving aan het licht”, aldus Morewedge. Het is namelijk erg moeilijk om aan de hand van één situatie te bewijzen dat er vooroordelen in het spel zijn, legt hij uit. “Maar als we beslissingen binnen en tussen personen bij elkaar optellen, zoals we doen bij het bouwen van algoritmen, kan dit structurele vooroordelen aan het licht brengen in onze systemen en organisaties.”

AI discrimineert niet, de bazen van Amazon wel
Als voorbeeld noemt hij het Amerikaanse bedrijf Amazon, dat in 2015 een algoritme testte om zijn wervingsmanagers te helpen om sollicitanten te filteren. Ze ontdekten toen dat het programma de cv’s van mannelijke sollicitanten promootte terwijl het de cv’s van vrouwelijke sollicitanten als minder interessant bestempelde. Hoewel dat een duidelijk voorbeeld is van genderdiscriminatie, is het toch niet heel verrassend vindt Morewedge. Datzelfde jaar was slechts 39 procent van het personeel van Amazon namelijk vrouw. Als het algoritme was getraind op basis van de bestaande gegevens van Amazon, is dus het geen wonder dat het prioriteit gaf aan mannelijke sollicitanten. Het gendervooroordeel van het algoritme komt dus niet door de technologie zelf, “maar doordat de managers van Amazon zelf bevooroordeeld waren bij de eerdere sollicitaties”, aldus Morewedge.

Airbnb
Om te kijken in hoeverre we deze vooroordelen herkennen en of we ze kunnen aanpassen, bedacht Morewedge samen met collega’s een reeks experimenten. In totaal deden ruim zesduizend deelnemers mee aan de negen experimenten. In het eerste experiment moesten deelnemers verschillende Airbnb adressen bekijken met de vraag te beoordelen in hoeverre ze geneigd waren om deze huizen te huren. De enige informatie waarop ze dit konden baseren was de gemiddelde score (op een schaal van 1 tot 5), en de naam van de verhuurder. In het ene geval deed de naam Afro-Afrikaans aan, in het andere geval leek de naam meer op een witte verhuurder te hinten.

Anderen beoordelen
In de tweede helft van het experiment kregen de deelnemers uitleg over onderzoeken waaruit blijkt dat de afkomst van de verhuurder uit kan maken hoe goed een woning wordt beoordeeld. Daarna kregen de deelnemers een aantal beoordelingen zien over dezelfde woningen. Dat waren ofwel hun eigen beoordeling, hun eigen beoordeling die zogenaamd van een algoritme zou zijn, hun eigen beoordeling onder het mom dat deze van iemand anders was, of een daadwerkelijke algoritmebeoordeling. Vervolgens moesten de deelnemers beslissen hoe waarschijnlijk zij het achtten dat de beoordelingen beïnvloed waren door vooroordelen.

De onderzoekers herhaalden deze opzet verschillende keren, waarbij ze testten op ras, geslacht, leeftijd en aantrekkelijkheid in de profielen. En de resultaten bleven hetzelfde: deelnemers die dachten dat ze de beoordelingen van een algoritme of van iemand anders zagen (of ze dat nu wel of niet waren), waren sneller geneigd om een discriminerende vertekening in de resultaten te herkennen. Wat niet het geval was in de eigen beoordelingen.

Inzicht in gedachtenpatroon
Dat we die vertekeningen bij onszelf moeilijker kunnen herkennen is niet gek, meent Morewedge. We hebben immers beter inzicht in ons eigen denkproces dan in dat van anderen. Ons eigen gedachtepatroon kunnen we immers stap voor stap nagaan en verdedigen waarna we tot de conclusie kunnen komen dat het niet bevooroordeeld was. Als we de beslissingen van andere mensen analyseren, kijken we alleen maar naar de uitkomst. Morewedge geeft een voorbeeld: “Stel, je organiseert een panel van sprekers voor een evenement. Als al die sprekers mannen zijn, zou je kunnen zeggen dat de uitkomst niet het resultaat was van gendervooroordelen, omdat je niet eens aan gender dacht toen je deze sprekers uitnodigde. Maar als je dit evenement bijwoont en een panel ziet van alleen maar mannelijke sprekers, dan is de kans groter dat je tot de conclusie komt dat er in de selectie wel degelijk sprake was van gendervooroordelen.”

Vooroordelen corrigeren
In het laatste experiment kregen de deelnemers de kans om vooroordelen in hun beoordelingen of de beoordelingen van een algoritme aan te passen. Wat ze ook regelmatig deden. “Algoritmen zijn dus een tweesnijdend zwaard”, aldus Morewedge. “Ze kunnen een hulpmiddel zijn dat onze slechtste neigingen versterkt, en een hulpmiddel dat ons kan helpen onszelf te verbeteren.”

De resultaten stemmen de onderzoekers optimistisch. “Op dit moment denk ik dat de literatuur over algoritmische vooroordelen somber is”, aldus Morewedge. “Vele onderzoekers stellen dat we statistische methoden moeten ontwikkelen om vooroordelen in algoritmen te verminderen. Maar een deel van het probleem is dat vooroordelen van mensen komen. We moeten er dus aan werken om algoritmen beter te maken, maar we moeten er ook aan werken om onszelf minder bevooroordeeld te maken.”

Vooroordelen leren van AI
Wij mensen leren niet alleen AI stereotypes aan: dat gebeurt ook andersom. Uit een studie van de Deusto Universiteit in het Spaanse Bilbao blijkt dat er systematische fouten in het ‘denken’ van AI zijn geslopen in de vorm van aangeleerde vooroordelen, die mensen vervolgens overnemen. Zo bleek dat bij een taak waarin proefpersonen werden geassisteerd door de bevooroordeelde AI, zij die fout in eenzelfde context herhaalden, ook al was er nu geen AI-hulpje aan hun zijde. Volgens de onderzoekers komt dat doordat chatbots een prachtig verhaal kunnen verzinnen vol willekeurige onwaarheden wanneer deze het antwoord op een vraag niet weten. Hij zegt dan niet dat hij geen idee heeft, maar verzint een zelfverzekerde en daarmee geloofwaardige reactie. Met als risico dat we hiermee in een gevaarlijke feedbackloop terechtkomen.

Bronmateriaal

"People see more of their biases in algorithms" - Proceedings of the National Academy of Sciences
Afbeelding bovenaan dit artikel: Liia Galimzianova van Getty Images (via CanvaPro)

Fout gevonden?

Voor jou geselecteerd