Dat toont onderzoek van de Australian National University aan. Gezichten gegenereerd met kunstmatige intelligentie (AI) van mensen van kleur worden minder als menselijk gezien, en dat kan leiden tot meer raciale vooroordelen, online misinformatie en zelfs veiligheidsrisico’s, waarschuwen de onderzoekers.
AI-gezichten zijn afbeeldingen die door een computerprogramma worden gegenereerd op basis van bestaande gezichten. Deze technologie wordt steeds beter en kan op tal van manieren worden ingezet. Voor reclames, animaties van personages in films en games of om nep-identiteiten te maken. Vooral vanwege de negatieve doeleinden is het belangrijk dat mensen kunnen onderscheiden wat echt en wat nep is. Maar dat wordt – nu de techniek steeds beter wordt – steeds lastiger. Want hoe onderscheid je eigenlijk een echt gezicht van een AI-gezicht, en lukt ons dat tegenwoordig nog?
Om dat te onderzoeken lieten de onderzoekers meer dan zeshonderd deelnemers kijken naar foto’s van gezichten die ofwel echt waren, ofwel AI gegenereerd waren. De deelnemers moesten simpelweg aangeven of ze dachten dat het gezicht echt of nep was, en hoe zeker ze waren van hun oordeel. En dat leverde verrassende resultaten op. Bij foto’s van witte mensen dachten deelnemers vaker dat de afbeelding echt was. Daarnaast hadden de deelnemers in het algemeen meer moeite om de AI-gezichten van mensen van kleur te herkennen als nep.
Catfishing
Dat verschil heeft een logische oorzaak, vertelt hoofdauteur Amy Dawel, die haar bevindingen ook in deze YouTube-video nader toelicht. “De AI-algoritmes die de gezichten genereren, zijn namelijk vooral getraind op witte gezichten.” Hoewel dat misschien onschuldig lijkt, is dat het niet, vertelt Dawel. “Als AI-gezichten consequent als realistischer worden gezien, kan deze technologie ernstige gevolgen hebben voor mensen van kleur. Zo kunnen we ons bijvoorbeeld meer aangetrokken voelen tot politieke desinformatie of catfishing met witte AI-gezichten, waardoor witte gezichten enorm veel invloed krijgen.”
“Zelfrijdende auto’s zullen minder snel mensen met een donkere huidskleur detecteren”
Racisme door technologie
Maar niet alleen qua invloed zullen raciale vooroordelen versterkt worden, vertelt Dawel. “De raciale programmering strekt zich ook uit tot andere AI-technologieën, waardoor zelfrijdende auto’s minder snel mensen met een donkere huidskleur zullen detecteren.” Dat is niet iets wat ‘mogelijk in de toekomst zou kunnen gebeuren’, en we dus nog kunnen keren. Het is al aan de gang. “Dit probleem is nu al duidelijk in de huidige AI-technologieën die worden gebruikt om professioneel ogende portretten te maken. Als ze worden gebruikt voor mensen van kleur, verandert de AI hun huid- en oogkleur naar die van witte mensen.”
Hyperrealisme
Als we echt en nep nu goed zouden kunnen onderscheiden was dit mogelijk een minder groot probleem, maar één van de problemen met de AI-‘hyperrealisme’ is dat mensen vaak niet beseffen dat ze voor de gek worden gehouden, ontdekten de onderzoekers. “Mensen die dachten dat de AI-gezichten echt waren, waren paradoxaal genoeg het meest zeker van hun oordeel,” zegt mede-auteur Elizabeth Miller. ”Dat is zorgwekkend. Dit betekent dat mensen die AI-bedriegers voor echte mensen aanzien, niet weten dat ze worden misleid.”
Net echt
Visuele trucjes om echt en nep te onderscheiden helpen daar niet bij, zagen de onderzoekers. Er zijn namelijk wel degelijk nog steeds herkenbare verschillen te zien tussen AI- en menselijke gezichten, maar we interpreteren die verkeerd. “Witte AI-gezichten hebben vaak meer symmetrie en zijn meer in verhouding dan echte mensen. Terwijl wij dat ironisch gezien juist zien als een teken van menselijkheid”, aldus Dawel. En al zouden we ons onbewuste hierover uitzetten en erop trainen, dan nog ontwikkelt de AI-technologie zo snel dat ook die verschillen binnenkort waarschijnlijk zullen verdwijnen, vrezen de onderzoekers.
Transparantie
Omdat dit ernstige gevolgen kan hebben zoals verspreiding van misinformatie en identiteitsdiefstal moet er volgens hen daarom dringend actie worden ondernomen. “AI-technologie zou niet zo afgeschermd mogen worden dat alleen techbedrijven weten wat er achter de schermen gebeurt”, stelt Dawel. “Er moet meer transparantie zijn rondom AI, zodat onderzoekers en de maatschappij toekomstige problemen kunnen herkennen en voorkomen voordat ze een groot probleem worden.”
“Vooroordelen zitten ook in de mens.”
‘Handmatige overschrijvingen’
We weten nu bijvoorbeeld vaak niet waar de AI op is getraind. Het is daarom ook niet duidelijk of dit probleem kan worden opgelost door simpelweg AI ook te laten trainen met gezichten van mensen van kleur. “Dat kan er misschien toe leiden dat de techniek een voorkeur krijgt voor een ‘gemengd’ gezicht, in plaats van de gezichten van verschillende rassen nauwkeurig weer te geven”, waarschuwt Dawel. Ook is ze niet gerust op de ‘handmatige overschrijvingen’ die AI-bedrijven invoeren om het probleem te verhelpen. “Vooroordelen zitten immers ook in de mens.”
Betrek bedrijven en beleid
Dawel roept daarop op tot meer onafhankelijke tests, bijvoorbeeld door universiteiten, om beter te kunnen inschatten wat AI doet. “Aangezien mensen geen onderscheid meer kunnen maken tussen AI- en menselijke gezichten, heeft de samenleving tools nodig die AI-bedriegers nauwkeurig kunnen identificeren,” zegt Dr. Dawel. Het publieke bewustzijn verbeteren kan daar ook bij helpen. “Als we mensen kunnen informeren over hoe realistisch AI-gezichten lijken, dan kunnen we hen misschien op gepaste wijze sceptisch maken over de afbeeldingen die ze online zien.”
De onderzoekers hebben echter bij hun onderzoek geen enkele betrokkenheid van bedrijven of beleid gehad, en vinden dat zorgwekkend. “Bedrijven moeten onafhankelijk advies zoeken en investeren in extern onderzoek om ervoor te zorgen dat hun producten onze samenleving ten goede komen, in plaats van schaden.”