Hoe voorkomen we dat AI ontspoort? “Niet proberen alles dicht te timmeren met regels”

Kunstmatige intelligentie dendert op volle snelheid onze samenleving binnen. Van zelfrijdende auto’s tot medische diagnoses, van chatbots tot beleggingsadvies: AI zit inmiddels verweven in allerlei systemen die we dagelijks gebruiken. Dat biedt kansen, maar ook risico’s. Hoe houden we die in bedwang?

Volgens twee Amerikaanse experts, jurist Cary Coglianese van de University of Pennsylvania en computerwetenschapper Colton Crum van de University of Notre Dame, doen we dat níét met harde regels, verboden en protocollen. In een artikel in het vakblad Risk Analysis betogen ze dat we AI niet moeten proberen in te perken met ‘vangrails’, maar in toom moeten houden met een flexibele ‘leiband’.

Vangrails versus leiband
De meeste beleidsdiscussies over AI gaan over het inbouwen van ‘vangrails’: strikte regels die ervoor moeten zorgen dat AI niet ontspoort. Maar volgens Coglianese en Crum is dat idee achterhaald. AI verandert te snel, is te veelzijdig en wordt in te veel verschillende domeinen gebruikt om op één lijn te kunnen houden.

“Voorstellen voor vangrails gaan ervan uit dat vaste regels bescherming bieden”, zegt Coglianese tegen Scientias.nl. “Maar AI zelf beweegt zich helemaal niet langs vaste paden. Het is onrealistisch om te denken dat wetgevers nu al kunnen voorzien welke wetten nodig zijn voor alle mogelijke toepassingen.” En zelfs als het zou lukken, voegt hij daaraan toe, “dan is dat niet noodzakelijk goed voor de samenleving. Het zou innovatie kunnen verstikken.”

Daarom stellen de onderzoekers een andere aanpak voor: een zogenoemde leiband. Die laat AI-technologie vrij om te verkennen en zich te ontwikkelen, maar zorgt wel dat er altijd menselijk toezicht blijft. Zeg maar: flexibel waar mogelijk, streng waar nodig.

AI is geen loslopende hond
De vergelijking met een hond is bewust gekozen. “AI is een vorm van intelligentie, net zoals honden dat zijn”, zegt Coglianese. “Iedereen die ooit met een hond heeft gewandeld weet: je laat hem rondsnuffelen, soms wat verder vooruit lopen, maar de lijn blijft in jouw hand. Als het nodig is, trek je hem terug.”

Zo zouden we ook met AI moeten omgaan, vinden de auteurs. Niet proberen alles dicht te timmeren met regels, maar bedrijven verplichten om zelf verantwoordelijkheid te nemen. Wie een AI-systeem ontwikkelt of toepast, moet intern mechanismen opzetten om risico’s in kaart te brengen, te beperken en te blijven monitoren. Dat principe heet ‘management-based regulation’: regelgeving die niet precies voorschrijft wat je moet doen, maar wel dat je altijd alert moet zijn op risico’s en laat zien hoe je die beheerst.

Risico’s die je niet zomaar afdekt
Die risico’s zijn niet theoretisch. In hun artikel geven Coglianese en Crum drie sprekende voorbeelden van AI-problemen: ongelukken met zelfrijdende auto’s, psychische schade door sociale media en discriminatie in AI-gegenereerde tekst en beeld.

Dat laatste probleem – ook wel bias genoemd – is extra verraderlijk. AI-systemen nemen bestaande data als uitgangspunt en die bevatten vaak impliciete vooroordelen. Een algoritme dat sollicitanten beoordeelt, kan daardoor onbewust mensen met een migratieachtergrond afwijzen. Een beeldgenerator kan stereotypen versterken. En chatbots kunnen seksistische of racistische taal overnemen uit hun trainingsmateriaal.

Coglianese benadrukt: “AI-modellen zijn niet zelf in staat om bias te herkennen of te vermijden. Ze voeren simpelweg uit wat wij ze leren. Alleen met verantwoord menselijk toezicht kunnen we dat soort problemen opsporen en corrigeren.”

Daarom is een leibandbenadering effectiever dan starre regels. Een wet kan wel zeggen “voorkom discriminatie”, maar de vraag hoe je dat doet, verschilt per toepassing. In een leibandsysteem moeten bedrijven testen op vooroordelen vóórdat hun AI live gaat én het daarna blijven controleren.

Flexibiliteit is een kracht
De kracht van deze benadering is dat hij toepasbaar is op heel uiteenlopende domeinen. Aan AI in een ziekenhuis worden hele andere eisen gesteld dan aan AI in een sociale app of in een vrachtwagen. Toch werkt het principe in al die gevallen hetzelfde: de verantwoordelijkheid ligt bij de ontwikkelaar of gebruiker en de overheid controleert of die zijn werk goed doet.

“Elke toepassing van AI is anders”, zegt Crum. “Maar juist daarom werkt management-based regulation zo goed. Het is flexibel, schaalbaar en past zich aan aan de praktijk.”
Sociale mediaplatforms kunnen bijvoorbeeld andere ‘leibanden’ nodig hebben dan autobouwers, maar beide partijen moeten hun systemen doorlichten, risico’s in kaart brengen en mechanismen hebben om die te beheersen. Zo ontstaat een gedeeld kader zonder dat innovatie wordt belemmerd.

Wat kun je zelf doen?
De onderzoekers sluiten hun artikel af met een blik op de toekomst en een advies aan jongeren die de wereld van AI willen verbeteren. AI is geen niche meer, het zit straks in bijna elk vakgebied. Daarom, zegt Coglianese, is het belangrijk dat toekomstige werknemers begrijpen hoe AI werkt én nadenken over de ethische en maatschappelijke impact.

“Een opleiding die kritisch denken stimuleert, een sterke wiskundige basis legt én aandacht heeft voor menselijke waarden is cruciaal”, zegt hij. “AI-veiligheid is niet iets dat alleen techneuten moeten oplossen. Het is een gedeelde verantwoordelijkheid, net zoals we dat al lang accepteren in andere risicovolle sectoren, zoals de luchtvaart of geneeskunde.”

Wie AI wil reguleren, doet er volgens deze onderzoekers verstandig aan om los te laten als het kan en bij te sturen als het moet. Met een star systeem van verboden en geboden redden we het niet. Wat wel werkt, is slimme, flexibele regelgeving die bedrijven verplicht om hun AI aan een virtuele lijn te houden.

Laat AI dus gerust rondsnuffelen. Maar vergeet nooit wie de lijn vasthoudt.

Bronmateriaal

"Leashes, not guardrails: A management-based approach to artificial intelligence risk regulation" - Risk Analysis
Interview met hoofdonderzoeker Cary Coglianese van de University of Pennsylvania
Afbeelding bovenaan dit artikel: Michael Morse / Pexels

Fout gevonden?

Interessant voor jou

Voor jou geselecteerd