Volgens deze wetenschapper kunnen computers nu al écht nadenken. Nu moeten we ze nog een moreel kompas geven

Hebben robots en computers een eigen wil? Volgens een studie van een filosoof uit Finland komen ze al aardig in de buurt.

De auteur van de studie, de filosoof Frank Martela, bekeek de nieuwste AI-systemen, zoals Voyager, een programma dat zelfstandig het populaire spel Minecraft speelt. Voyager krijgt geen stap-voor-stap-handleiding mee, maar alleen een simpel doel: “Word zo goed mogelijk in het spel.” Wat doet het? Het bedenkt zelf trucjes en strategieën om beter te worden. Nog indrukwekkender (en iets verontrustender) zijn militaire drones die autonoom vliegen, routes uitstippelen en zelfs beslissen welke doelen ze aanvallen. Dat is toch wel een tikkeltje griezelig, nietwaar?

Deze systemen hebben iets speciaals, legt Martela uit in zijn studie. Ze kunnen verschillende paden kiezen om hun doel te bereiken, net zoals mensen dat kunnen. Dat heet dus ‘functionele vrije wil’. Maar wat betekent dat nou eigenlijk? Simpel gezegd: deze AI kan zelf doelen stellen, opties afwegen en keuzes maken, zonder dat iemand het bij elke stap aanstuurt.

Wat is ‘functionele vrije wil’ precies?
Laten we dat jargon even opbreken. ‘Functionele vrije wil’ betekent dat AI niet vastzit aan een strak script, zoals een oud computerspel dat altijd hetzelfde doet. In plaats daarvan kan het nadenken over wat het wil bereiken en hoe. Het is een beetje als een kind dat mag kiezen tussen broccoli of worteltjes, maar wel een portie groenten moet eten. AI is niet zo vrij als een volwassene die zelf beslist of hij überhaupt iets eet, maar het kan wél keuzes maken binnen de grenzen die wij mensen stellen.

Wie is verantwoordelijk als het misgaat?
Dat brengt ons bij een grote vraag: als AI zelf keuzes maakt, wie krijgt dan de schuld als het fout loopt? Stel, een zelfrijdende auto veroorzaakt een ongeluk: is dat de auto, de maker, of de eigenaar? Frank Martela heeft hier een duidelijke kijk op: “Het is meer dat we een punt naderen waarop we ze niet meer gewoon kunnen zien als machines die een script uitvoeren, maar waarin ze ‘verantwoordelijk’ beginnen te worden voor hun eigen handelen”, vertelt hij aan Scientias.nl.

Maar er is een maar, voegt hij toe: “Vrije wil is een noodzakelijke, maar geen voldoende voorwaarde voor morele verantwoordelijkheid. Om moreel verantwoordelijk te zijn, moet een systeem ook weten wat de morele regels zijn die het niet mag overtreden. Je kunt iemand niet verantwoordelijk houden voor het overtreden van regels waarvan diegene niet weet dat ze bestaan.” Met andere woorden: AI kan wel beslissen, maar snapt het ook wat ‘goed’ en ‘fout’ is? Nu nog niet echt. Het heeft geen geweten.

Een moreel kompas voor machines
Dat is precies het probleem: AI heeft geen eigen moreel kompas. Moeten wij dat dan geven? Ja, zegt Martela, maar dat is niet simpel. “Het zou lijken op wat een goed afgesteld moreel kader voor mensen is: een relatief complex begrip van verschillende moreel relevante thema’s die moeten worden meegenomen bij het nemen van beslissingen.” Denk aan dingen als eerlijkheid, veiligheid en respect. Maar hoe programmeer je dat? En nog lastiger: “AI zal altijd het morele kader van zijn ontwikkelaars erven — en dus zo universeel zijn als hun morele overtuigingen dat zijn”, zegt de filosoof. Als een programmeur bijvoorbeeld vindt dat efficiëntie belangrijker is dan privacy, krijgt de AI dat ook mee. Dat maakt het tricky, want niet iedereen denkt hetzelfde over wat ‘goed’ is.

Hoe houden we AI in het gareel?
Vooral nu AI wordt gebruikt in spannende gebieden zoals het leger, de zorg en de rechtspraak, wordt dit steeds belangrijker. Martela heeft een idee: “Het zou goed zijn als er meer transparantie komt over de morele richtlijnen en principes die in AI-systemen zijn ingebouwd, zodat we daar publiekelijk over in debat kunnen gaan.”

En wie moet dat allemaal regelen? De programmeurs, natuurlijk, maar die kunnen niet alles alleen. Martela pleit daarom voor meer ethiek in hun werk: “Op z’n minst een basisinzicht in verschillende filosofische theorieën over moraliteit en in de factoren die moreel relevant zijn. Idealiter zouden er ook moraalexperts deel uitmaken van het team.” Dus niet alleen techneuten, maar ook mensen die snappen hoe je nadenkt over goed en kwaad, moeten de wereld van morgen opbouwen.

Categorieën:

Bronmateriaal

Fout gevonden?

Interessant voor jou

Voor jou geselecteerd