Killerrobots, waarover we geen controle meer hebben, zelflerende AI die ons straks te slim af is, ergens vrezen we het allemaal, maar is dat ook terecht? Britse en Duitse onderzoekers werpen licht op de zaak.
En ze zijn eigenlijk heel optimistisch. ChatGPT en andere LLM’s (Large Language Models) kunnen niet zelfstandig leren of nieuwe vaardigheden verwerven. Zo lang ze dat niet kunnen, vormen ze geen bedreiging voor het voortbestaan van de mensheid, luidt de conclusie. Best bijzonder, aangezien experts over de hele wereld en zelfs overheden AI als een existentiële bedreiging bestempelen. Dit jaar nog noemde Sam Altman, CEO van OpenAI, AI een even grote bedreiging voor de mensheid als kernoorlogen en pandemieën.
Wij zijn de baas
Dat is schromelijk overdreven volgens de wetenschappers van de University of Bath en de Technische Universiteit van Darmstadt. Zij stellen dat LLM’s weliswaar een oppervlakkig vermogen hebben om instructies op te volgen en excellent zijn in taalvaardigheid, maar dat ze niet in staat zijn om zonder expliciete instructies nieuwe vaardigheden te leren. En dus blijven wij mensen de AI ruimschoots de baas.
Natuurlijk gaat de technologie met rasse schreden vooruit – LLM’s worden getraind met steeds grotere datasets – maar ook dan blijven ze voorspelbaar en veilig, menen de onderzoekers. Wel kan de techniek altijd misbruikt worden, beamen ze, bijvoorbeeld voor nepnieuws. Naarmate deze modellen beter worden, genereren ze namelijk steeds verfijndere teksten. Ook kunnen ze steeds ingewikkeldere en gedetailleerdere opdrachten beter uitvoeren, maar het is hoogst onwaarschijnlijk dat ze zelf complexe redeneringen kunnen bedenken.
AI heeft input nodig
“De angst leeft dat dit soort AI een bedreiging vormt voor de mensheid, maar dat is onterecht en het belemmert de brede acceptatie en ontwikkeling van de technologie. Het leidt bovendien de aandacht af van de echt ernstige kwesties waarvoor we ons moeten inzetten”, reageert computerwetenschapper Harish Tayyar Madabushi, van de University of Bath.
Het zijn allemaal nogal stellige uitspraken van de techneuten, maar waar zijn ze op gebaseerd? Het team onder leiding van professor Iryna Gurevych van de Technische Universiteit van Darmstadt voerde experimenten uit om te testen in hoeverre LLM’s in staat zijn om taken uit te voeren waarmee ze nog nooit eerder in aanraking zijn gekomen.
De taalmodellen moesten bijvoorbeeld vragen beantwoorden over sociale situaties zonder dat ze daar ooit in zijn getraind of informatie over hebben gekregen. Eerder onderzoek stelde dat dit lukte, omdat de chatbots uit zichzelf dingen wisten over sociale situaties, maar de onderzoekers tonen nu aan dat dit feitelijk niets anders was dan zogenoemde in-context learning (ICL): ze voerden taken uit op basis van een paar voorbeelden die aan hen werden getoond.
Duizenden experimenten
Maar de onderzoekers gingen niet over één nacht ijs. Ze voerden op die manier duizenden experimenten uit en concludeerden dat de kracht van LLM’s verklaarbaar is door hun vermogen om instructies op te volgen (de in-context learning), hun extreem goede geheugen en hun geweldige taalvaardigheid.
“De angst was dat naarmate de modellen groter en groter worden, ze nieuwe problemen kunnen oplossen die we nu nog niet kunnen voorspellen. Daarmee ontstaat de dreiging dat deze grotere modellen gevaarlijke vaardigheden kunnen ontwikkelen, zoals redeneren en plannen”, vertelt onderzoeker Tayyar Madabushi. “Dit heeft tot veel discussie geleid, bijvoorbeeld op de AI Safety Summit vorig jaar. Maar onze studie toont aan dat de angst dat een model zijn eigen weg gaat en iets volledig onverwachts, innovatiefs of potentieel gevaarlijks doet, ongegrond is.”
Ook angst bij topwetenschappers
Denk niet dat alleen leken die te veel sciencefiction kijken bang zijn voor AI. “Zorgen over de existentiële dreiging van LLM’s blijven niet beperkt tot gewone mensen. Ze zijn ook geuit door enkele van de beste AI-onderzoekers wereldwijd”, aldus Tayyar Madabushi. Hij benadrukt nogmaals dat deze angst nergens voor nodig is: de tests tonen duidelijk aan dat er bij de grote taalmodellen geen sprake is van zichzelf ontwikkelende complexe redeneervaardigheden. “Het blijft natuurlijk wel belangrijk om misbruik van AI tegen te gaan. Denk aan het maken van nepnieuws en het verhoogde risico op fraude. Het is echter voorbarig om regelgeving in te voeren vanwege existentiële bedreigingen”, klinkt het.
Van de andere kant betekent dit ook voor gebruikers dat ze er niet op moeten vertrouwen dat ChatGPT ingewikkelde taken, die complexe redeneringen vereisen, kan begrijpen en uitvoeren, zonder duidelijke instructies. “Behalve voor de eenvoudigste taken, moeten ze juist heel expliciet specificeren wat ze willen van het model en liefst ook voorbeelden geven”, aldus de computerwetenschapper.
Meer onderzoek naar nepnieuws
Professor Gurevych voegt daar nog wel aan toe: “Onze resultaten betekenen niet dat AI helemaal geen bedreiging vormt. We tonen alleen aan dat de gevreesde opkomst van complexe denkvaardigheden die verband houden met specifieke bedreigingen niet door bewijs wordt ondersteund en dat we het leerproces van LLM’s heel goed kunnen beheersen. Toekomstig onderzoek moet zich daarom richten op andere risico’s die door de modellen ontstaan, zoals hun vermogen om nepnieuws te genereren.”