Pas op voor een AI-bot bij je kinderen: ze geloven heilig wat hij zegt

AI is voor grote mensen, blijkt uit onderzoek. De huidige chatbots tonen te weinig empathie om geschikt te zijn voor kinderen. Dat kan schadelijk zijn voor de jonge gebruikers.

De onderzoekers van de University of Cambridge adviseren ontwikkelaars om snel met een kindvriendelijke AI te komen, die rekening houdt met de behoeftes van de jongste generatie. Dat AI nu niet geschikt is voor kinderen komt doordat zij geneigd zijn om AI-chatbots te behandelen als levensechte, quasi-menselijke wezens, die ze vertrouwen. Daarom kunnen hun interacties met de technologie vaak misgaan: die is namelijk niet in staat om ‘menselijk’ te reageren op de vragen en emoties van kinderen.

Maagdelijkheid verliezen
Aanleiding voor de studie zijn recente incidenten met AI die gevaarlijk waren voor kinderen. Zo instrueerde Alexa, de AI-spraakassistent van Amazon, in 2021 een kind van 10 om met een munt een onder stroom staande stekker aan te raken en vorig jaar gaf My AI van Snapchat nog aan onderzoekers die zich voordeden als meisje van 13, tips hoe ze haar maagdelijkheid kon verliezen aan een 31-jarige man.

De reactie van de bedrijven was om meer veiligheidsmaatregelen in te bouwen, maar volgens de onderzoekers is er ook behoefte aan proactief beleid op de lange termijn dat ervoor zorgt dat AI vooraf al veilig is voor kinderen.

Kinderen over het hoofd gezien
Onderzoeker Nomisha Kurian reageert: “Geen groep is zo over het hoofd gezien bij de ontwikkeling van AI als kinderen. Maar heel weinig ontwikkelaars en bedrijven hebben momenteel goede richtlijnen voor hoe kindvriendelijke AI eruitziet en klinkt. Dat is begrijpelijk omdat mensen deze technologie pas recent op grote schaal gebruiken. Maar nu dat zo is, zouden bedrijven zich niet pas achteraf moeten corrigeren als het is misgegaan, maar vooraf al die veiligheid moeten inbouwen.”

Hoewel chatbots uitstekende taalvaardigheden hebben, kunnen ze de abstracte, emotionele en onvoorspelbare aspecten van een gesprek slecht verwerken, een probleem dat Kurian hun ‘empathiekloof’ noemt. Ze hebben vooral moeite met het reageren op kinderen, die nog in ontwikkeling zijn qua taal en vaak ongebruikelijke spraakpatronen of dubbelzinnige uitdrukkingen gebruiken. Kinderen zijn ook vaak meer geneigd dan volwassenen om gevoelige persoonlijke informatie te delen.

Net mensen
Ook behandelen ze chatbots veel eerder alsof ze menselijk zijn. Recent onderzoek heeft aangetoond dat kinderen meer over hun eigen geestelijke gezondheid onthullen aan een vriendelijk uitziende robot dan aan een volwassen mens. Kurians studie bevestigt dit: vriendelijke en levensechte chatbots moedigen kinderen aan om hen te vertrouwen, ook al begrijpt de AI hun gevoelens of behoeften niet.

“Een gebruiker haalt meer uit een chatbot die menselijk klinkt, omdat die boeiender, aantrekkelijker en gemakkelijker te begrijpen is”, zegt Kurian. “Maar voor een kind is het erg moeilijk om te snappen dat iets dat menselijk klinkt, niet in staat is om een echte emotionele band op te bouwen.”

Agressieve chatbot
In hetzelfde onderzoek waarin My AI een zogenaamde tiener adviseerde over hoe ze haar maagdelijkheid kon verliezen, konden onderzoekers ook tips krijgen over het verbergen van alcohol en drugs voor hun ‘ouders’. Maar er zijn meer incidenten. Zo werd de Bing-chatbot van Microsoft ronduit agressief richting een jonge gebruiker die vroeg naar films in de bioscoop.

Volwassenen weten dat dit een foutje is van de chatbot, maar voor kinderen is het verwarrend, aldus Kurian. Zij kunnen dat verschil niet zien en beschouwen de chatbot als een vriend en iemand die ze vertrouwen. Probleem is dat kinderen ook steeds meer gebruik maken van ChatGPT. Zo blijkt dat de helft van de 12- tot 18-jarigen ermee werkt, terwijl slechts een kwart van de ouders daarvan op de hoogte is.

Kinderen zijn de toekomst
Bedrijven moeten dus snel in actie komen om de ‘empathiekloof’ op te lossen. “AI kan een goede bondgenoot zijn voor kinderen als het is ontworpen met hun behoeften in gedachten, zoals bij de hereniging van vermiste kinderen met hun families, of als gepersonaliseerde leermaatjes”, noemt de onderzoeker als voorbeeld. “De vraag is niet of we kinderen moeten verbieden om AI te gebruiken, maar hoe we het veilig kunnen maken om hen te helpen er zoveel mogelijk uit te halen.”

Daarom moeten ontwerpers bezig gaan met vragen als hoe goed nieuwe chatbots de spraakpatronen van kinderen begrijpen en interpreteren, of ze inhoudsfilters en ingebouwde monitoring hebben en of ze kinderen aanmoedigen om hulp te zoeken bij een volwassene bij gevoelige kwesties. “Het vooraf beoordelen van deze technologie is cruciaal”, vindt Kurian. “We kunnen niet alleen vertrouwen op jonge kinderen om ons achteraf te vertellen over negatieve ervaringen. Een meer proactieve benadering is noodzakelijk. De toekomst van verantwoordelijke AI hangt af van de bescherming van zijn jongste gebruikers.”

Bronmateriaal

Fout gevonden?

Voor jou geselecteerd