Mogelijk kunnen we met behulp van een nieuwe tool in de toekomst meer grip krijgen op wat er allemaal langskomt op sociale media, stellen onderzoekers van de Stanford University in Science.
Ze ontwikkelden een tool die de volgorde van content op sociale media aanpast. Berichten komen lager in de feed van een gebruiker terecht als ze antidemocratische opvattingen of politieke haat bevatten. Denk aan het aanzetten tot geweld of pleiten voor het gevangenzetten van politieke tegenstanders.
Tien dagen experiment
In een tien dagen durend experiment tijdens de Amerikaanse presidentsverkiezingen van 2024 werd de tool getest op zo’n 1200 deelnemers. Degenen bij wie de hatelijke content lager in de feed stond, vertoonden een positievere houding ten opzichte van de tegenpartij dan de deelnemers bij wie dit niet gebeurde.
“Algoritmes op sociale media hebben een directe invloed op ons leven, maar tot nu toe konden alleen de platforms zelf de werking ervan beïnvloeden”, aldus hoofdonderzoeker Michael Bernstein, hoogleraar computerwetenschappen aan de Stanford School of Engineering. “Daarom hebben we een aanpak ontwikkeld die de macht juist bij gebruikers legt.”
De tool kan bijdragen aan het verminderen van polarisatie en het vergroten van maatschappelijk vertrouwen met een gezonder democratisch debat over partijgrenzen heen, voegt Bernstein eraan toe.
Categorieën antidemocratische berichten
Eerder sociologisch onderzoek van Stanford lag ten grondslag aan de nieuwe studie. Daarin zijn namelijk categorieën vastgesteld om antidemocratische houdingen en partijpolitieke haat in te delen in de mate waarin ze een bedreiging voor de democratie vormen. Het gaat dan om het pleiten voor extreme maatregelen tegen de tegenpartij, zoals het gebruik van geweld, het afwijzen van samenwerking tussen partijen, scepsis ten opzichte van feiten die de tegenpartij goed uitkomen en de bereidheid om democratische principes op te geven om de eigen partij aan de macht te houden.
“Er is vaak een impulsieve, emotionele reactie te zien op dit soort content”, zegt Jeanne Tsai, hoogleraar psychologie aan de Stanford School of Humanities and Sciences. “Deze polariserende content kan juist de aandacht trekken doordat mensen zich slecht voelen zodra ze het zien.”
Onderzoeker Tiziano Piccardi ontwikkelde daarom een onlinehulpmiddel dat de vermeende fout van het platform ‘oplost’. Het kan berichten scannen en vervolgens binnen enkele seconden de volgorde van berichten in de feed aanpassen. “Toen de deelnemers minder van deze berichten te zien kregen, voelden ze zich vriendelijker tegenover mensen van de tegenpartij. Maar toen ze meer extreme content te zien kregen, voelden ze zich juist killer”, aldus Piccardi.
Kleine verandering met grote impact
Zowel voor als na het experiment ondervroegen de onderzoekers de deelnemers over hun gevoelens ten opzichte van de tegenpartij. Bij deelnemers bij wie de negatieve content lager was geplaatst, verbeterde hun houding met twee punten. Dat is vergelijkbaar met de geschatte verandering in houding die zich heeft voorgedaan onder de algemene Amerikaanse bevolking over een periode van drie jaar.
Deze studie toont aan dat een aanpak met meer nuance effectief kan zijn, zeggen de onderzoekers. Het kan gebruikers meer controle geven over wat ze zien en daarmee hun ervaringen met sociale media verbeteren. De interventie verminderde niet alleen de polarisatie, maar ook gevoelens van woede en verdriet bij deelnemers.
De onderzoekers bekijken nu of de methode ook op andere gebieden succesvol kan zijn, zoals het verbeteren van de mentale gezondheid. De code van de huidige tool is bovendien beschikbaar gesteld, zodat andere onderzoekers en ontwikkelaars die kunnen gebruiken om hun eigen rangschikkingssystemen te maken, los van sociale media.


