Heb je maar twintig minuten en is je favoriete podcast nét iets langer? Door de afspeelsnelheid te verhogen kun je ‘m toch afluisteren. Maar past je hersenactiviteit zich dan ook aan die hogere snelheid aan? Nieuw onderzoek in Nature Neuroscience suggereert van niet.
De auditieve cortex – één van de hersengebieden die geluid verwerken – blijkt informatie te verwerken op een vaste, interne tijdschaal, los van hoe snel of langzaam iemand praat. Dat levert een constant getimede stroom van signalen op die pas in hogere taalgebieden wordt omgezet naar betekenis.
De kern van de ontdekking is eenvoudig maar verrassend: de auditieve cortex ‘bundelt’ spraakinformatie over een vaste hoeveelheid tijd (bijvoorbeeld honderd milliseconden), in plaats van mee te rekken met spraakstructuren zoals lettergrepen of woorden. “Dit was verrassend,” zegt neuroloog Sam Norman-Haignere. “Het blijkt dat wanneer je een woord vertraagt, de auditieve cortex het tijdvenster waarin dit verwerkt wordt niet verandert.” Of in andere woorden: het is alsof de auditieve cortex gebruik maakt van een interne ‘klok’.
Elektroden
Om dat te testen werkte het team samen met epilepsiepatiënten die in het ziekenhuis tijdelijk elektroden in de hersenen geïmplanteerd kregen voor klinische monitoring. Zulke metingen leveren veel preciezere signalen op dan dat bij anderen meetmethoden het geval is. Dit is omdat ze elektrische activiteit direct naast actieve neuronen registreren in plaats van verder weg, zoals vanaf de buitenkant van de schedel.
De deelnemers luisterden naar dezelfde passage uit een audioboek, eerst op normale snelheid en daarna trager. De onderzoekers verwachtten dat het neurale verwerkingsvenster zou veranderen aan de hand van de spreeksnelheid. Dat gebeurde nauwelijks tot niet. De auditieve cortex bleef op een vast intern tempo informatie te ‘verzamelen’, alsof het tikt als een klok, ongeacht hoe snel de woorden langskomen.
Wetenschapper Nima Mesgarani heeft ook meegewerkt aan het onderzoek. Mesgarani zegt: “Deze bevinding daagt het intuïtieve idee uit dat de verwerking in onze hersenen gekoppeld is aan de spraakstructuren die we horen. In plaats daarvan laten we zien dat de auditieve cortex opereert op een vaste, interne tijdschaal, onafhankelijk van de structuur van het geluid. Dat levert een consistent getimede informatiestroom op die hogere hersengebieden vervolgens moeten interpreteren om tot taalbegrip te komen.”
Interpretatie
Het onderscheid tussen ‘tijd’ en ‘structuur’ is belangrijk voor hoe we spraakmodellen bouwen – zowel in de wetenschap als in toepassingen. Als de auditieve cortex alleen werkt met een vaste interne ‘klok’, dan moet de omzetting van signalen naar begrijpbare woorden en zinnen vooral in latere, taalkundige gebieden gebeuren. Dat maakt het aannemelijk dat stoornissen in spraak- en taalverwerking soms kunnen ontstaan in de ‘vertaling’ tussen dit tijdvaste signaal en de hogere interpretatie. “Een van de hoofddoelen van dit soort onderzoek is om betere computationele modellen van spraakverwerking te bouwen,” zegt Norman-Haignere. “Die modellen vergroten onze wetenschappelijke gereedschapskist en helpen uiteindelijk te begrijpen wat er misgaat wanneer iemand moeite heeft met spraak- en taalbegrip.”
Het onderzoek maakt duidelijk dat het brein de taak van spraakbegrip opsplitst: de auditieve cortex levert een stabiel, ‘getimed’ signaal; hogerop wordt dat signaal geïnterpreteerd naar iets met betekenis. Dat inzicht scherpt niet alleen onze basiskennis aan over hoe we luisteren en begrijpen, maar kan ook richting geven aan betere diagnostiek en interventies bij taalstoornissen – van gehoorproblemen tot ontwikkelingsstoornissen en revalidatie na hersenletsel.



