Een unieke prestatie: twee AI’s die met elkaar praten

Je kunt een AI een opdracht geven en dan voert hij die min of meer vlekkeloos uit. Maar wat kunstmatige intelligentie tot nu toe niet kon, was een andere AI leren hoe hij een bepaalde taak moet doen. Maar ook dat lukt nu wel.

In een experiment leerden Zwitserse onderzoekers een AI een reeks basale taken. Nadat hij die had uitgevoerd, kon hij een gesproken beschrijving ervan communiceren naar een ‘zuster’-AI, die vervolgens ook die taken wist uit te voeren. Een belangrijke doorbraak in de wereld van kunstmatige intelligentie, waarover de Zwitsers in Nature publiceerden.

Uniek voor mensen
Zonder te oefenen en enkel op basis van een instructie een nieuwe taak uitvoeren, was tot nu toe een unieke menselijke vaardigheid. Wat we eveneens vrijwel als enige kunnen, is die taak beschrijven, zodat een ander hem ook kan uitvoeren. Deze vaardigheden onderscheiden ons van andere soorten, die een nieuwe taak meerdere keren moeten oefenen gevolgd door positieve of negatieve reacties, voor ze het echt kunnen. Ook zijn ze niet in staat om de taak te leren aan soortgenoten.

Maar een AI kan dit nu dus wel met behulp van een techniek die is gebaseerd op kunstmatige neurale netwerken, die zijn geïnspireerd op onze eigen biologische neuronen. “Op dit moment kunnen chatbots taalkundige informatie tot zich nemen om een tekst of beeld te produceren. Maar zo ver we weten, zijn ze nog niet in staat om een gesproken of geschreven instructie te vertalen in een daadwerkelijke handeling en wat ze nog helemaal niet kunnen is dit uitleggen aan een andere AI, zodat die het kan reproduceren”, legt Alexandre Pouget uit, professor aan de Universiteit van Genève.

Dit is S-Bert
Maar dat was buiten de Zwitserse onderzoekers gerekend. Zij slaagden erin een AI-model te ontwikkelen dat het allebei kon, al had hij er toch nog wel wat training voor nodig. “We begonnen met een bestaand model genaamd S-Bert, dat 300 miljoen neuronen heeft en getraind is om taal te begrijpen. We verbonden het met een ander simpeler netwerk van een paar duizend neuronen”, legt onderzoeker Reidar Riveland uit.

In de eerste fase van het experiment trainden de neurowetenschappers dit netwerk om het zogeheten centrum van Wernicke te simuleren, het hersendeel dat ons helpt om taal te begrijpen. In de tweede fase werd het netwerk getraind om het spraakcentrum van Broca te reproduceren, dat verantwoordelijk is voor de verwerking van taal en spraak. De geschreven Engelse instructies werden daarna naar de AI gestuurd. Het hele proces is uitgevoerd op doodnormale laptops.

Pratende AI’s
De opdracht was bijvoorbeeld om naar links of rechts te wijzen, afhankelijk van waar een signaal zich bevindt. De AI moest ook in tegengestelde richting op het signaal reageren of nog complexer: de helderste aanwijzen van twee visuele signalen met slechts een klein verschil in contrast.

“Toen het deze taken eenmaal had geleerd, was het netwerk in staat om ze te beschrijven aan een tweede netwerk, een kopie van de eerste, waarna die ze kon reproduceren. Voor zo ver wij weten is dit de eerste keer dat twee AI’s met elkaar konden praten op een puur taalkundige manier”, reageert Pouget.

Veelbelovende doorbraak
Dit model is veelbelovend, vooral voor de robotica, waar al heel lang uitgekeken wordt naar de ontwikkeling van technologie, die machines in staat stelt met elkaar te praten. “Het netwerk dat we hebben ontworpen is erg klein. Maar niets staat nu nog in de weg om op basis van ons model veel complexere netwerken te ontwikkelen die we kunnen integreren in robots die óns kunnen begrijpen én elkaar snappen”, besluiten de twee onderzoekers. Een interessante ontwikkeling dus waar we ongetwijfeld meer van gaan horen.

Bronmateriaal

"Natural language instructions induce compositional generalization in networks of neurons" - Nature
Afbeelding bovenaan dit artikel: Charles Taylor / Getty (via Canva.com)

Fout gevonden?

Voor jou geselecteerd