Brain-on-a-chip zet stap om heuse SoC te worden

Kleine stukjes organen worden in onderzoek al enige tijd gebruikt in combinatie met chips om direct informatie te halen uit hun werking onder invloed van bijvoorbeeld medicijnen. Ook onderzoek naar breinweefsel wordt regelmatig gedaan. Het is nu zelfs gelukt om een hoopje breincellen wat berekeningen te laten doen.

Aan de Indiana Universiteit Bloomington in de VS heeft een team onder leiding van onderzoeker Feng Guo het voor elkaar gekregen om enkele breincellen uit stamcellen te laten groeien en deze vervolgens aan een computerchip te koppelen. Dit is op zich al vaker gelukt, maar dit team heeft vervolgens de brein-computer interface aan een AI-tool gekoppeld. Vervolgens bleek het mogelijk te zijn om met dit systeem enige berekeningen uit te laten voeren, maar ook dingen te leren, te laten onthouden, en zelfs een klein beetje spraakherkenning te doen. Het onderzoek is op 11 december in Nature gepubliceerd.


De Indiana Universiteit Bloomington campus.

Het is een eerste grote stap richting het gebruik van hersenweefsel voor bepaalde soort berekeningen. Waar standaard computers heel goed zijn in het rekenen, zijn biologische computers een stuk beter, en vooral efficiënter, in het verwerken van complexere datasets. Een menselijk brein verbruikt slechts tussen de 100 en 150 watt terwijl het constant grote visuele- en geluids-datastromen weet te verwerken. Een efficiëntie waar traditionele computers niet in de buurt komen als het gaat om het verwerken van grote hoeveelheid data. 

Het doel van Brainoware, zoals de onderzoekers hun brein-computer interface noemen, was om de breincellen te gebruiken om data te verzenden en te ontvangen. Dit lukte, maar de onderzoeker vonden ook veranderingen in de neurale paden in het weefsel, wat zou betekenen dat de data verwerkt werd op een bepaalde manier. Daarna probeerde het team taken te geven aan het stukje hersenweefsel, zoals het oplossen van enkele wiskundige berekeningen. Daarna probeerden ze een benchmark test voor spraakherkenning, waar 240 audiofragmenten werden gespeeld van acht verschillende mensen die Japanse klinkers uitspraken. Dit moest wel eerst in elektronische signalen worden omgezet en toen het brein ermee klaar was moest het gedecodeerd worden door de AI-tool. Het was duidelijk dat de cellen de audio fragmenten konden decoderen, en verbeterde na wat training. De brein-AI combinatie kwam echter niet verder dan een accuraatheid van 78%, wat niet zo goed is als artificiële neurale netwerken. Verdere stappen zijn echter nog ver weg, omdat het moeilijk is om brein organoiden levend te houden en groter te maken binnen een lab.

Bron: Technology Review

« Vorig bericht Volgend bericht »
0