Neurotechnologie bietet Echtzeit-anzeigen von wo die Ratten denken, Sie sind

Die Ratte in einem Labyrinth kann man von den meisten klassischen Forschungs-Motive im Gehirn-Wissenschaft, sondern eine neue innovation beschrieben, die in Cell Reports durch eine internationale Kooperation von Wissenschaftlern zeigt nur, wie weit solche Experimente sind immer noch dabei, den neusten Stand der Technik und Neurowissenschaften gleichermaßen.

In den letzten Jahren haben die Wissenschaftler gezeigt, dass durch die Aufzeichnung der elektrischen Aktivität von Gruppen von Neuronen in wichtigen Bereichen des Gehirns, die Sie Lesen konnte, eine Ratte Gedanken, wo er war, sowohl nach der es tatsächlich lief das Labyrinth und auch später, wenn Sie würde im Traum läuft das Labyrinth, in seinen schlafen-ein wichtiger Prozess bei der Konsolidierung Ihrer Speicher. In der neuen Studie einige der beteiligten Wissenschaftler in Pionierarbeit eine solche mind-reading-Methoden, die jetzt melden, Sie erhalten dann diese Signale in Echtzeit-wie die Ratte läuft das Labyrinth, mit einem hohen Grad an Genauigkeit und die Fähigkeit zu berücksichtigen, für die statistische Relevanz der Messergebnisse fast sofort, nachdem Sie gemacht werden.

Die Möglichkeit, so robust Spur der Ratte die räumlichen Darstellungen in Echtzeit öffnet die Tür zu einer ganz neuen Klasse von Experimenten, die Forscher sagte. Sie sagen diese Experimente produzieren neue Einsichten in lernen, Gedächtnis, navigation und Kognition, indem Sie nicht nur Dekodieren Ratte denken, wie es geschieht, aber auch, um sofort eingreifen und die Untersuchung der Auswirkungen dieser Störungen.

„Der Einsatz von Echtzeit-Dekodierung und closed-loop-Kontrolle der neuronalen Aktivität wird eine grundlegende Transformation unserer Studien des Gehirns,“ sagte Studie co-Autor Matthew Wilson, Sherman Fairchild Professor der Neurobiologie, in der MIT der Picower-Institut für Lernen und Gedächtnis.

Die Zusammenarbeit hinter dem neuen Papier begann in der Wilson-Labor am MIT fast 10 Jahren. Zu dieser Zeit, entsprechende Autoren Zhe (Sage) Chen, jetzt Associate Professor für Psychiatrie und Neurowissenschaften und Physiologie an der New York University, und Fabian Kloosterman, nun ein Principal Investigator bei Neuro-Elektronik-Forschung-Flandern (imec, KU Leuven und VIB) und Professor an der KU Leuven in Belgien, wurden die beiden Postdoc-Wissenschaftler am MIT. Nach der Demonstration, wie neurale Dekodierung kann verwendet werden, um zu Lesen, was Orte sind versteckt, wiedergegeben im Gehirn, das team begann eine Reihe von technischen Innovationen, die schrittweise verbessert der Fähigkeit, genau zu entschlüsseln, wie das Gehirn stellt die beiden während der navigation und im Schlaf-oder Ruhezeit. Sie erreicht einen ersten Meilenstein im Jahr 2013, wenn das team veröffentlichten Ihren Roman decoding-Ansatz in einem Papier im Journal of Neurophysiology. Der neue Ansatz erlaubt es den Forschern, die direkt entziffern Hippocampus Raum-Zeit-Muster erkannt tetrode Aufnahmen ohne die Notwendigkeit für spike Sortieren, ein Computer-Prozess ist zeitaufwändig und fehleranfällig.

In der neuen Studie, das team zeigt, dass durch die Umsetzung Ihrer neuronalen Decoder-software auf einer grafischen Verarbeitungseinheit (GPU) chip, die gleiche Art von hochgradig parallelen Verarbeitung der hardware begünstigt durch video gamers, Sie waren in der Lage zu erreichen eine beispiellose Steigerungen in der Dekodierung und Analyse-Geschwindigkeit. In der Studie, das team zeigt, dass das GPU-basierte system wurde 20-50 mal schneller als herkömmliche multi-core-CPU chips.

Sie zeigen auch, dass das system bleibt schnell und exakt, auch beim Umgang mit mehr als tausend Eingangskanäle. Das ist wichtig, denn es erweitert die Echtzeit-Dekodierung-Ansatz, um neue high-density-Gehirn-Aufnahme-Geräte, wie das Neuropixels-Sonde co-entwickelt von imec, HHMI und anderen Institutionen (man denke an die vielen Elektroden-Aufnahme aus vielen hundert Zellen), dass Versprechen zur Messung der zellulären Aktivität des Gehirns bei größeren Skalen und im detail.

Darüber hinaus die neue Studie berichtet über die Fähigkeit der software, um einen raschen statistischen Beurteilung, ob ein Satz reaktiviert neuronalen Raum-Zeit-Aktivitäts-Muster, die wirklich bezieht sich auf die Aufgabe, oder ist vielleicht unabhängig.

„Wir schlagen eine elegante Lösung, die mithilfe von GPU-computing nicht nur zu entschlüsseln, Informationen über das Fliegen, aber auch zur Bewertung der Bedeutung der Informationen on-the-fly,“ sagte Chen, deren student Sile Hu ist der neuen Studie führen Autor.

Hu getestet, eine Vielzahl von neuronalen Aufnahmen in Hirnregionen wie dem hippocampus, dem thalamus und Kortex in mehrere Ratten liefen Sie eine Vielzahl von Labyrinthen, angefangen von der einfachen tracks auf eine weite offene Fläche. In einem video begleitet, das Papier, das system ist das Auslesen von 36-Elektrode-Kanäle im hippocampus verfolgt die Ratte tatsächlich gemessenen position im offenen Raum und bietet Echtzeit-Schätzungen des decodierten position, aus der Aktivität des Gehirns. Nur gelegentlich und kurzzeitig tun die Trajektorien divergieren stark.

Die software des Systems ist open source und verfügbar für andere Neurowissenschaftler herunterladen (github.com/yuehusile/real_time_read_out_GPU), und verwenden Sie frei, Chen und Wilson sagte.

Schließen der Schleife

Vor Experimenten Aufnahme neuronalen Repräsentationen der Ort, die geholfen haben zu zeigen, dass Tiere replay Ihre räumliche Erlebnisse während des Schlafes und erlaubt Forschern, zu verstehen, mehr darüber, wie Tiere auf das Gedächtnis verlassen, wenn Sie Entscheidungen darüber, wie zu navigieren-zum Beispiel zu maximieren Sie die Belohnungen, die Sie finden auf dem Weg. Traditionell, wenn das Gehirn die Messwerte wurden analysiert und nach der Tat, oder „offline-Modus“. In jüngster Zeit haben Wissenschaftler begonnen, die zum durchführen von Echtzeit-Analysen, aber diese beschränken sich beide im detail die Inhalte und auch die Fähigkeit zu verstehen, ob die Messwerte sind statistisch signifikant und damit relevant.

In einem letzten großen Schritt vorwärts, Kloosterman und zwei anderen co-Autoren der neuen Studie, Studenten Davide Ciliberti und Frédéric Michon, veröffentlichte ein Papier, in dem eLife auf einem real-time, closed-loop Auslesen des Hippocampus-Gedächtnis wiedergeben wie Ratten navigiert ein 3-arm-Labyrinth. Das system verwendet die multi-core-CPUs.

„Die neue GPU system wird das Feld auch näher eine detaillierte Echtzeit-und hoch skalierbare Auslesen des Gehirns, die internen überlegungen“, sagt Kloosterman, „Das wird notwendig sein, zu erhöhen unser Verständnis von, wie diese Ereignisse wiederzugeben-Laufwerk memory formation und Verhalten.“

Durch die Kombination dieser Funktionen mit optogenetik — eine Technik, die Neuronen, steuerbar mit blitzen von Licht-die Forscher führen könnte, „closed-loop“ – Studien, in denen Sie könnten Ihre sofortige Auslesen des räumlichen Denkens auslösen experimentellen Manipulationen. Zum Beispiel konnten Sie sehen, was passiert, Navigations-performance am Tag, nachdem Sie mischte sich mit replay im Schlaf, oder Sie konnten bestimmen, was vorübergehend stören die Kommunikation zwischen dem Kortex und hippocampus tun könnten, wenn eine Ratte Gesichter eine wichtige Entscheidung, über welche Richtung zu gehen.

Hu ist auch verbunden mit der Zhejiang Universität in China. Neben ihm, Wilson Chen, Kloosterman, Ciliberti, und Michon, das Papier, die andere Autoren Andres Grosmark der Columbia University, Daoyun Ji des Baylor College of Medicine, Hector Penagos des MIT Picower Institut, und György Buzsáki der NYU.

Finanzierung für die Studie kam von der US-amerikanischen National Institutes of Health, der National Science Foundation, MIT der die NSF-finanzierte Mitte für Gehirn Geist und Maschinen, Forschung-Stiftung-Flandern (FWO), der National Science Foundation of China, und die Simons Foundation.