Die Art und Weise ein einzelnes neuron Informationen verarbeitet werden, ist nie die gleiche

Die Art und Weise ein einzelnes neuron Informationen verarbeitet werden, ist nie die gleiche

Wie Neuronen Informationen verarbeiten? Neuronen sind dafür bekannt, zu brechen, eine ankommende elektrische signal in sub-Einheiten. Nun, Forscher an der Blue-Brain-haben entdeckt, dass Dendriten, die der Nervenzelle s tree-like Rezeptoren (TLR), gemeinsam dynamisch und je nach Auslastung—für das lernen. Die Ergebnisse unser Verständnis von, wie wir denken und kann Euch dazu inspirieren, neue algorithmen für die künstliche Intelligenz.

In einem Papier veröffentlicht in der Zeitschrift Cell Reports, Forscher an der EPFL Blue Brain Project, einem Schweizer Brain Research Initiative entwickelt haben, einen neuen Rahmen zu erarbeiten, wie ein einzelnes neuron in das Gehirn arbeitet.

Die Analyse wurde durchgeführt mit Zellen aus dem Blue Brain virtuellen rodent cortex. Die Forscher erwarten, dass andere Typen von Neuronen—nicht-kortikale oder Mensch—zu arbeiten in der gleichen Weise.

Ihre Ergebnisse zeigen, dass, wenn ein neuron empfängt Eingaben, die die Zweige die aufwendige Baum-like-Rezeptoren, die sich von dem neuron, bekannt als Dendriten, funktionell arbeiten in einer Weise zusammen, die angepasst ist, um die Komplexität der Eingabe.

Die Stärke einer synapse bestimmt, wie stark ein neuron fühlt sich ein elektrisches signal, das von anderen Neuronen, und der Akt des Lernens ändert sich diese Kraft. Durch die Analyse der „connectivity matrix“, der bestimmt, wie diese Synapsen, miteinander kommunizieren, den Algorithmus, der festlegt, Wann und wo Synapsen Gruppe in unabhängige Lerneinheiten aus der strukturellen und elektrischen Eigenschaften der Dendriten. In anderen Worten, der neue Algorithmus bestimmt, wie die Dendriten der Neuronen funktionell zerbrechen in separate Recheneinheiten und findet, dass Sie arbeiten dynamisch zusammen, je nach Arbeitsaufwand, um Informationen zu verarbeiten.

Die Forscher vergleichen Ihre Ergebnisse, um die Arbeitsweise von computing-Technologien, die bereits heute umgesetzt. Diese neu beobachteten dendritischen Funktionalität wirkt wie parallel-computing-Einheiten, was bedeutet, dass ein neuron ist in der Lage zu verarbeiten, die verschiedenen Aspekte der input in parallel, wie die Supercomputer. Jeder der parallel-computing-Einheiten können unabhängig voneinander lernen, um Ihre Ausgabe ähnlich wie die Knoten im deep-learning-Netzwerken in die künstliche Intelligenz (KI) Modelle heute. Vergleichbar zum cloud-computing, ein neuron dynamisch bricht in der Anzahl der einzelnen computing units gefordert durch das Arbeitspensum der Eingabe.

„In der Blue-Brain-Projekt, in diesem mathematischen Ansatz hilft, um festzustellen, funktionell relevante Cluster von neuronalen Eingang, die Eingänge, die Futter in der gleichen parallel-processing-unit. Dies ermöglicht uns zu bestimmen, das Niveau der Komplexität auf dem Modell der kortikalen Netzwerke, wie wir die digitale Rekonstruktion und Simulation des Gehirns“, erklärt Marc-Oliver Gewaltig, Section Manager im Blue Brain ‚ s Simulation Neuroscience Division.

Parallel-computing-Einheiten von Neuronen, kann selbständig lernen, sich anzupassen, Ihre Ausgabe

Darüber hinaus die Forschung zeigt, wie diese parallel-processing-Einheiten, die lernen beeinflussen, d.h. der Wechsel in die Güte der Verbindung zwischen verschiedenen Neuronen. Die Art und Weise ein neuron lernt, hängt von der Anzahl und Lage von parallelen Prozessoren, die wiederum davon abhängen, ob die Signale ankommen, von anderen Neuronen. Zum Beispiel, bestimmte Synapsen, die nicht lernen, selbständig werden, wenn das neuron der input-Pegel zu niedrig ist, beginnen selbstständig zu lernen, wenn der Eingangspegel höher sind.

Bisher traditionellen Lern-algorithmen (wie die, die derzeit in A. I.-Anwendungen) gehen davon aus, dass die Nervenzellen sind statische Einheiten, die lediglich die Integration und re-skaliert eingehende Signale. Dagegen zeigen die Ergebnisse, dass die Anzahl und die Größe der unabhängigen Untereinheiten gesteuert werden kann durch den symmetrischen Eingang oder Rangier-Hemmung. Die Forscher schlagen vor, dass diese vorübergehende Kontrolle der Abschottung stellt einen leistungsfähigen Mechanismus für die Zweig-spezifische lernen von Eingabe-Funktionen.

„Die Methode, die feststellt, dass in vielen Zustände des Gehirns, die Neuronen viel weniger parallele Prozessoren als erwartet aus dendritischen Verzweigung Muster. So viele Synapsen erscheinen in der „grauen Zonen‘, in denen Sie nicht angehören processing unit“, erklärt der leitende Wissenschaftler und der erste Autor Willem Wybo. „Jedoch, im Gehirn, Neuronen empfangen unterschiedlichem hintergrund Eingang, und unsere Ergebnisse zeigen, dass die Anzahl der parallelen Prozessoren variiert mit dem Niveau der hintergrund-Eingabe, die angibt, dass das gleiche neuron kann es verschiedene rechnerische Rollen in unterschiedliche Zustände des Gehirns.“