Die Ressourcen sind geladen. Beförderung...

Unterstützende Vektormaschine im Gehirn

Schriftsteller:Die Erfinder quantifizieren - Kleine Träume, Erstellt: 2017-03-23 12:18:01, aktualisiert:

Unterstützende Vektormaschine im Gehirn

Die unterstützende Vector Machine (SVM) ist ein wichtiger Machine-Learning-Klassifikator, der geschickt nonlineare Transformationen einsetzt, um Eigenschaften aus niedrigen Dimensionen in hohe Dimensionen zu projizieren, um kompliziertere Klassifikationsaufgaben auszuführen (Luftabschläge). SWM scheint eine mathematische Fähigkeit zu verwenden, die zufällig mit den Mechanismen der Gehirnkodierung übereinstimmt, wie wir aus einem 2013 Nature-Papier lesen können. Die Bedeutung von gemischter Selektivität in komplexen kognitiven Aufgaben (by Omri Barak al.

  • SVM

    Wo kann man diese erstaunliche Verbindung sehen? Zuerst sprechen wir über die Natur der Neuro-Codierung: Tiere empfangen bestimmte Signale und verhalten sich danach, indem sie die äußeren Signale in Neuro-Elektrische Signale umwandeln und die anderen in Entscheidungssignale, wobei der erste Prozess als Encoding bezeichnet wird, der zweite Prozess als Decoding. Der eigentliche Zweck der Neuro-Codierung ist es, die Entscheidung zu entschlüsseln.

    Wir werden nun sehen, wie die Neuro-Codierung funktioniert. Zunächst einmal können wir die Neuronen als einen RC-Schaltkreis betrachten, in dem der Widerstand und die Kapazität anhand der Außenspannung angepasst werden. Wenn das Außensignal groß genug ist, wird es geleitet, wenn es nicht groß genug ist, schließt es sich und beschreibt ein Signal durch die Frequenz der Entladung in einer bestimmten Zeit.

    img

    Grafik: Die Längsachse ist die Zelle, die Querachse ist die Zeit, und die Grafik zeigt, wie wir die Neuro-Code extrahieren.

    Natürlich unterscheiden sich die realen Dimensionen von N-Dimension-Vektoren und Neuro-Coding, wie definieren wir die realen Dimensionen von Neuro-Coding? Zuerst gehen wir in den N-Dimension-Raum, der von diesem N-Dimension-Vektor markiert wird, und dann geben wir Ihnen alle möglichen Aufgabenkombinationen, z. B. eintausend Bilder anzeigen. Nehmen wir an, diese Bilder repräsentieren die ganze Welt.

    Neben der realen Dimension der Codierung haben wir auch eine Idee, die realen Dimensionen von Externalsignalen, die sich hier auf die externe Signalwirkung beziehen, die durch das neuronale Netzwerk ausgedrückt wird. Natürlich müssen Sie alle Details der externe Signalwirkung wiederholen. Es ist ein unendliches Problem, aber unsere Klassifizierung und Entscheidungsfindung basiert immer auf den Schlüsselmerkmalen, einem Prozess der Dimensionierung, das ist auch die Idee der PCA.

    Die Kernfrage für Wissenschaftler ist also, warum sollten wir das Problem mit einer Code-Dimension und einer Anzahl von Neuronen lösen, die viel höher sind als die tatsächlichen?

    Und die Kombination von Computational Neuroscience und Machine Learning zeigt uns, dass die hochdimensionalen Eigenschaften von Neuronen die Grundlage für ihre starke Lernfähigkeit sind. Die höheren Codedimensionen sind die stärkeren Lernfähigkeiten. Beachten Sie, dass wir hier nicht einmal mit dem Thema tiefe Netzwerke beginnen.

    Beachten Sie, dass die hier diskutierte Neuro-Codierung hauptsächlich auf die Neuro-Codierung in den höheren Nervenzentren, wie z. B. den im Text diskutierten präfrontalem Präfrontalen Cortex (PFC), bezieht, da die Coding-Regeln der unteren Nervenzentren nicht viel mit Klassifizierung und Entscheidungsfindung zu tun haben.

    img

    Die höhere Gehirnregion, die PFC repräsentiert

    Das Geheimnis der Neuro-Codierung wird auch aus der Beziehung zwischen der Anzahl der Neuronen N und der Dimension K des realen Problems enthüllt (diese Differenz kann 200-mal so groß sein). Warum kann eine scheinbar redundante Anzahl von Neuronen zu einem qualitativen Sprung führen? Zuerst nehmen wir an, dass wir mit einem linearen Classifier keine nicht-linearen Classifizierungsprobleme lösen werden, wenn unsere Codierungsdimensionen den Dimensionen der Schlüsselfunktionen in der realen Aufgabe entsprechen (wenn wir sagen, dass wir die Wassermelke aus der Wassermelke trennen wollen, können wir die Wassermelke nicht mit einer linearen Grenze aus der Wassermelke trennen), was auch ein typisches Problem ist, das wir im tiefen Lernen und in der Zeit, in der die SVM nicht in das maschinelle Lernen gelangt ist, schwierig zu lösen haben.

    SVM (unterstützt Vektor):

    img

    SVM kann nichtlineare Klassifizierungen durchführen, z. B. indem man die roten und blauen Punkte in einem Diagramm trennt, wobei wir mit der linearen Grenze nicht in der Lage sind, die roten und blauen Punkte in einem Diagramm zu trennen (links), so dass die Methode, die SVM verwendet, die Erhöhung der Dimensionen ist. Es ist nicht möglich, einfach die Anzahl der Variablen zu erhöhen, z. B. wenn man z. B. x1, x2, x1 + x2 in ein zweidimensionelles lineares System kartiert.

    Tatsächlich ist es genau das, was ein echtes Netzwerk tut. Die Art der Klassifizierung, die ein linearer Klassifikator durchführen kann, hat sich stark erhöht, was bedeutet, dass wir eine viel stärkere Patternerkennung haben als zuvor. Hier bedeutet hohe Dimension hohe Leistung und hohe Dimension ist die Wahrheit.

    Wie bekommt man also eine hohe Dimension der Neuro-Codierung? Eine größere Anzahl von Lichtneuronen nützt nichts. Weil wir Linearalgebra gelernt haben, wissen wir, dass, wenn wir eine riesige Anzahl von N Neuronen haben, und die Entladungsrate jedes Neurons ist nur linear mit K-Schlüsselmerkmalen verknüpft, dann ist unsere endgültige Darstellungsdimension nur die Dimension des Problems selbst, und Ihre N Neuronen haben keine Rolle.

    img

    Grafik: Neuronen 1 und 2 sind nur für Merkmale a und b empfindlich, 3 sind für lineare Mischungen von Merkmalen a und b empfindlich und 4 sind für nichtlineare Mischungen von Merkmalen empfindlich. Letztendlich erlaubt nur eine Kombination von Neuronen 1, 2, 4 eine erhöhte Dimension der Neuro-Codierung (siehe unten).

    Die offizielle Bezeichnung für diese Art der Kodierung ist "gemischte Selektivität", die wir bis zur Entdeckung dieses Prinzips nicht verstehen können, da es sich um eine unordentliche Reaktion eines Nervennetzes auf ein Signal handelt. Im peripheren Nervensystem wirken die Neuronen wie Sensoren, die verschiedene Merkmale der Signale extrahieren und Muster erkennen. Jede Neurone hat eine ziemlich spezifische Funktion, wie die Roten und Zapfen der Netzhaut, die die Photonen empfangen, die dann von der Gangelionzelle weiter kodiert werden.

    Jedes Detail in der Natur ist voller Vampire, reichlich Redundanz und Mischcodes, die scheinbar unprofessionelle Praktiken, scheinbar chaotische Signale, schließlich zu besseren Rechenfähigkeiten führen. Mit diesem Prinzip können wir einfach Aufgaben wie:

    img

    Bei dieser Aufgabe wird die Mahne erst trainiert, zu unterscheiden, ob ein Bild das gleiche ist wie das vorhergehende (erkennung), und dann wird sie trainiert, die Reihenfolge der Auftritte zweier verschiedener Bilder (recall) zu bestimmen. Die Mahne müssen in der Lage sein, verschiedene Seiten der Aufgabe zu kodieren, z. B. Aufgabentyp (recall or recognition), Bildart usw., und das ist der beste Test, ob es ein gemischtes nonlineares Codierungsmechanismus gibt.

    Nach dem Lesen dieses Artikels haben wir gelernt, dass das Entwerfen von Neuronen Netzwerken die Fähigkeit zur Mustererkennung erheblich verbessern kann, wenn einige nichtlineare Einheiten eingeführt werden, und dass die SVM dies zufällig anwendet, um nichtlineare Klassifizierungsprobleme zu lösen.

    Wir untersuchen die Funktionen der Hirnregionen, indem wir Daten zuerst mit der Methode des maschinellen Lernens verarbeiten, wie z.B. mit dem PCA, um die entscheidenden Dimensionen von Problemen zu finden, und dann mit dem Denken, das mit dem Modell der maschinellen Lernerkennung verfolgt wird, um die Neuro-Codierung und -Codierung zu verstehen, und schließlich, wenn wir neue Inspirationen bekommen, können wir die Methode des maschinellen Lernens verbessern. Für das Gehirn oder für die Algorithmen des maschinellen Lernens ist es am Ende am wichtigsten, die am besten geeignete Darstellungsmethode zu erhalten, und mit der richtigen Darstellung ist alles einfach. Dies ist genau der Weg, wie das maschinelle Lernen von der linearen Logik zurückkehrt, um ein schrittweises Maschinelles Lernen zu unterstützen.

Übertragen von: Weiß Bescheid von Xu Eisen-Kreuzfahrtschiff Technologie


Mehr