Поддерживающая векторная машина (SVM) является важным классификатором машинного обучения, который умело использует нелинейные преобразования для проекции характеристик из низких измерений в высокие, что позволяет выполнять более сложные классификационные задачи (повышенные измерения ударения). SWM, похоже, использует математический урок, который случайно соответствует механизмам кодирования мозга, и мы можем прочитать из статьи Nature 2013 года, что понимание глубокой связи между машинным обучением и работой мозга связано с использованием машинного обучения для исследования мозга. Название статьи: The importance of mixed selectivity in complex cognitive tasks (by Omri Barak al. 2010)
Сначала давайте поговорим о сути нейрокодирования: животные принимают определенные сигналы и действуют в соответствии с ними, один из которых преобразует внешние сигналы в нейроэлектрические сигналы, а другой преобразует нейроэлектрические сигналы в сигналы решения, первый процесс называется кодирование, а второй процесс называется декодирование. Истинная цель нейрокодирования заключается в том, чтобы затем декодировать сигналы для принятия решений. Таким образом, с помощью визуального анализа машинного обучения, самый простой способ декодирования сигналов - это сделать классификатор, или даже линейный классификатор логистической модели, который рассматривает входящие сигналы в соответствии с определенными характеристиками.
Тогда давайте посмотрим, как происходит нейронное кодирование. Сначала нейрон можно рассматривать как RC-схему, которая регулирует сопротивление и емкость в зависимости от внешнего напряжения. Если внешний сигнал достаточно большой, он будет проводиться, иначе он будет закрыт, чтобы отобразить сигнал частотой разряда за определенное время.
Диаграмма: продольная ось - это клетки, а горизонтальная - это время, и она показывает, как мы извлекаем нейронный код.
Разумеется, существует разница между N-мерными векторами и реальными измерениями нейрокодирования. Как определить реальные измерения нейрокодирования? Во-первых, мы входим в N-мерное пространство, обозначенное N-мерным вектором, затем мы даем все возможные комбинации задач, например, покажем вам тысячу изображений, предположим, что эти изображения представляют собой весь мир, обозначим каждый полученный нами нейрокод как точку в этом пространстве, и, наконец, мы используем мышление векторного алгебрая, чтобы увидеть измерения подпространства, из которого состоит эта тысяча точек, то есть определить истинные измерения нейрокодирования.
В дополнение к реальному измерению кодирования, у нас есть концепция, которая называется реальном измерением внешнего сигнала, здесь сигнал относится к внешнему сигналу, выраженному нейронной сетью, и, конечно, вы должны повторить все детали внешнего сигнала. Это бесконечная проблема, однако наша классификация и принятие решений всегда были ключевыми характеристиками, процессом размера, и это идея PCA. Мы можем рассматривать ключевые переменные в реальном задании как реальное измерение задачи.
И тогда ученые сталкиваются с ключевой проблемой, почему мы должны решать эту проблему с более высоким уровнем кодирования и с большим количеством нейронов, чем у нас есть на самом деле?
А вычислительная нейронаука и машинное обучение вместе показывают нам, что высокомерные свойства нейронных символов являются основой их сильных способностей к обучению; чем выше их размер, тем сильнее их способность к обучению. Обратите внимание, что мы даже не начинаем здесь говорить о глубоких сетях. Почему?
Обратите внимание, что кодирование, обсуждаемое здесь, относится в основном к кодированию высоких нервных центров, таких как ПФК, так как законы кодирования низких нервных центров не имеют большого отношения к классификации и принятию решений.
Высокие области мозга, которые представляют PFC
Тайна нейронного кодирования также раскрывается из числа нейронов N, и отношения измерения K к реальной задаче (этот разрыв может достигать 200 раз). Почему кажущееся избыточное количество нейронов может привести к качественному скачку? Во-первых, мы предполагаем, что мы не сможем обрабатывать нелинейные классификационные задачи с помощью линейного классификатора, когда наше кодирование измерения равно измерению ключевых переменных в реальной задаче (предположим, что вы хотите выделить водоросли из водорослей, вы не можете выделить водоросли из водорослей с помощью линейной границы), что также затрудняет решение типичных проблем, которые мы имеем в глубоком обучении и не входят в машинное обучение.
SVM (поддержка вектора):
SVM может выполнять нелинейные классификации, например, отделять красные точки и синие точки в диаграмме, а линейными границами мы не можем разделить красные и синие точки ((левая диаграмма), поэтому SVM использует только увеличение измерений. Невозможно просто увеличить число переменных, например, нанести x1, x2 на двумерное линейное пространство ((изображение - это красные точки и синие точки на плоскости), и только с помощью нелинейных функций ((x1 ^ 2, x1 * x2, x2 ^ 2) мы имеем существенное пересечение от низких до высоких измерений, в этом случае вы просто бросаете синюю точку в воздух, а затем просто рисуете точку в пространстве, разделяющую плоскость с синим и красным точками, и начинаете диаграмму.
Фактически, то, что делает настоящая нейронная сеть, точно так же. Таким образом, линейный классификатор (декодировщик) может значительно увеличить количество классификаций, что означает, что мы получили намного более мощную способность распознавать модели, чем раньше. Здесь высокое измерение означает высокую производительность, высокое измерение - это правда.
Так как же получить высокие измерения, чтобы закодировать нейроны? Большое количество световых нейронов бесполезно. Потому что, изучая линейный алгебр, мы знаем, что если у нас есть огромное количество N нейронов, и уровень разрядки каждого нейрона связан только с одним из ключевых характеристик K, то мы в конечном итоге выразим только размер самого вопроса, и ваши N нейронов не будут иметь никакого значения.
Диаграмма: нейроны 1 и 2 чувствительны только к характеристикам a и b, 3 чувствительны к линейным смесям характеристик a и b, а 4 чувствительны к нелинейным смесям характеристик. В конечном итоге только комбинация нейронов 1, 2, 4 позволяет повысить измерение нейрокодирования.
Официальное название этого кодирования - смешанная селективность, которая кажется непонятной до тех пор, пока не будет обнаружена, потому что она представляет собой беспорядочный ответ нейронной сети на какой-либо сигнал. В окружающей нервной системе нейроны действуют как датчики для извлечения различных характеристик и распознавания моделей сигналов. Каждая нервная клетка выполняет довольно специфическую функцию, например, роды и конусы ретины принимают фотоны, которые затем продолжают кодироваться гангелионными клетками, и каждый нерв является профессионально обученным сторожем.
Каждая деталь природы содержит в себе загадки, многочисленные избыточные и смешанные кодировки, которые, казалось бы, непрофессиональные методы, кажущиеся беспорядочными сигналами, в конечном итоге приводят к лучшему вычислительному потенциалу.
В этой задаче обезьяны сначала обучаются распознавать, идентично ли одно изображение предыдущему, а затем обучаются распознавать последовательность появления двух разных изображений (например, вспоминать). Для выполнения этой задачи обезьяны должны быть в состоянии кодировать различные стороны задачи, такие как тип задачи (например, вспоминание или распознавание), тип изображения и т. д., и именно это является отличным тестом того, существует ли смешанный нелинейный кодирующий механизм.
После прочтения этой статьи, мы поняли, что проектирование нейронных сетей может значительно улучшить способность распознавания моделей, если в них будут введены нелинейные элементы, и что SVM использует это, чтобы решить проблему нелинейной классификации.
Мы изучаем функции мозговых областей, обрабатывая данные с помощью методов машинного обучения, например, для поиска ключевых измерений проблем с помощью PCA, а затем с помощью мышления, распознавающего модели машинного обучения, чтобы понять нейрокодирование и декодирование, и, в конечном итоге, если мы получим какие-то новые вдохновения, мы можем улучшить методы машинного обучения. Для мозга или алгоритмов машинного обучения, в конечном итоге, самое главное - это наиболее подходящий способ представления информации, и с хорошими характеристиками все становится проще.
Ссылка на книгу "Крусоходные технологии"