Tài nguyên đang được tải lên... tải...

Máy hỗ trợ vector trong não

Tác giả:Những nhà phát minh định lượng - những giấc mơ nhỏ, Tạo: 2017-03-23 12:18:01, Cập nhật:

Máy hỗ trợ vector trong não

SWM là một máy phân loại học máy quan trọng, nó sử dụng kỹ thuật chuyển đổi phi tuyến tính để chiếu các đặc điểm ở kích thước thấp sang kích thước cao, có thể thực hiện các nhiệm vụ phân loại phức tạp hơn. SWM dường như sử dụng một kỹ thuật toán cơ bản, nhưng thực sự tình cờ phù hợp với các cơ chế mã hóa não, chúng ta có thể đọc từ một bài báo năm 2013 tại Nature rằng sự kết nối bề mặt của việc hiểu được sự kết nối sâu giữa học máy và cách làm việc của não là sử dụng học máy nghiên cứu não. Tên nghiên cứu: The importance of mixed selectivity in complex cognitive tasks (by Omri Barak al.)

  • SVM

    Đầu tiên, chúng ta hãy nói về bản chất của mã hóa thần kinh: động vật nhận được một tín hiệu nhất định và hành động theo nó, một là chuyển đổi tín hiệu bên ngoài thành tín hiệu điện thần kinh, một là chuyển đổi tín hiệu điện thần kinh thành tín hiệu quyết định, quá trình đầu tiên được gọi là mã hóa, quá trình sau đó được gọi là giải mã. Và mục đích thực sự của mã hóa thần kinh là giải mã để sau đó đưa ra quyết định. Vì vậy, bằng cách sử dụng mắt học máy để giải mã mã, cách đơn giản nhất là sử dụng một bộ phân loại, thậm chí là một mô hình logistic, một bộ phân loại tuyến tính, để phân loại các tín hiệu đầu vào theo các phân loại đặc điểm nhất định.

    Sau đó, chúng ta sẽ xem cách mã hóa thần kinh diễn ra. Đầu tiên, thần kinh có thể được xem là một mạch RC điều chỉnh điện trở và công suất theo điện áp bên ngoài, nếu tín hiệu bên ngoài đủ lớn, nó sẽ dẫn, nếu không, nó sẽ đóng và biểu thị một tín hiệu bằng tần số giải điện trong một khoảng thời gian nhất định.

    img

    Biểu đồ: trục dọc là tế bào, trục ngang là thời gian, và biểu đồ cho thấy cách chúng ta chiết xuất mã hóa thần kinh.

    Tất nhiên, các chiều thực của các vector N và mã hóa thần kinh là khác nhau, làm thế nào để xác định chiều thực của mã hóa thần kinh? Đầu tiên, chúng ta đi vào không gian N được đánh dấu bởi các vector N, sau đó chúng ta đưa ra tất cả các kết hợp nhiệm vụ có thể, chẳng hạn như cho bạn xem một ngàn hình ảnh giả sử rằng những hình ảnh này đại diện cho toàn bộ thế giới, đánh dấu mỗi lần chúng ta có được mã hóa thần kinh là một điểm trong không gian này, cuối cùng chúng ta sử dụng tư duy đại số vector để xem kích thước của không gian con tạo thành một ngàn điểm này, đó là xác định kích thước thực của biểu hiện thần kinh. Tôi giả định tất cả các điểm thực sự nằm trên một đoạn của không gian N này, thì biểu thức này là một chiều, tương ứng nếu tất cả các điểm nằm trên một mặt hai chiều của không gian chiều cao, nó là hai chiều.

    Ngoài các kích thước thực của mã hóa, chúng ta còn có một khái niệm là kích thước thực của tín hiệu bên ngoài, trong đó tín hiệu là các tín hiệu bên ngoài được thể hiện bởi mạng thần kinh, và tất nhiên bạn sẽ phải lặp lại tất cả các chi tiết của tín hiệu bên ngoài đó là một vấn đề vô hạn, tuy nhiên chúng tôi phân loại và quyết định dựa trên luôn luôn là một đặc điểm quan trọng, một quá trình giảm kích thước, đây cũng là ý tưởng của PCA. Chúng tôi có thể xem các biến số quan trọng trong nhiệm vụ thực như là kích thước thực của nhiệm vụ, ví dụ như nếu bạn muốn kiểm soát chuyển động của một cánh tay, bạn thường chỉ cần kiểm soát góc quay của khớp, nếu bạn xem nó như là một vấn đề cơ thể học, kích thước có thể không cao hơn 10, chúng tôi gọi nó là K. Ngay cả khi bạn đang xem xét vấn đề phân biệt khuôn mặt, kích thước vẫn còn thấp hơn một nơ-ron.

    Vậy nên, các nhà khoa học phải đối mặt với một câu hỏi cốt lõi, tại sao phải giải quyết vấn đề này với một kích thước mã hóa và số lượng nơ ron cao hơn nhiều so với vấn đề thực?

    Và tính toán thần kinh học và máy học cùng nhau cho chúng ta biết rằng các đặc điểm chiều cao của biểu hiện thần kinh chính là nền tảng cho khả năng học tập mạnh mẽ mà chúng có. Các kích thước mã hóa càng cao, khả năng học tập càng mạnh. Lưu ý rằng chúng ta thậm chí không bắt đầu với mạng sâu. Tại sao chúng ta nói như vậy?

    Lưu ý rằng mã hóa thần kinh được thảo luận ở đây chủ yếu đề cập đến mã hóa thần kinh của các trung tâm thần kinh cao cấp, chẳng hạn như vỏ não tiền trán (PFC) được thảo luận trong bài viết, vì các quy tắc mã hóa ở các trung tâm thần kinh thấp hơn không liên quan nhiều đến phân loại và quyết định.

    img

    Khu vực não cao hơn đại diện cho PFC

    Đầu tiên, chúng ta giả sử rằng khi kích thước mã hóa của chúng ta bằng kích thước của các biến quan trọng trong nhiệm vụ thực, chúng ta sẽ không thể xử lý các vấn đề phân loại phi tuyến tính bằng một bộ phân loại tuyến tính (giả sử bạn muốn tách dưa leo khỏi dưa leo, bạn không thể loại bỏ dưa leo khỏi dưa leo bằng một ranh giới tuyến tính), cũng là một vấn đề điển hình mà chúng ta khó giải quyết khi học sâu và SVM không đi vào học máy.

    SVM (có hỗ trợ máy vector):

    img

    SVM có thể phân loại phi tuyến tính, ví dụ như tách các điểm đỏ và màu xanh trong đồ họa, và với các ranh giới tuyến tính, chúng ta không thể tách các điểm đỏ và màu xanh (hình bên trái), vì vậy SVM sử dụng phương pháp tăng kích thước. Và việc đơn giản là tăng số lượng biến không thể, ví dụ như vẽ x1, x2 vào hệ thống x1, x2, x1 + x2 thực sự là không gian tuyến tính hai chiều (hình là các điểm đỏ và các điểm xanh trên một mặt phẳng), chỉ sử dụng các hàm phi tuyến tính (x1 ^ 2, x1 * x2, x2 ^ 2) để chúng ta có thể thực sự vượt qua các kích thước thấp đến các kích thước cao.

    Trong thực tế, những gì mà mạng thần kinh thực sự làm là tương tự. Những loại phân loại mà một bộ phân loại tuyến tính có thể thực hiện đã tăng lên rất nhiều, nghĩa là chúng ta đã có khả năng nhận dạng mô hình mạnh hơn nhiều so với trước đây. Ở đây, chiều cao là năng lượng cao, kích thước cao là sự thật.

    Vậy làm thế nào để có được một kích thước mã hóa nơ-ron cao? Số lượng nơ-ron nhiều hơn là vô dụng. Vì đã học được đại số tuyến tính, chúng ta biết rằng nếu chúng ta có một số lượng lớn n nơ-ron, và mỗi nơ-ron chỉ có tỷ lệ giải phóng liên quan đến một nơ-ron quan trọng K tuyến tính, thì kích thước cuối cùng của chúng ta sẽ chỉ bằng với kích thước của vấn đề chính nó, nơ-ron của bạn không có tác dụng ((nơ-ron dư thừa là cấu trúc tuyến tính của nơ-ron K trước đó).

    img

    Hình: Các nơ ron 1 và 2 chỉ nhạy cảm với các đặc điểm a và b, 3 chỉ nhạy cảm với sự pha trộn tuyến tính của các đặc điểm a và b, và 4 chỉ nhạy cảm với sự pha trộn phi tuyến tính của các đặc điểm. Cuối cùng, chỉ có sự kết hợp của nơ ron 1, 2, 4 làm tăng kích thước mã hóa thần kinh.

    Các chức năng của mỗi tế bào thần kinh là khá cụ thể, như các thanh và nón của mạc retina chịu trách nhiệm nhận photon, và sau đó được mã hóa bởi các tế bào ganglion, mỗi tế bào thần kinh giống như một lính canh được đào tạo chuyên nghiệp. Trong não bộ cao cấp, phân chia rõ ràng dường như không thể thấy được, và chúng ta có thể tìm thấy một nơ ron giống như một nơ ron nhạy cảm với các đặc điểm khác nhau, loại hình nhạy cảm cao như vậy. Họ không phải là những người khó khăn hơn để thực hiện các nhiệm vụ khác nhau.

    Mỗi chi tiết của thiên nhiên đều chứa đựng những sự mơ hồ, vô số sự phi thường và mã hóa hỗn hợp, những hành động dường như không chuyên nghiệp, các tín hiệu dường như lộn xộn, cuối cùng đã có khả năng tính toán tốt hơn.

    img

    Trong nhiệm vụ này, con khỉ được đào tạo để phân biệt một hình ảnh có giống với hình ảnh trước đó hay không (recognition), sau đó được đào tạo để đánh giá thứ tự xuất hiện của hai hình ảnh khác nhau (recall). Để hoàn thành nhiệm vụ này, con khỉ phải có khả năng mã hóa các mặt khác nhau của nhiệm vụ, chẳng hạn như loại nhiệm vụ (recall or recognition), loại hình ảnh, v.v. và đây là bài kiểm tra tuyệt vời cho việc có cơ chế mã hóa phi tuyến tính hỗn hợp hay không.

    Sau khi đọc bài viết này, chúng ta đã hiểu rằng thiết kế mạng thần kinh sẽ cải thiện khả năng nhận dạng mô hình nếu đưa vào một số đơn vị phi tuyến tính, và SVM đã ứng dụng điều này để giải quyết các vấn đề phân loại phi tuyến tính.

    Chúng tôi nghiên cứu chức năng của các vùng não, trước tiên xử lý dữ liệu bằng cách học máy, ví dụ như tìm các chiều quan trọng của vấn đề bằng PCA, sau đó là hiểu mã hóa và mã hóa thần kinh bằng tư duy nhận dạng mô hình học máy, và cuối cùng nếu chúng ta có được một số cảm hứng mới, chúng ta có thể cải thiện phương pháp học máy. Đối với não hoặc các thuật toán học máy, cuối cùng điều quan trọng nhất là cách biểu diễn thông tin phù hợp nhất, và với các biểu diễn tốt, mọi thứ dễ dàng hơn.

Được chuyển tiếp từ Xung Xung Iron-Cruiser Technology


Thêm nữa