기계 학습이란 무엇인가요?
기계는 방대한 데이터를 분석하여 학습한다. 예를 들어, 고양이나 얼굴을 프로그래밍을 통해 인식할 필요가 없으며, 특정 목표를 추론하고 식별하기 위해 이미지를 사용하여 훈련받을 수 있다.
기계 학습과 인공지능의 관계
기계학습은 데이터에서 패턴을 찾아서 이러한 패턴을 사용하여 예측을 하는 연구와 알고리즘의 한 분야이다. 기계학습은 인공지능의 일부이며 지식 발견과 데이터 채굴과 교차한다.
기계 학습이 어떻게 작동하는지
1 데이터 선택: 데이터를 3개 그룹으로 나누십시오: 훈련 데이터, 검증 데이터, 테스트 데이터 2 모델 데이터: 훈련 데이터를 사용하여 관련 특성을 사용하는 모델을 구축합니다 3 검증 모델: 검증 데이터를 사용하여 모델에 액세스합니다. 4 테스트 모델: 테스트 데이터를 사용하여 검증된 모델의 성능을 검사합니다. 5 모델 사용: 완전히 훈련된 모델을 사용하여 새로운 데이터에 대한 예측 6 조정 모델: 더 많은 데이터, 다른 특징 또는 조정된 매개 변수를 사용하여 알고리즘의 성능을 향상시킵니다.
기계 학습의 위치
1 전통적인 프로그래밍: 소프트웨어 엔지니어는 문제를 해결하기 위해 프로그램을 작성한다. 먼저 데이터가 있다→ 문제를 해결하기 위해 소프트웨어 엔지니어는 프로세스를 작성하여 기계가 어떻게 해야 하는지 알려줍니다→ 컴퓨터는 프로세스를 따라 실행하고 결과를 얻습니다. 2 통계학: 분석가들이 변수를 비교하는 관계 3 기계 학습: 데이터 과학자는 훈련 데이터 세트를 사용하여 컴퓨터에 무엇을해야하는지 가르치고 시스템이 작업을 수행합니다. 먼저 빅 데이터가 있습니다. 4 지능형 응용 프로그램: 지능형 응용 프로그램이 인공지능을 사용하여 얻은 결과, 그림은 정밀 농업의 응용 사례를 보여줍니다. 이 응용 프로그램은 드론으로 수집된 데이터에 기반합니다.
기계 학습의 실제 응용
머신러닝은 많은 응용 시나리오가 있습니다. 여기 몇 가지 예가 있습니다.
빠른 3차원 지도 제작 및 모델링: 철도교를 건설하기 위해, PwC의 데이터 과학자와 분야 전문가들은 기계 학습을 드론으로 수집된 데이터에 적용합니다. 이 조합은 작업 성공에 대한 정확한 모니터링과 빠른 피드백을 구현합니다.
위험을 줄이기 위한 향상된 분석: 내부 거래를 탐지하기 위해, PwC는 기계 학습과 다른 분석 기술을 결합하여 보다 포괄적인 사용자 프로필을 개발하고 복잡한 의심스러운 행동에 대한 더 깊은 이해를 얻습니다.
가장 좋은 성능을 예측하는 목표: PwC는 기계 학습과 다른 분석 방법을 사용하여 멜버른 컵 경기장에서 다른 경주마의 잠재력을 평가합니다.
수십 년 동안, 인공지능 연구자들의 다양한 "파리"들은 서로 주도권을 놓고 경쟁해 왔다. 이제 그 부족들이 연합할 때가 되었는가? 그들은 그렇게 할 수밖에 없을지도 모른다. 협업과 알고리즘의 융합이 진정한 범용 인공지능 (AGI) 을 실현하는 유일한 방법이기 때문이다.
5대 장르
1 기호주의: 지식과 논리적 추론을 표현하기 위해 기호, 규칙 및 논리를 사용하는데, 가장 좋아하는 알고리즘은 규칙과 의사 결정 나무입니다. 2 베이스파: 발생 가능성을 획득하여 확률 추론을 수행합니다. 가장 좋아하는 알고리즘은: 순수 베이스 또는 마르코프 3 연계주의: 확률 매트릭스와 가중된 신경 세포를 사용하여 패턴을 동적으로 식별하고 귀납합니다. 가장 좋아하는 알고리즘은: 신경 네트워크 4 진화론: 변화를 생성하고 특정 목적을 위해 가장 우수한 것을 얻는 가장 선호하는 알고리즘은 유전 알고리즘입니다. 5 Analogizer: 제약 조건에 따라 함수를 최적화 (가능한 한 높은 곳으로 이동하지만 동시에 길에서 벗어나지 마십시오) 좋아하는 알고리즘은: 벡터 기계를 지원
진화의 단계
1980년대
주요 장르: 상징주의 아키텍처: 서버 또는 대용기 주요 이론: 지식 엔지니어링 기본 의사결정 논리: 의사결정 지원 시스템, 제한된 실용성
1990년대에서 2000년
주요 장르: 베이스 아키텍처: 작은 서버 클러스터 주요 이론: 확률 이론 분류: 확장 가능한 비교 또는 대조, 많은 작업에 충분합니다.
2010년대 초중반
주류: 연합주의 아키텍처: 대형 서버 팜 주요 이론: 신경과학과 확률 인식: 보다 정확한 이미지 및 음성 인식, 번역, 감정 분석 등
이 장르들은 서로 협력하고 각자의 방법을 결합시킬 것으로 기대됩니다.
2010년대 후반
주요 장르: 연대주의 + 상징주의 구조: 많은 구름 주요 이론: 메모리 신경망, 대용량 통합, 지식 기반 추론 간단한 질문과 답: 좁은 범위, 분야별 지식 공유
2020년대+
주요 장르: 연대주의 + 상징주의 + 베이스 +... 아키텍처: 클라우드 컴퓨팅과 안개 컴퓨팅 지배적인 이론: 인식할 때 네트워크가 있고 추론하고 작업할 때 규칙이 있습니다. 단순한 인식, 추론 및 행동: 제한된 자동화 또는 인간-인자 상호 작용
2040년대 +
주요 장르: 알고리즘 융합 아키텍처: 유비쿼터스 서버 주요 이론: 최적의 조합의 메타 학습 인식과 반응: 다양한 학습 방식으로 얻은 지식이나 경험에 기초하여 행동하거나 응답하는 것
어떤 기계 학습 알고리즘을 사용해야 하는가? 이것은 사용 가능한 데이터의 성격과 양과 각 특정 사용 사례에서 당신의 훈련 목표에 크게 달려 있습니다. 값비싼 비용과 자원을 지불 할 가치가 없는 경우 가장 복잡한 알고리즘을 사용하지 마십시오. 여기 사용의 단순성에 따라 순서대로 가장 일반적인 알고리즘이 있습니다.
의사결정 나무: 단계적 응답 과정에서, 전형적인 의사결정 나무 분석은 계층화 변수 또는 의사결정 노트를 사용하여, 예를 들어, 주어진 사용자를 신용으로 신뢰할 수 있는지 아닌지 분류할 수 있다.
장점: 사람, 장소, 사물의 다양한 특징, 품질, 특성을 평가하는 데 능숙하다. 시나리오 예: 규칙 기반 신용 평가, 경주 결과 예측
지원 벡터 머신 (Support Vector Machine): 하이퍼플레인을 기반으로 데이터 세트를 분류할 수 있는 벡터 머신을 지원한다.
장점: 벡터 기계가 변수 X와 다른 변수들 사이에 직선적 관계와 상관없이 이차 분류 작업을 능숙하게 수행할 수 있도록 지원 시나리오 예: 뉴스 분류, 손글씨 인식.
회귀 (Regression): 회귀는 유인변수와 하나 이상의 유인변수 사이의 상태 관계를 도출할 수 있다. 이 경우, 스팸과 비스팸을 구분한다.
장점: 회귀는 변수 사이의 연속 관계를 식별하는 데 사용될 수 있습니다. 그 관계가 매우 명백하지 않더라도 시나리오 예: 도로 교통 트래픽 분석, 메일 필터링
네이브 베이어스 분류: 네이브 베이어스 분류는 가능한 조건의 분포 확률을 계산하는 데 사용됩니다. 각 독립적 특성은 "네이브" 또는 조건 독립적이므로 다른 객체에 영향을 미치지 않습니다. 예를 들어, 5개의 노란색과 빨간색 소공을 모두 갖춘 주머니에서 두 개의 노란색 소공을 연속으로 얻는 확률은 무엇입니까? 그림의 가장 높은 분포에서 볼 수 있으며, 앞뒤로 두 개의 노란색 소공을 잡는 확률은 1/10입니다. 네이브 베이어스 분류는 여러 가지 특성을 합친 조건의 확률을 계산할 수 있습니다.
장점: 소규모 데이터 세트에서 눈에 띄는 특징을 가진 관련 객체에 대해 순수 Bayes 방법은 빠르게 분류 할 수 있습니다. 시나리오 예: 감정 분석, 소비자 분류
숨겨진 마르코프 모델: 명백한 마르코프 과정은 완전한 확실성의 시점이며, 주어진 상태는 종종 다른 상태와 함께 발생합니다. 교통 신호등은 예를 들어 있습니다. 반대로, 숨겨진 마르코프 모델은 가시 데이터를 분석하여 숨겨진 상태의 발생을 계산합니다. 이후, 숨겨진 상태 분석을 통해, 숨겨진 마르코프 모델은 가능한 미래 관측 패턴을 추정할 수 있습니다. 이 경우, 높은 또는 낮은 기압의 확률 (이 숨겨진 상태) 는 맑은 날, 비가 오는 날, 구름이 많은 날의 확률을 예측하는 데 사용됩니다.
장점: 데이터의 변동성을 허용하여 인식 및 예측 작업에 사용됩니다. 시나리오 예: 얼굴 표정 분석, 날씨 예측
무작위 숲: 무작위 숲 알고리즘은 무작위로 선택된 데이터 서브셋을 가진 여러 개의 나무를 사용하여 의사 결정 나무의 정확성을 향상시킵니다. 이 사례는 유전자 발현 수준에서 유방암 재발과 관련된 많은 유전자를 조사하고 재발 위험을 계산합니다.
장점: 무작위 숲 방식은 대용량 데이터 세트와 많은, 때로는 관련 없는 특징이 있는 항목 (item) 에 유용하게 사용된 것으로 나타났습니다. 시나리오 예: 사용자 손실 분석, 위험 평가
회전신경망 (Recurrent neural network): 임의의 신경망에서 각 신경 세포는 숨겨진 계층 하나 이상의 계층을 통해 많은 입력을 하나의 출력으로 변환한다. 회전신경망 (RNN) 은 배열별 학습을 가능하게 하는 계층별 학습을 위해 값을 추가로 전달한다. 즉, RNN은 어떤 형태의 기억이 존재하여 이전 출력이 후속 출력에 영향을 미치게 된다.
장점: 순환신경망은 많은 체계적인 정보가 존재할 때 예측할 수 있습니다. 시나리오 예: 이미지 분류와 자막 추가, 정치 감정 분석
긴 단기 기억 (Long short-term memory, LSTM) 과 게트 리큐런트 유닛 신경 네트워크 (gated recurrent unit neural network): 초기 RNN 형태는 손실이 있을 것이다. 비록 이러한 초기 루클리 신경 네트워크는 초기 정보의 소량만을 보유할 수 있지만, 새로운 LSTM와 게트 리큐런트 유닛 (GRU) 는 장기 및 단기 기억을 가지고 있다. 즉, 새로운 RNN들은 더 나은 제어 기억 능력을 가지고 있어, 이전 처리 또는 많은 일련의 단계가 필요할 때 이러한 값을 재배치할 수 있는 능력을 가지고 있으며, 이는 "레드레게이션 퇴화" 또는 단계적으로 전달되는 값의 최종 퇴화를 피할 수 있다. LSTM와 GRU 네트워크는 우리가 "레드레게이트"라고 불리는 메모리 모듈 또는 메모리 구조를 사용하도록 해준다. 이러한 구조는 값을 전달할 때 적응하거나 재배치할 수 있다.
장점: 장기 단기 기억과 게이트 제어 순환 세포 신경망은 다른 순환 신경망과 동일한 장점을 가지고 있지만 더 나은 기억 능력을 가지고 있기 때문에 더 자주 사용됩니다. 시나리오 예: 자연어 처리, 번역
컨블루션 신경망 (convolutional neural network): 컨블루션은 후속 계층에서 나오는 무게의 합성을 의미하며, 출력 계층을 표시하는 데 사용될 수 있다.
장점: 매우 큰 데이터 세트, 많은 특징 및 복잡한 분류 작업이 있을 때 convolutional neural network은 매우 유용합니다. 시나리오 예: 이미지 인식, 텍스트 변환, 약물 발견
http://usblogs.pwc.com/emerging-technology/a-look-at-machine-learning-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-methods-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-evolution-infographic/
빅데이터 플랫폼에서 가져온 것