Was ist maschinelles Lernen?
Maschinen lernen, indem sie große Mengen an Daten analysieren. Zum Beispiel müssen sie keine Katzen oder Gesichter durch Programmierung erkennen, sondern können durch Bildtraining trainiert werden, um bestimmte Ziele zu reduzieren und zu identifizieren.
Die Beziehung zwischen Machine Learning und KI
Maschinelles Lernen ist eine Disziplin von Forschung und Algorithmen, die sich auf die Suche nach Mustern in Daten und die Verwendung dieser Muster zur Vorhersage konzentrieren. Maschinelles Lernen ist Teil des Bereichs der künstlichen Intelligenz und überschneidet sich mit Wissensfindung und Datenmining.
Wie funktioniert maschinelles Lernen?
1. Auswahl der Daten: Teilen Sie Ihre Daten in drei Gruppen: Training, Verifizierung und Testdaten. 2 Modelldaten: Modelle mit relevanten Eigenschaften werden mit Trainingsdaten erstellt 3 Validierungsmodelle: Nutzen Sie Ihre Validierungsdaten, um auf Ihr Modell zuzugreifen 4 Testmodelle: Überprüfen Sie die Performance der geprüften Modelle mit Ihren Testdaten 5 Modelle verwenden: Vorhersagen anhand neuer Daten mit voll ausgebildeten Modellen machen 6 Optimierungsmodelle: Verwenden Sie mehr Daten, verschiedene Eigenschaften oder angepasste Parameter, um die Performance der Algorithmen zu verbessern
Wo ist Machine Learning?
1. Traditionelle Programmierung: Der Software-Ingenieur schreibt ein Programm, um ein Problem zu lösen. Zuerst gibt es einige Daten→ Um ein Problem zu lösen, schreibt der Software-Ingenieur einen Prozess, der der Maschine sagt, was sie tun soll→ Der Computer führt diesen Prozess aus und ergibt Ergebnisse 2 Statistik: Analysten vergleichen Variablen 3 Maschinelles Lernen: Die Datenwissenschaftler lehren den Computer mit Hilfe von Trainingsdatensätzen, was er tun soll, und dann führt das System die Aufgabe aus. Zuerst gibt es Big Data→ Die Maschine lernt, mit Hilfe von Trainingsdatensätzen zu sortieren und bestimmte Algorithmen anzupassen, um die Zielsortierung zu erreichen→ Die Computer lernen, Beziehungen, Trends und Muster in den Daten zu erkennen 4 Intelligente Anwendungen: Die Ergebnisse intelligenter Anwendungen, die mit künstlicher Intelligenz verwendet werden, wie gezeigt, sind ein Beispiel für die Anwendung in der Präzisionslandwirtschaft, die auf Daten basiert, die von Drohnen gesammelt wurden
Praxisbezogene Anwendungen von Machine Learning
Es gibt viele Anwendungsfälle für maschinelles Lernen, und hier sind einige Beispiele, wie Sie es verwenden würden.
Schnelle 3D-Mapping und Modellierung: Um eine Eisenbahnbrücke zu bauen, wenden die Datenwissenschaftler und Fachleute von PwC maschinelles Lernen an die von den Drohnen gesammelten Daten an. Diese Kombination ermöglicht eine präzise Überwachung und schnelle Rückmeldung des Arbeitserfolges.
Erweiterte Analysen zur Risikominderung: Um interne Transaktionen zu erkennen, kombiniert PwC maschinelles Lernen mit anderen Analysetechniken, um ein umfassenderes Benutzerprofil zu entwickeln und ein tieferes Verständnis für komplexes verdächtigendes Verhalten zu erhalten.
Prognose der besten Leistungsziele: PwC verwendet Machine Learning und andere Analysemethoden, um das Potenzial der verschiedenen Rennpferde auf dem Melbourne Cup-Rennplatz zu bewerten.
Seit Jahrzehnten streiten sich die verschiedenen "Stämme" von KI-Forschern um die Vorherrschaft. Ist es Zeit, dass diese Stämme sich vereinen? Sie müssen es vielleicht auch tun, weil Zusammenarbeit und Algorithmenfusion der einzige Weg sind, um eine wirklich universelle KI (AGI) zu erreichen. Hier wird der Weg der Evolution von Methoden des maschinellen Lernens und mögliche Zukunftsperspektiven dargestellt.
Die fünf Hauptgruppen
1. Symbolismus: Verwendung von Symbolen, Regeln und Logik zur Darstellung von Wissen und logischer Argumentation, bevorzugte Algorithmen sind Regeln und Entscheidungsbäume 2 Bayesian: Gewinnung der Wahrscheinlichkeit, dass etwas geschieht, um Wahrscheinlichkeitsrückschlüsse zu machen, bevorzugte Algorithmen sind: Naiv Bayes oder Markov 3 Verbundenheit: Verwendung von Wahrscheinlichkeitsmatrizen und gewichteten Neuronen zur dynamischen Identifizierung und Induktion von Mustern, bevorzugte Algorithmen sind: 4. Evolutionismus: Veränderungen erzeugen und dann die besten von ihnen für bestimmte Ziele gewinnen. 5 Analogizer: Optimierung der Funktion unter Einschränkungen (so hoch wie möglich gehen, aber gleichzeitig nicht von der Straße weggehen)
Entwicklungsstadien
1980er Jahre
Hauptstil: Symbolismus Architektur: Server oder Maschine Haupttheorie: Wissenstechnik Grundlegende Entscheidungslogik: Entscheidungsunterstützungssysteme mit begrenzter Nutzung
1990er Jahre bis 2000
Hauptgenre: Bayes Architektur: Kleine Servercluster Die vorherrschende Theorie: Wahrscheinlichkeitstheorie Kategorisierung: Erweiterbare Vergleiche oder Kontraste sind für viele Aufgaben gut genug
Anfang bis Mitte der 2010er Jahre
Hauptgenre: Verbündeter Architektur: große Serverfarmen Die vorherrschende Theorie: Neurowissenschaft und Wahrscheinlichkeit Erkennung: Präzisere Bild- und Spracherkennung, Übersetzung, Emotionsanalyse und mehr
Es wird erwartet, dass die verschiedenen Genres zusammenarbeiten und ihre eigenen Methoden miteinander verbinden.
Ende der 2010er Jahre
Hauptgenre: Verbundenheit + Symbolik Architektur: viele Wolken Die vorherrschenden Theorien: Gedächtnissysteme, Massenintegration, wissensbasierte Argumentation Einfache Fragen und Antworten: Enge, fachspezifische Wissensfreigabe
2020er Jahre +
Die Hauptgenre: Unionismus + Symbolismus + Bayes +... Architektur: Cloud- und Nebelcomputing Die vorherrschende Theorie: Es gibt Netzwerke für Wahrnehmung, Regeln für Argumentation und Arbeit Einfache Wahrnehmung, Argumentation und Handlung: begrenzte Automatisierung oder menschliche Interaktion
2040er Jahre +
Der dominante Genre: Algorithmenverschmelzung Architektur: Allgegenwärtige Server Die vorherrschende Theorie: Meta-Learning mit der besten Kombination Wahrnehmung und Reaktion: Handeln oder Antworten geben auf der Grundlage von Wissen oder Erfahrungen, die durch verschiedene Lernmethoden erworben wurden
Welche Machine-Learning-Algorithmen sollten Sie verwenden? Dies hängt stark von der Art und Menge der verfügbaren Daten und Ihren Trainingszielen in jedem spezifischen Anwendungsfall ab. Verwenden Sie nicht die komplexesten Algorithmen, es sei denn, die Ergebnisse sind teure Ausgaben und Ressourcen wert. Hier sind einige der häufigsten Algorithmen, sortiert nach der Einfachheit der Verwendung.
Entscheidungsbaum: Bei der schrittweisen Beantwortung verwendet eine typische Entscheidungsbaumanalyse Schichtungsvariablen oder Entscheidungsknoten, um beispielsweise einen bestimmten Benutzer als kreditwürdig oder unzuverlässig zu klassifizieren.
Vorteile: Fähigkeit, eine Reihe verschiedener Eigenschaften, Qualitäten und Eigenschaften von Personen, Orten und Dingen zu beurteilen Szenenbeispiele: Regelbasierte Kreditbeurteilung, Prognose von Rennfolgen
Unterstützt Vektormaschine: basiert auf Hyperplane, unterstützt Vektormaschine kann auf Datensätze zu klassifizieren.
Vorteile: Unterstützung von Vektormaschinen, die sich für binäre Klassifizierungsoperationen zwischen Variablen X und anderen Variablen auskennen, unabhängig davon, ob ihre Beziehung linear ist oder nicht Szenenbeispiele: Nachrichtenklassifizierung, Handschrifterkennung.
Regression: Regression kann die Zustandsbeziehung zwischen einer Reaktionsvariable und einer oder mehreren Reaktionsvariablen darstellen. In diesem Fall wird zwischen Spam und Nicht-Spam unterschieden.
Vorteile: Regression kann verwendet werden, um fortlaufende Beziehungen zwischen Variablen zu identifizieren, auch wenn diese nicht sehr offensichtlich sind Szenenbeispiele: Analyse von Verkehrsströmen, Filterung von Post
Naive Bayes-Klassifikation: Naive Bayes-Klassifikatoren werden verwendet, um die Verzweigungswahrscheinlichkeit möglicher Bedingungen zu berechnen. Jedes eigenständige Merkmal ist "naiv" oder bedingungsunabhängig, so dass es keine anderen Objekte beeinflusst. Zum Beispiel: Wie ist die Wahrscheinlichkeit, dass in einer Schachtel mit insgesamt 5 gelben und roten Kugeln zwei gelbe Kugeln in Folge geholt werden?
Vorteile: Für relevante Objekte mit signifikanten Eigenschaften in kleinen Datensätzen kann die Bayes-Problematik schnell klassifiziert werden Szenariobeispiele: Emotionsanalyse, Verbraucherkategorie
Verborgenes Markov-Modell: Das manifeste Markov-Prozess ist ein vollkommen bestimmter Prozess, bei dem ein bestimmter Zustand häufig mit einem anderen verbunden ist. Verkehrslicht ist ein Beispiel. Im Gegensatz dazu berechnet das Verborgene Markov-Modell die Auftreten von versteckten Zuständen, indem es sichtbare Daten analysiert. Anschließend kann das Verborgene Markov-Modell mit Hilfe der versteckten Zustandsanalyse mögliche zukünftige Beobachtungsmuster abschätzen.
Vorteile: Variabilität der Daten zulässig, für Erkennungs- und Prognoseoperationen geeignet Szenenbeispiele: Gesichtsmusteranalyse, Wettervorhersage
Random Forest: Die Random Forest-Algorithmen verbessern die Präzision von Entscheidungsträumen durch die Verwendung von mehreren Bäumen mit zufällig ausgewählten Datensätzen. In diesem Fall werden auf der Ebene der Genexpression viele Gene untersucht, die mit dem Wiederauftreten von Brustkrebs verbunden sind, und das Risiko für ein Wiederauftreten berechnet.
Vorteile: Die Methode des Zufallsforstens hat sich für große Datensätze und für Elemente mit vielen und manchmal unabhängigen Merkmalen erwiesen. Szenariobeispiele: Verlustanalyse, Risikobewertung
Recurrent neural network: In einem beliebigen Netzwerk verwandelt jedes Neuron viele Eingaben in eine einzelne Ausgabe durch eine oder mehrere versteckte Schichten. Recurrent neural networks (RNNs) geben die Werte weiter über Schichten, was das Lernen durch Schichten ermöglicht. In anderen Worten, RNNs haben eine Art von Gedächtnis, das es ermöglicht, dass die vorherigen Ausgänge die späteren Einträge beeinflussen.
Vorteile: Das kreative Netzwerk ist vorausschauend, wenn eine große Menge an geordneter Information vorhanden ist Szenenbeispiele: Bilder klassifizieren und Untertitel hinzufügen, politische Emotionsanalyse
Langes Kurzzeitgedächtnis (LSTM) und gated recurrent unit neural network: Während diese frühen Formen von RNNs nur eine geringe Menge an frühen Informationen speichern lassen, verfügen die neueren LSMs und GRUs über ein langes und kurzes Gedächtnis. In anderen Worten, diese neueren RNNs verfügen über eine bessere Fähigkeit zur Kontrolle des Gedächtnisses, die es ermöglicht, frühere Verarbeitungen zu speichern oder die Werte zu übertragen, wenn viele Reihe von Schritten erforderlich sind, was eine "Gradiale Abnahme" oder endgültige Degradation der Werte verhindert, die nach und nach übertragen werden.
Vorteile: Lang- und Kurzzeitgedächtnis und Gate-Control-Zell-Zirkellnetzwerke haben die gleichen Vorteile wie andere Zirkellnetzwerke, werden jedoch häufiger verwendet, da sie eine bessere Speicherkapazität haben Szenenbeispiele: Natürliche Sprachenverarbeitung, Übersetzung
Konvolutional Neural Network: Konvolution ist die Verschmelzung von Gewichten aus den nachfolgenden Schichten, die verwendet werden können, um die Ausgabe zu markieren.
Vorteile: Ein Wicklungsnetz ist sehr nützlich, wenn es sehr große Datensätze, eine Vielzahl von Merkmalen und komplexe Klassifizierungsarbeiten gibt Szenenbeispiele: Bilderkennung, Sprachumwandlung, Drogenerkennung
http://usblogs.pwc.com/emerging-technology/a-look-at-machine-learning-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-methods-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-evolution-infographic/
Übertragen von Big Data Plateau