In Machine Learning ist das Ziel entweder die Vorhersage oder das Clustering. Der Schwerpunkt dieses Artikels liegt auf der Vorhersage. Vorhersage ist der Prozess, den Wert der Ausgabe von einer Reihe von Input-Variablen zu prognostizieren. Zum Beispiel, wenn wir eine Reihe von Merkmalen für ein Haus erhalten, können wir seinen Verkaufspreis prognostizieren. Die Vorhersageprobleme können in zwei Kategorien unterteilt werden: In diesem Zusammenhang wollen wir uns die wichtigsten und am häufigsten verwendeten Algorithmen in der Maschinellen Lernbranche anschauen. Wir haben sie in drei Kategorien eingeteilt: lineare Modelle, baumbasierte Modelle und neurale Netzwerke.
Die Linearregression, oder genauer gesagt, die minimale zweimalige Regressionsregression, ist die Standardform des Linearmodells. Für Regressionsprobleme ist die Linearregression das einfachste Linearmodell. Der Nachteil ist, dass das Modell leicht zu überanpassen ist, d. h. dass das Modell sich vollständig an die ausgebildeten Daten anpasst, zu Lasten der Fähigkeit, sich auf neue Daten auszurichten.
Ein weiterer Nachteil von Linearmodellen ist, dass sie, da sie sehr einfach sind, nicht leicht komplexere Verhaltensweisen vorhersagen, wenn die Inputvariablen nicht unabhängig sind.
Logische Regression ist die Anpassung der Linearregression an die Klassifizierungsprobleme. Die Nachteile der Logischen Regression sind die gleichen wie bei der Linearregression. Die Logische Funktion ist sehr gut für Klassifizierungsprobleme, da sie den Threshold-Effekt einführt.
Entscheidungsbäume sind Abbildungen von allen möglichen Ergebnissen der Entscheidung, die mit der Branching-Methode dargestellt wird. Zum Beispiel, wenn Sie sich entscheiden, einen Salat zu bestellen, ist Ihre erste Entscheidung wahrscheinlich die Art von rohem Gemüse, dann Gemüse, dann die Art von Salatcreme. Wir können alle möglichen Ergebnisse in einem Entscheidungsbaum darstellen.
Um einen Entscheidungsbaum zu trainieren, müssen wir die Trainingsdatensätze verwenden und herausfinden, welche Eigenschaft für das Ziel am nützlichsten ist. Zum Beispiel in den Anwendungsfällen der Betrugserkennung können wir feststellen, dass die Eigenschaft, die den größten Einfluss auf die Vorhersage von Betrugsrisiken hat, das Land ist. Nach dem Verzweigen der ersten Eigenschaft erhalten wir zwei Subsätze, die am genauesten vorhergesagt werden können, wenn wir nur die erste Eigenschaft kennen.
Zufallswälder sind die Durchschnittswerte vieler Entscheidungsträume, bei denen jeder Entscheidungsträum mit einer zufälligen Datenprobe trainiert wird. Jeder Baum im Zufallswald ist schwächer als ein vollständiger Entscheidungsträum, aber wenn wir alle Bäume zusammenstellen, können wir aufgrund der Vorteile der Vielfalt eine bessere Gesamtleistung erzielen.
Random Forests sind heute sehr beliebte Algorithmen im Maschinellen Lernen. Random Forests sind leicht zu trainieren und leisten eine ziemlich gute Leistung. Der Nachteil ist, dass Random Forests im Vergleich zu anderen Algorithmen die Prognosen langsam ausführen können, so dass man sich bei Bedarf für schnelle Prognosen wahrscheinlich nicht für Random Forests entscheidet.
Gradient Boosting besteht wie der Zufallswald aus schwachen Entscheidungsträumen. Der größte Unterschied zwischen Gradient Boosting und Zufallswald ist, dass bei Gradient Boosting die Bäume eins nach dem anderen trainiert werden. Jeder nachfolgende Baum wird hauptsächlich von dem Baum vor ihm trainiert, der falsche Daten erkennt.
Das Training mit der Steigerung ist auch schnell und sehr gut. Kleine Änderungen an den Trainingsdatensätzen können jedoch zu grundlegenden Veränderungen des Modells führen, so dass die Ergebnisse, die es erzeugt, möglicherweise nicht die besten sind.
Übertragen von Big Data Plateau