Naïve Bayes
Naïve Bayes ist ein sehr simples Verfahren, welches auf dem Bayes-Theorem basiert. Der größte Vorteil daran ist, dass man Naïve Bayes ohne aufwändiges Modell-Training online lernen lassen kann. Allerdings ist Naïve Bayes ein sehr simples Verfahren, weshalb es auch nicht für die besten Resultate bekannt ist.
Neuronales Netz
Ein neuronales Netz trainiert Gewichte, um die Eingangsdaten auf die Zielwerte zu mappen (Fehlerminimierung). Ein neuronales Netz eignet sich für Big-Data Anwendungen, da die Anzahl der Features und die Anzahl der Gewichte (die zu optimierenden Parameter) konstant bleibt – auch bei großen Datenmengen. Es kann beim Training u.U. allerdings sehr lange dauern.
Decision Tree
Ein Entscheidungsbaum scannt die Daten und versucht, anhand des Attributes, das am meisten Entropie minimiert und am meisten Informationszugewinn bringt, die Daten zu trennen. Dies wiederholt der Baum in jedem Schritt, bis er alle Attribute verarbeitet hat.
Random Forest
Ein Random Forest besteht aus mehreren Entscheidungsbäumen, die jeweils mit einem disjunkten Set von Trainingsdaten (jeder Baum sieht ein anderen Teil des Training-Sets) trainiert werden. Dadurch erhält man ein in der Regel ein ausgewogeneres Ergebnis.
Support Vector Machine
Support Vector Maschinen versuchen die Vektoren in einem n-dimensionalen Vektorraum mithilfe von Kernelfunktionen so zu platzieren, dass die Schätzung möglichst korrekt wird. Die SVM ist für Big-Data Anwendungen nicht geeignet. Es existieren allerdings abgewandelte Formen der SVM, die die Anzahl der gespeicherten Support-Vektoren minimieren.
Learning 9 Es existieren verschiedene Algorithmen, die diverse Vor- und Nachteile haben und sich für bestimmte Anwendungen besser eignen als andere. Prinzipiell sind sie aber vergleichbar.
Alles klar? Weiter gehts! >
Haben Sie Fragen? Wir bieten Consulting zu diesem Thema an.
Zu unseren Angeboten.]]>