Auswendig lernen ist nicht gut!
Beim Training von Klassifikatoren existiert ein sehr populäres Problem. Man möchten einen Klassifikator lernen, der während der Trainingsphase sehr gut performt. Dieser Klassifikator sollte aber nach der Trainingsphase in der Lage sein, in der Testphase sowie in Produktion, gute Ergebnisse zu erzählen. Er soll also die Trainingsdaten lernen, ohne sie auswendig zu lernen.
Auf das Abstrakte kommt es an
Spricht man vom auswendig lernen, so meint man meist das Overfitting. Ein Klassifikator der 100% der Daten richtig klassifiziert, hat sie auswendig gelernt. Im Gegensatz dazu kann ein Klassifikator auch underfitten. Das bedeutet, der Klassifikator nutzt einen zu einfachen Ansatz, um die Daten zu separieren. In diesem Fall hat der Klassifikator / Regressor ebenfalls nicht gelernt, die abstrakten Konzepte der Daten zu verstehen.
Learning 12 Over- und Under-Fitting des Klassifikators ist zu vermeiden, da der Klassifikator das Training-Set entweder auswendig lernt oder einen zu einfachen Ansatz wählt, um die Daten zu separieren.
Alles klar? Weiter gehts! >
Haben Sie Fragen? Wir bieten Consulting zu diesem Thema an.
Zu unseren Angeboten.
]]>