Tag: Neuronale Netze

Paper Review – Kreativit├Ąt messen, Language Models und CNN Kompression

In unserer Rubrik Paper Review┬ástellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen f├╝r euch das┬áWesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht.┬áViel Spa├č!

A Machine Learning Approach for Evaluating Creative Artifacts von IBM Research India versuchen anhand von Film-Datenbanken und deren Kritiken zu erkennen, woran man Kreativit├Ąt messen kann. Sie kommen zu dem Schluss, dass der Grad von “Unexpectedness” (also Unerwartbarkeit) mit der Kreativit├Ąt eines filmischen Werkes korreliert. Hier gehts zum Paper.

Syllable-aware Neural Language Models: A Failure to Beat Character-aware Ones. Das Paper besch├Ąftigt sich mit NLM (Neural Language Modeling). Es wird gezeigt das silbenbasierte Modelle zwar keine bessere Genauigkeit┬ágegen├╝ber vergleichbaren State-of-the-Art Modellen haben, allerdings reduzieren sie die Anzahl der Parameter und sparsamer bez├╝glich der Computation Time. Hier gehts zum Paper.

In Towards Evolutional Compression stellen die Autoren einen Algorithmus vor, der sich benutzen l├Ąsst, um aufw├Ąndige mehrschichtige Architekturen Neuronaler Netze so zu verkleinern, dass sie an die Genauigkeit der urspr├╝nglichen Netze heranreichen. Die Motivation f├╝r diese Arbeit sehen die Autoren in dem gr├Â├čer werdenden Interesse, komplexe CNNs auch auf Smartphones zu benutzen. Hier gehts zum Paper.

Am Rand erw├Ąhnt