Image Generation

Image Generation ist ein relativ junges Feld im Machine Learning. Durch die neusten Arbeiten, welche anhand von Deep Learning immer bessere Ergebnisse erzielen, wird das Forschungsfeld zunehmender f├╝r die Wirtschaft interessant.

 

M├Ąrz 2017 –┬áUnpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

Jun-Yan Zhu et al. Anhand von┬áGenerative Adversarial Networks (GANs) wird versucht, ein Bild in ein anderes Bild zu ├╝bersetzen und dabei lediglich einige Elemente zu ver├Ąndern. Beispielsweise zeigen die Autoren, wie ├äpfel in Orangen oder Pferde in Zebras transferiert wurden. Auch ein Gem├Ąlde von Monet konnte in ein photoreales Bild umgewandelt werden. ┬á[Zum Paper]

 

August 2016 – Pixel Recurrent Neural Networks

Aaron van den Oord et al. PixelRNN (Vorg├Ąnger PixelCNN) ist ein System, dass anhand eines Bildausschnitts den Rest des Bildes vorhersagen kann. Dieses Paper┬áging aus dem Google DeepMind Projekt hervor. Hierbei wurden besondere Formen von LSTMs (Long Short Term Memory) vorgestellt – n├Ąmlich Row LSTM und Diagoal BiLSTM. Diese k├Ânnen auf gro├čen Datensets besser skalieren. [Zum Paper]

 

M├Ąrz 2016 –┬áSemantic Style Transfer and Turning Two-Bit Doodles into Fine Artwork

Alex J. Champandard. Eine einfache Zeichtung aus dem Paint in ein Kunstwerk ├╝berf├╝hren? Davon handelt diese Ver├Âffentlichung. Am Beispiel vom Stil von Van Gogh wird gezeigt, wie man semantische Informationen nutzen kann, um den Style Transfer, also das Anwenden des Kunst-Stils des K├╝nstlers auf das Bild, durchzuf├╝hren. [Zum Paper]

 

Januar 2016 –┬áCombining Markov Random Fields and Convolutional Neural Networks for Image Synthesis

Chuan Li und Michael Wand. Die Autoren zeigen das ihre Methode mit MRF (Markov Random Fields) und dCNNs besser funktioniert, als der State-of-the-Art (Jan 2016). Ihre Methoden zur Image Creation bzw. photorealistischen Bildsynthese benutzen dabei verschiedene Mechanismen, die im generierten Bild keine unsch├Ânen und unnat├╝rlichen Artefakte zulassen. [Zum Paper]

 

Juni 2015 –┬áDeep Visual-Semantic Alignments for Generating Image Descriptions

Andrej Karpathy und Li Fei-Fei. In diesem Paper wird gezeigt, wie man f├╝r Bilder eine Beschreibung generieren kann. Das funktioniert regionsbasiert und besteht aus mehreren Subsystemen. Es wurde ein Datenset mit Bildern und dazugeh├Ârenden Beschreibungen benutzt. Dieses Set wurde in eine Kombination aus Convolutional (├╝ber die Bilder) ┬ásowie Recurrent (├╝ber die Beschreibungen) Neural Network gesteckt. [Zum Paper]