Month: November 2016

[Tiere der Robotik] Festo – Der AquaPenguin

Der AquaPenguin ist ein Unterwasserfahrzeug, welches autonom agieren kann und durch den Einsatz eines 3D-Sonars sogar mit der Umgebung kommunizieren kann. Was den AquaPenguin jedoch einzigartig macht, ist der in alle Richtungen bewegliche Rumpf. Die Technologie dahinter nennt sich Fin Ray und wurde für den AquaPenguin zum ersten Mal im dreidimensionalen Raum benutzt.

Hier geht es zum Datenblatt des AquaPenguin.

 

[Tiere der Robotik] Der BionicOpter von Festo

Der BionicOpter (eine Mischung aus Hubschrauber und Flugzeug) ist der Libelle nachempfunden. Durch die eingebaute sensible und flexible Mechanik, ist er in der Lage sehr anspruchsvolle Manöver zu fliegen und in der Luft zu stehen. Wie viele nachkonstruierte bionische Tiere, wird die Libelle aufgrund ihrer Flexibilität auch in Krisengebieten eingesetzt werden können. Vielleicht wird sie in der nahen Zukunft die aktuell handelsübliche Drohne ablösen ;-).

Hier gehts zum Datenblatt des BionicOpters.

[Tiere der Robotik] Die Festo BionicANT

Festo hat eine Ameise entwickelt, die sich, mit Schwarmintelligenz ausgestattet, mit anderen Individuen absprechen und auf ein Vorgehen verständigen kann. Die BioANT ist sehr filigran gebaut und findet jederzeit zurück zur Ladestation (wo sie über ihre Fühler laden kann). Dafür nutzt die Ameise:

  • Stereo-Kamera
  • Greifwerkzeuge aus Piezoaktorik
  • Positions-Tracking

Hier geht es zum Datenblatt von Festo.

Das Fremde – Die Roboterkolonie

Eine Zivilisation von Robotern unter uns? Das gibt es! Das Fremde ist eine Installation der Visual Artists Supermafia zusammen mit 2 Forschern: Michael Spranger und Stéphane Noël. Die Idee hinter Das Fremde ist, die Entwicklung von Sprache (die Erweiterung und Reduktion) in Echtzeit verfolgen zu können. Dafür reist die Ausstellung durch die Welt und bietet den Besuchern damit die Möglichkeit mit den Agenten zu interagieren und natürlich auch ihre eigene Entwicklung zu reflektieren.




[Startups] 42reports – Wie effizient ist dein Business?

home_shops

Quelle: 42reports.com

Worum geht es hier?
42reports bietet ein Offline-Analyse-Tool für Läden und Filialen. Ähnlich wie Google Analytics kann man das Verhalten von Kunden mit Hilfe verschiedener Technologien messen und auswerten. Daraus lassen sich verschiedene Metriken ableiten, bspw. Anzahl Neukunden, Anzahl der wiederkehrenden Kunden sowie Verweildauer im Store. Diese Daten kann werden dann in Reports gegossen, die man sich einfach als PDF ausgeben lassen kann oder im Dashboard von 42reports ansehen kann. Des weiteren ist es möglich, Vorhersagen aufgrund der Daten zu machen, um den Laden zu optimieren. 42reports hat bereits mehrere Finanzierungsrunden mit namenhaften Investoren u.a. Frank Thelen und Tengelmann Ventures hingelegt. Im April 2016 wurde 42 von der DILAX Intelcom übernommen und legte einen Exit hin.




Zahlen bitte

  • ca. 100 EUR kostet ein Sensor von 42reports pro Monat.
  • Maximal 2 Minuten dauert das Setup des plug&ready Sensors

Zukunft des Startups

Durch die Übernahme durch die DILAX Intelcom geht 42reports in dessen Produkt-Portfolio über. Verschiedene Produkte von DILAX beschäftigen sich unter anderem auch mit Offline-Analytics von Retailern.

Die Gründer
Die beiden Gründer sind Christian Wallin und Kai Gruenenwald. Christian arbeitete bei u.a. bei Goldmann Sachs als Analyst. Kai hingegen ist eher im Bereich Sales und Marketing aktiv.

Deep Learning – So gelingt der Einstieg!

Deep Learning ist in vielen Bereichen der KI-Forschung und der praktischen wirtschaftlichen Anwendungen von maschinellem Lernen  zum State-of-the-Art geworden – vor allem bei Aufgaben mit Bildern und Texten. Es klingt wie ein komplett neues und aufregendes Verfahren, entpuppt sich aber als ein Zusammensetzen von bereits vorhandenen Komponenten des Machine Learning. Je nachdem wie tief man in die Materie einsteigen will, muss man sich vorher mit Formen der Merkmalsextraktion sowie mit künstlichen neuronalen Netzen beschäftigen. Deep Learning bedeutet nämlich im Grunde folgendes:

  • Ein mehrschichtiges künstliches neuronales Netz (multi layer)
  • Jede Schicht (Layer) hat eine bestimmte Funktion & führt verschiedene Operationen aus
  • Man entwirft verschiedene Architekturen dieser Netze – verschiedene Verschaltungen von Layern





Diese Layer haben verschiedene Funktionen. Die meistbenutzten Konzepte werden nachfolgend dargestellt:

  • INPUT [32x32x3] Funktioniert im Grunde ähnlich wie eine Retina. Die Matrix in diesem Layer besteht aus den RGB-Bildpunkten (3) und entspricht der Größe des Bildes in diesem Beispiel: 32×32 Pixel.

    Quelle: Wikipedia

    Quelle: Wikipedia

  • CONV (Convolutional Layer) Dieser Layer berechnet Features für lokale Regionen im Input. Die meistgenutzte Funktion hier ist ein Skalarprodukt der Werte in den verschiedenen Regionen berechnet. Setzt man 12 verschiedene Filter ein, erhält man 12 Ergebnismatrizen. Dieser Dieser Layer produziert also eine Matrix mit den Dimensionen: [32x32x12].
  • RELU (Rectified Linear Unit) In diesem Layer werden relativ simple Funktionen angewendet, ähnlich wie max(x, 0). Werte werden hier nicht verändert, dafür aber eventuell auf einen Threshold-Wert gesetzt. Wir erhalten also wieder eine Matrix mit den Dimensionen [32x32x12].
  • POOL (Pooling) wird genutzt, um ein Downsampling auszuführen. Für POOL gibt es verschiedene Operationen, eine davon ist Max-Pooling- Dabei wird aus einer n x n Matrix der größte Wert gewählt. Beispielsweise mit dem Output [16x16x12]. Das entspricht einem Faktor von 0.5.
  • FC (fully connected) In diesem Layer sind alle Neuronen einer Schicht miteinander verbunden. Hier passiert auch der meiste Lernaufwand. Für den Fall, dass ein Netz zwischen 10 Klassen entscheiden muss, wären die Dimensionen hier [1x1x10].

Eine Beispiel-Architektur wäre eine serielle Verschaltung folgender Layer:  [INPUT – CONV – RELU – POOL – FC]. Hier werden zuerst verschiedene gefaltete Features aus dem Bild extrahiert. Danach wird ein bestimmtes Muster aus den extrahierten Features herausgeschnitten (entschieden nach Thresholds). Mit diesen Features wird nur ein Downsampling durchgeführt. Nach dem Downsampling der gefilterten und gefalteten Features wird nun der Layer angesprochen, der aus den Repräsentationen die verschiedenen Klassen entscheidet. Im Vergleich zu einem Ein-Layer-Netzwerk (auch shallow genannt) wird hier viel mehr Aufwand betrieben, um Features zu extrahieren.

Mehr über die Vergangenheit von Deep Learning und der Schönheit von lernenden Maschinen, erfährt man in Ben Vigoras Talk mit dem Titel “When Machines Have Ideas”. Er redet darüber, was lernen wirklich bedeutet und was das Interessante an lernenden Maschinen ist.

Hugo Larochelle redet in “The Deep End of Deep Learning” über den langen Weg, den Deep Learning gehen musste, bis es zum Buzzword wurde. Sehr interessant ist dabei auch, dass es diverse Ansätze zum Thema Deep Learning schon viel eher gab.

Um die 2 vorherigen Videos abzurunden, sollte man sich diesen Talk von Andrej Karpathy ansehen. Er ist Teil des Labs der Stanford University und war maßgeblich an der Weiterentwicklung des initialen Begriffs Deep Learning beteiligt.

Nach diesen Ausführungen zum Thema Deep Learning hat man eine Intuition für das aktuell am meisten gehypte Thema der KI-Forschung bekommen. Falls ihr euch fragt, wie es nun weiter geht oder gar Lust habt, ein Projekt mit Deep Learning Frameworks umzusetzen, dann werdet ihr hier fündig:




DeepMind lernt jetzt StarCraft II

Nachdem Google DeepMinds AlphaGo mit Lee Sedol den weltweit besten Go-Spieler geschlagen hat, versucht das Team hinter der Google-Akquisition nun, die nächste Nuss zu knacken. Mit StarCraft II haben sie sich dabei eine besonders schwere Nuss herausgesucht. StarCraft ist nicht rundenbasiert, sondern ein sogenanntes Echtzeitspiel. Die Entscheidungen die DeepMind trifft, müssen also schnell und akkurat sein. Dennoch kann man das Gelernte aus AlphaGo wenigstens teilweise anwenden, denn beide Spiele (Go und StarCraft) haben eine Gemeinsamkeit. Betrachten wir das Spielverhalten von Schach, Go und StarCraft, wird dies deutlicher:

  •  Schach
    • Strukturen sind zum Start gegeben
    • Ziel ist es, die gegnerischen Strukturen zu zerstören
  • Go
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, eine Strukturen so aufzubauen, dass man den Gegner beherrscht
  • StarCraft
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, gegnerische Strukturen zu zerstören und eigene Strukturen stabil zu halten

Vereinfacht gesagt: StarCraft ein Mix aus den beiden anderen vorgestellten Spielphilosophien. Ein möglicher Ansatz des DeepMind-Teams wird im Video deutlich. Der Eindruck vom Spielfeld wird in Feature Layern (Merkmalsebenen) abgebildet. Anhand dieser Darstellung kann DeepMind dann, die Strategien der Gegner abschätzen und daraus eigene Strategien entwickeln.




Uber Elevate – Pendeln in der Zukunft

Zusammen mit NASA, Georgia Tech University, MIT, Nesta und Otto Motor hat Uber ein Konzept für ein

VTOL (vertical take-off and landing) im Personenverkehr erstellt. Das Projekt läuft bei Uber unter dem Arbeitstitel Elevate. Über den bisherigen Stand von Uber Elevate wird in dem

Quelle: Uber Elevate Report

Quelle: Uber Elevate Report

knapp 100 Seiten umfassenden Bericht kein Wort verloren. Über die Effizienzsteigerung, welche die Umsetzung dieses Projekts mit sich bringen könnte, schreibt die Projektgruppe dafür um so detailierter.

Es wird angemerkt, dass die initiale Entwicklung und Herstellung des Produktes zwar teuer wären, eine Massenproduktion könnte danach aber deutlich kostengünstiger realisiert werden. Ein großer Bonus im Vergleich zum Fahren auf Straßen ist die Dimension, die man im Luftverkehr dazu gewinnt – nämlich die Höhe. Durch die VTOLs könnte auch der Straßenverkehr deutlich entlastet werden. Zur Landung würden die VTOLs u.a. bereits vorhandene Helikopterlandeplätze nutzen können. Eine Reise von San Francisco nach San Jose (sonst 2 Stunden) könnte man damit in 15 Minuten bewerkstelligen.

Außerdem enthält der Bericht einige Passagen, die sich mit dem Thema Markteintrittsbarrieren und -machbarkeit befassen. Einen genauen Zeitplan für das Projekt liegt nicht vor. Es wird aber angenommen, dass sich Uber nach diesem Proof of Concept um Standards bemüht, die helfen würden, Uber Elevate irgendwann in die Realität umzusetzen.

Hier geht es zum Report.



Demis Hassabis – Ein Kopf hinter Google DeepMind

Demis Hassabis, einer der führenden Köpfe hinter Google DeepMind redet über die Form von KI, an der DeepMind baut. Demis hat nach der Uni an verschiedenen Startups mitgewirkt – auch im Bereich Machine Learning. Nach seiner Startup-Zeit ging es für ihn wieder zurück an die Universität, wo er in Cognitive Neuro Science promovierte.

Er unterscheidet in seinem Vortrag verschiedene Formen von Künstlichen Intelligenzen:

  • Learning vs. Handcrafted
  • General vs. Specific
  • Grounded vs. Logic-based
  • Active learning vs. Passive observation




Google DeepMind ist nur an Intelligenzen interessiert, die sich, wie folgt, kategorisieren lassen:  feature learning, general purpose, grounded und active learning. Doch was bedeutet dies im Detail? Die gelernten Modelle sollen ihre Feature-Extraktoren selbst lernen (also durch Feedback relevante Merkmale finden), sie sollten keinem speziellem Zweck dienen, sondern universal einsetzbar sein. Außerdem basieren sie auf probabilistischen Ansätzen, die biologisch motiviert werden. Als letztes Kriterium sollen sie aktiv lernen und dafür eine Belohnung oder eine Strafe erhalten (reward, insb. reinforcement learning). Wie Demis es in seinem Vortrag sagt: “System without any data, learning from the first principles”.

Neben seinem Ausblick in die Zukunft von DeepMind redet er vor allem über zwei Anwendungsfälle von Googles DeepMind. Als erstes geht er auf AlphaGo ein (eine KI die Lee Sedol im Spiel Go geschlagen hat). Sein zweiter Anwendungsfall ist ein Rechenzentrum von Google, dass mit einem von Google DeepMind entwickelten System signifikant Strom sparen konnte.