Category: Wissen

26 Time Management Hacks – So werden Projekte erfolgreich!

Diesmal habe ich etwas – abseits vom Thema Künstliche Intelligenz – für euch. Viele Stellen sich die Frage: Wie kann ich erfolgreich werden. Klassische Antwort: es kommt darauf an! Natürlich gehört Disziplin genauso dazu wie Glück. Denn schließlich, so sagt man, ist jeder seines eigenen Glücks Schmied. Um die richtigen Schmeidetechniken zu erlernen, möchte ich hier ein Slide Deck mit euch teilen, welches ich selbst ebenfalls sehr inspirierend fand. Viel Spaß damit.

Deep Learning – So gelingt der Einstieg!

Deep Learning ist in vielen Bereichen der KI-Forschung und der praktischen wirtschaftlichen Anwendungen von maschinellem Lernen  zum State-of-the-Art geworden – vor allem bei Aufgaben mit Bildern und Texten. Es klingt wie ein komplett neues und aufregendes Verfahren, entpuppt sich aber als ein Zusammensetzen von bereits vorhandenen Komponenten des Machine Learning. Je nachdem wie tief man in die Materie einsteigen will, muss man sich vorher mit Formen der Merkmalsextraktion sowie mit künstlichen neuronalen Netzen beschäftigen. Deep Learning bedeutet nämlich im Grunde folgendes:

  • Ein mehrschichtiges künstliches neuronales Netz (multi layer)
  • Jede Schicht (Layer) hat eine bestimmte Funktion & führt verschiedene Operationen aus
  • Man entwirft verschiedene Architekturen dieser Netze – verschiedene Verschaltungen von Layern





Diese Layer haben verschiedene Funktionen. Die meistbenutzten Konzepte werden nachfolgend dargestellt:

  • INPUT [32x32x3] Funktioniert im Grunde ähnlich wie eine Retina. Die Matrix in diesem Layer besteht aus den RGB-Bildpunkten (3) und entspricht der Größe des Bildes in diesem Beispiel: 32×32 Pixel.

    Quelle: Wikipedia

    Quelle: Wikipedia

  • CONV (Convolutional Layer) Dieser Layer berechnet Features für lokale Regionen im Input. Die meistgenutzte Funktion hier ist ein Skalarprodukt der Werte in den verschiedenen Regionen berechnet. Setzt man 12 verschiedene Filter ein, erhält man 12 Ergebnismatrizen. Dieser Dieser Layer produziert also eine Matrix mit den Dimensionen: [32x32x12].
  • RELU (Rectified Linear Unit) In diesem Layer werden relativ simple Funktionen angewendet, ähnlich wie max(x, 0). Werte werden hier nicht verändert, dafür aber eventuell auf einen Threshold-Wert gesetzt. Wir erhalten also wieder eine Matrix mit den Dimensionen [32x32x12].
  • POOL (Pooling) wird genutzt, um ein Downsampling auszuführen. Für POOL gibt es verschiedene Operationen, eine davon ist Max-Pooling- Dabei wird aus einer n x n Matrix der größte Wert gewählt. Beispielsweise mit dem Output [16x16x12]. Das entspricht einem Faktor von 0.5.
  • FC (fully connected) In diesem Layer sind alle Neuronen einer Schicht miteinander verbunden. Hier passiert auch der meiste Lernaufwand. Für den Fall, dass ein Netz zwischen 10 Klassen entscheiden muss, wären die Dimensionen hier [1x1x10].

Eine Beispiel-Architektur wäre eine serielle Verschaltung folgender Layer:  [INPUT – CONV – RELU – POOL – FC]. Hier werden zuerst verschiedene gefaltete Features aus dem Bild extrahiert. Danach wird ein bestimmtes Muster aus den extrahierten Features herausgeschnitten (entschieden nach Thresholds). Mit diesen Features wird nur ein Downsampling durchgeführt. Nach dem Downsampling der gefilterten und gefalteten Features wird nun der Layer angesprochen, der aus den Repräsentationen die verschiedenen Klassen entscheidet. Im Vergleich zu einem Ein-Layer-Netzwerk (auch shallow genannt) wird hier viel mehr Aufwand betrieben, um Features zu extrahieren.

Mehr über die Vergangenheit von Deep Learning und der Schönheit von lernenden Maschinen, erfährt man in Ben Vigoras Talk mit dem Titel “When Machines Have Ideas”. Er redet darüber, was lernen wirklich bedeutet und was das Interessante an lernenden Maschinen ist.

Hugo Larochelle redet in “The Deep End of Deep Learning” über den langen Weg, den Deep Learning gehen musste, bis es zum Buzzword wurde. Sehr interessant ist dabei auch, dass es diverse Ansätze zum Thema Deep Learning schon viel eher gab.

Um die 2 vorherigen Videos abzurunden, sollte man sich diesen Talk von Andrej Karpathy ansehen. Er ist Teil des Labs der Stanford University und war maßgeblich an der Weiterentwicklung des initialen Begriffs Deep Learning beteiligt.

Nach diesen Ausführungen zum Thema Deep Learning hat man eine Intuition für das aktuell am meisten gehypte Thema der KI-Forschung bekommen. Falls ihr euch fragt, wie es nun weiter geht oder gar Lust habt, ein Projekt mit Deep Learning Frameworks umzusetzen, dann werdet ihr hier fündig:




[Video] Künstliche Intelligenz, Startups und Innovationen in der Zukunft

Am 5. Oktober 2016 fand ein Kongress des IMF (International Monetary Fund) in den USA statt. Dabei waren Christine Lagarde (Managing Director, IMF),  John Chambers (Chairman of the Board, Cisco Systems), Leila Janah (Founder and CEO, Sama and Laxmi), Hilda Moraa (Founder, Weza Tele and Fintech) und auch Ray Kurzweil. Ray ist bekannt als Futurist und Erfinder, der die Thematik der Singularity unter die Menschen bringen will. Spannende Themen bezüglich Zukunft, Armut, Joblosigkeit, Startups und Innovationen werden angeschnitten. Weniger Künstliche Intelligenz – dafür ein spannender Einblick in die Zukunft.




[Video] Können wir Roboter bestrafen?

Wer trägt die Verantwortung, wenn der moderne Kühlschrank 1000 statt einer Milch bestellt? Wer haftet, wenn der Roboter etwas falsch macht? Und… sind Roboter fähig, Verbrechen zu begehen oder werden sie dazu nur verführt. Darüber redet Thomas Klindt in diesem Video. Viel Spaß!





[Video] Industrie 4.0 – Die digitale Revolution

Eines der spannendsten Themen unserer Zeit ist die Transformation zur Industrie 4.0. Intelligente Maschinen die eine ganze Produktionsfirma menschenfrei machen, dass ist das Bild des Mainstreams zu dieser Thematik. Es wird von einer Revolution von oben gesprochen. Ob das wirklich so ist und was sich noch damit revolutionieren lässt, darum geht es in dieser Dokumentation von ARTE.




[Wissen] Gaming AI – Schach und Go

Im Scishow-Channel gibt es einen Einstieg in die Welt der Gaming-AIs. Hauptsächlich dreht es sich dabei um die Unterschiede der AIs, die gebaut wurden, um Brettspiele zu spielen. Diese Unterschieden sich nämlich sehr von einander. Denn der Ansatz, der benötigt wurde, um Kasparov mit DeepBlue zu schlagen, konnte nicht direkt für Go benutzt werden. Das Programm AlphaGo benötigte viel mehr Kreativität und tiefes Verständnis, während DeepBlue (der Computer der Kasparov im Schach schlug) durch Hardware und ein Regelset solange aufgestockt wurde, bis es gelang.


 




 

Das Jahr 2016 – Was bisher geschah

Hier möchte ich einen kleines Round-Up darüber geben, was seit dem 01. Januar 2016 bis heut in der Künstlichen Intelligenz passiert ist, dass uns allen in Erinnerung bleiben wird. Dabei waren einige Highlights und Durchbrüche, die uns schon demnächst wieder beschäftigen werden oder Standards für die Zukunft setzen werden.

Sehr viel ist in den Bereichen Image Processing und Chat-Bots passiert. Aber lest selbst.

[Januar] Marvin Minsky ist tot

Das Jahr begann gleich mal mit einer sehr unschönen Nachricht. Marvin Minsky ist im Alter von 88 Jahren 240px-Marvin_Minsky_at_OLPCbin Boston gestorben. Er war einer der größten Denker der Künstlichen Intelligenz und Mitbegründer vieler Verfahren. In Erinnerung bleibt unter anderem auch sein Buch Society of Mind – Mentopolis, in dem er eine Welt beschreibt, die aus unintelligenten Agenten besteht und daraus ein intelligentes System bildet.

[Januar] Treffen sich zwei Roboter, sagt der eine…

Hier wurden 2 der besten Chat-Bots in ein Gespräch verwickelt. Das erste Halbjahr 2016 drehte sich generell sehr viel um Chat-Bots – sei es auf Facebook oder anderen Plattformen. In diesem Artikel wurden die beiden Bots Rose und Mitsuku mit einander in einen virtuellen Raum gesperrt und mussten miteinander kommunizieren. Der Artikel hier ist nur ein Beispiel für einen sehr brisanten Trend im Jahr 2016.

[Februar] Volkswagen CIO kommt in der Zukunft an

Der Titel klingt natürlich sehr reißerisch – auch wenn ich aus persönlicher Erfahrung weiß, wie es um einige deutsche Automobilkonzerne in Deutschland steht (und das ist schon sehr gut ;)). Allerdings ist das die Sichtweise vieler Deutscher, wenn es um VW, BMW, Mercedes-Benz und weitere Marken geht. Der Volkswagen CIO sprach jedenfalls ein bisschen über die Zukunft mit Künstlicher Intelligenz. Im Februar standen autonom fahrende Autos generell stark im Mittelpunkt.

[Februar] Der visuelle Turing-Test

Menschen sollen entscheiden, welches Bild von einer Person und welches von einer Maschine gemalt wurde. deepart_exampleDahinter steckt der Algorithmus von Tübinger Forschern (deepart). Hier kann man selbst testen, ob man herausfindet, wer der Künstler des Bildes ist.

[März] Tay wird von Twitter Nutzern erzogen

Microsoft launchte Tay! Es sollte eine KI werden, die durch Kommunikation lernen sollte, wie die “jungen” Menschen heutzutage kommunizieren. Letztendlich hat Tay aber rassistische Kommentare und schimpfen gelernt. Spannend – Microsoft wurde anfangs verantwortlich gemacht, allerdings kann Tay als ein Spiegel der Gesellschaft gesehen werden und gibt das Nutzerverhalten bei Neuheiten ganz gut wieder. Misuse first!

[März] SXSW stellt Human-assisted AI als Next Big Thing vor

… Und genau dieses Potenzial steckt in der sogenannten Human-assisted AI, also alle Produkte die dem Menschen mit KI-Unterstützung helfend zur Seite stehen. Die Anwendungsbereiche sind enorm und die Early Adopters oft nicht sehr anspruchsvoll. In nahezu allen Bereichen des Lebens können solche Anwendungen demnächst entstehen.

[April] openAI stellt openAI Gym vor

Das Non-Profit-Unternehmen openAI hat openAI Gym vorgestellt. Damit veröffentlichen sie die ersten Ergebnisse ihrer Forschung an Reinforcement Learning Algorithmen. Die Bibliothek ermöglicht es Nutzern, verschiedene Algorithmen zu testen und bietet ein Framework für die Programmierung von intelligenten Spiele-Bots.

[April] KI beschreibt Fotos für blinde Menschen

Facebook hat eine KI vorgestellt, die blinden Menschen ein Bild beschreibt. Dem vorausgegangen sind viele Apple_logo_black.svgEntwicklungen im Bereich Deep Learning und der semantischen Bildanalyse. Schon in den letzten Jahren nahm der Trend zu, Bilder semantisch zu beschreiben. Nun gipfelt dieser Trend in der Entwicklung solcher intelligenter Tools. Die KI ist besonders interessant für Dienste wie Instagram, welche nur aus Bildern bestehen. Damit wird Instagram auch für blinde (oder Menschen mit Sehschwäche) nutzbar.

[Mai] Google im Spot-Light

Auf der Google I/O hat Google mal wieder einen guten Progress gezeigt. Unter anderem präsentierten sie die TPU (Tensor Processing Unit). Mit diesem, auf die Anwendungen des Machine Learning optimierten, Chips zeigt Google zudem, wie schnell und agil man Hardware entwickeln kann. Außerdem stellte Google ihr neustes Smart-Home Produkt vor: Google Home. Davon werden wir in diesem und dem nächsten Jahr noch einiges hören.

[Juni] ALPHA schlägt Kampfpiloten

Die kleine smarte KI ALPHA (die auf einem RaspberryPI läuft) schlägt zum ersten Mal einen erfahrenden Kampfpiloten und lässt ihn im Simulator abstürzen. Entwickelt wurde das System von einem Absolventen der University of Cincinnati.

[Juni]  Der Aufsatz über den Panik-Knopf

Zwei Wissenschaftler haben sich in einem Aufsatz ihre Gedanken über einen Panik-Knopf bei Robotern gemacht. Laurent Orseau (Google Deepmind) und Stuart Armstrong (University of Oxford) haben dabei Regeln aufgestellt, unter welchen Konditionen der Knopf zum Einsatz kommt. Außerdem haben sie einige bekannte Verfahren aufgegriffen und gezeigt, wie man diesen Panik-Knopf realisieren kann.

 

Buchempfehlung zum Thema

BESTSELLER: Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert