Tag: Google

ML Conference 2018 in München – Das Programm ist online

Vom 18 bis 20. Juni geben international führende IT-Experten bei der zweiten Machine Learning Conference im Münchener Sheraton Arabellapark Hotel einen umfassenden Einblick in die Welt des Maschinellen Lernens und der Künstlichen Intelligenz. Die Konferenz bietet insgesamt über 35 Sessions, Keynotes und Workshops mit den drei parallelen Tracks “Business & Strategy”, “Machine Learning Tools & Principles” und “Machine Learning Advanced Development”. Über 35 Speaker, u.a. Canburak Tümer (Turkcell), Constantin Gonzalez (Amazon Web Services Germany), Marisa Tschopp (SCIP AG), Laurent Picard (Google), Daniel Wrigley (SHI) und Alison Lowndes (NVIDIA) präsentieren die neusten technologischen Entwicklungen aus Forschung und Industrie.

Unter anderem können die Teilnehmer aus den folgenden Sessions wählen: 

  • „Deep Learning in Telecommunication“ (Burak Isikli, Turkcell)
  • „Deep Learning Dive into the Graphics World“ (Muzahid Hussain, Dassault Systems 3d Excite)
  • „Boost your app with Machine Learning APIs“ Laurent Picard (Google)
  • „AI really is all that!“ Alison Lowndes (NVIDIA)
  • „Amazon SageMaker: Building, Training and Deploying Machine Learning Models Efficiently and at Scale“ Constantin Gonzalez (Amazon Web Servives Germany)
  • „Natural Language Support with LUIS“ Rainer Stropek (software architects / www.IT-Visions.de)

Am ersten Tag haben die Teilnehmer die Möglichkeit, drei ganztägige Praxis-Workshops zu besuchen. Im „AI Product Workshop“ wird Luis Rodriguez (Teknolog IO) mithilfe von realen Fallstudien eine Reihe von Techniken zur Gestaltung mit maschinellen Lerntechnologien veranschaulichen. Xander Steenbrugge (ML6) führt in seinem Workshop „Deep Learning with TensorFlow“ in die Grundlagen von Googles Deep Learning Bibliothek ein wird anhand von praktischen Beispielen den Umgang mit diesem Tool üben.

Abgerundet wird das Programm von drei Keynotes, u.a. zu dem Thema „Cracking open the Black Box of Neural Networks“ von Xander Steenbrugge (ML6), und dem Get-together, bei dem die Teilnehmer bei Freigetränken und Snacks die Möglichkeit zur Vernetzung und zum Austausch haben.

 Das ganze Programm kann ab sofort online eingesehen werden unter: https://mlconference.ai/programWeitere Informationen und Tickets finden Interessenten unter: https://mlconference.ai/

(PM von sandsmedia)

Welche Deep Learning Frameworks gibt es?

Stand Deep Learning Frameworks 2017. Credits: Indra den Bakker

Stand Deep Learning Frameworks 2017. Credits: Indra den Bakker

Wie sah die Landschaft der Deep Learning Frameworks im abgelaufenen Jahr 2017 aus? Die 5 großen Player Google, Microsoft, Amazon und Facebook stecken hinter den bekanntesten und meist benutzten Frameworks.

Was wird das Jahr 2018 bringen? Einige Zeichen stehen auf Konsolidierung der Frameworks, Entwicklerteams von einigen Frameworks wollen sich sogar anderen Entwicklern anschließen, um ein neues Framework zu bauen.

Mehr dazu lest ihr im Artikel von Indra den Bakker

 

DeepMind lernt jetzt StarCraft II

Nachdem Google DeepMinds AlphaGo mit Lee Sedol den weltweit besten Go-Spieler geschlagen hat, versucht das Team hinter der Google-Akquisition nun, die nächste Nuss zu knacken. Mit StarCraft II haben sie sich dabei eine besonders schwere Nuss herausgesucht. StarCraft ist nicht rundenbasiert, sondern ein sogenanntes Echtzeitspiel. Die Entscheidungen die DeepMind trifft, müssen also schnell und akkurat sein. Dennoch kann man das Gelernte aus AlphaGo wenigstens teilweise anwenden, denn beide Spiele (Go und StarCraft) haben eine Gemeinsamkeit. Betrachten wir das Spielverhalten von Schach, Go und StarCraft, wird dies deutlicher:

  •  Schach
    • Strukturen sind zum Start gegeben
    • Ziel ist es, die gegnerischen Strukturen zu zerstören
  • Go
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, eine Strukturen so aufzubauen, dass man den Gegner beherrscht
  • StarCraft
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, gegnerische Strukturen zu zerstören und eigene Strukturen stabil zu halten

Vereinfacht gesagt: StarCraft ein Mix aus den beiden anderen vorgestellten Spielphilosophien. Ein möglicher Ansatz des DeepMind-Teams wird im Video deutlich. Der Eindruck vom Spielfeld wird in Feature Layern (Merkmalsebenen) abgebildet. Anhand dieser Darstellung kann DeepMind dann, die Strategien der Gegner abschätzen und daraus eigene Strategien entwickeln.




Demis Hassabis – Ein Kopf hinter Google DeepMind

Demis Hassabis, einer der führenden Köpfe hinter Google DeepMind redet über die Form von KI, an der DeepMind baut. Demis hat nach der Uni an verschiedenen Startups mitgewirkt – auch im Bereich Machine Learning. Nach seiner Startup-Zeit ging es für ihn wieder zurück an die Universität, wo er in Cognitive Neuro Science promovierte.

Er unterscheidet in seinem Vortrag verschiedene Formen von Künstlichen Intelligenzen:

  • Learning vs. Handcrafted
  • General vs. Specific
  • Grounded vs. Logic-based
  • Active learning vs. Passive observation




Google DeepMind ist nur an Intelligenzen interessiert, die sich, wie folgt, kategorisieren lassen:  feature learning, general purpose, grounded und active learning. Doch was bedeutet dies im Detail? Die gelernten Modelle sollen ihre Feature-Extraktoren selbst lernen (also durch Feedback relevante Merkmale finden), sie sollten keinem speziellem Zweck dienen, sondern universal einsetzbar sein. Außerdem basieren sie auf probabilistischen Ansätzen, die biologisch motiviert werden. Als letztes Kriterium sollen sie aktiv lernen und dafür eine Belohnung oder eine Strafe erhalten (reward, insb. reinforcement learning). Wie Demis es in seinem Vortrag sagt: “System without any data, learning from the first principles”.

Neben seinem Ausblick in die Zukunft von DeepMind redet er vor allem über zwei Anwendungsfälle von Googles DeepMind. Als erstes geht er auf AlphaGo ein (eine KI die Lee Sedol im Spiel Go geschlagen hat). Sein zweiter Anwendungsfall ist ein Rechenzentrum von Google, dass mit einem von Google DeepMind entwickelten System signifikant Strom sparen konnte.




Das Jahr 2016 – Was bisher geschah

Hier möchte ich einen kleines Round-Up darüber geben, was seit dem 01. Januar 2016 bis heut in der Künstlichen Intelligenz passiert ist, dass uns allen in Erinnerung bleiben wird. Dabei waren einige Highlights und Durchbrüche, die uns schon demnächst wieder beschäftigen werden oder Standards für die Zukunft setzen werden.

Sehr viel ist in den Bereichen Image Processing und Chat-Bots passiert. Aber lest selbst.

[Januar] Marvin Minsky ist tot

Das Jahr begann gleich mal mit einer sehr unschönen Nachricht. Marvin Minsky ist im Alter von 88 Jahren 240px-Marvin_Minsky_at_OLPCbin Boston gestorben. Er war einer der größten Denker der Künstlichen Intelligenz und Mitbegründer vieler Verfahren. In Erinnerung bleibt unter anderem auch sein Buch Society of Mind – Mentopolis, in dem er eine Welt beschreibt, die aus unintelligenten Agenten besteht und daraus ein intelligentes System bildet.

[Januar] Treffen sich zwei Roboter, sagt der eine…

Hier wurden 2 der besten Chat-Bots in ein Gespräch verwickelt. Das erste Halbjahr 2016 drehte sich generell sehr viel um Chat-Bots – sei es auf Facebook oder anderen Plattformen. In diesem Artikel wurden die beiden Bots Rose und Mitsuku mit einander in einen virtuellen Raum gesperrt und mussten miteinander kommunizieren. Der Artikel hier ist nur ein Beispiel für einen sehr brisanten Trend im Jahr 2016.

[Februar] Volkswagen CIO kommt in der Zukunft an

Der Titel klingt natürlich sehr reißerisch – auch wenn ich aus persönlicher Erfahrung weiß, wie es um einige deutsche Automobilkonzerne in Deutschland steht (und das ist schon sehr gut ;)). Allerdings ist das die Sichtweise vieler Deutscher, wenn es um VW, BMW, Mercedes-Benz und weitere Marken geht. Der Volkswagen CIO sprach jedenfalls ein bisschen über die Zukunft mit Künstlicher Intelligenz. Im Februar standen autonom fahrende Autos generell stark im Mittelpunkt.

[Februar] Der visuelle Turing-Test

Menschen sollen entscheiden, welches Bild von einer Person und welches von einer Maschine gemalt wurde. deepart_exampleDahinter steckt der Algorithmus von Tübinger Forschern (deepart). Hier kann man selbst testen, ob man herausfindet, wer der Künstler des Bildes ist.

[März] Tay wird von Twitter Nutzern erzogen

Microsoft launchte Tay! Es sollte eine KI werden, die durch Kommunikation lernen sollte, wie die “jungen” Menschen heutzutage kommunizieren. Letztendlich hat Tay aber rassistische Kommentare und schimpfen gelernt. Spannend – Microsoft wurde anfangs verantwortlich gemacht, allerdings kann Tay als ein Spiegel der Gesellschaft gesehen werden und gibt das Nutzerverhalten bei Neuheiten ganz gut wieder. Misuse first!

[März] SXSW stellt Human-assisted AI als Next Big Thing vor

… Und genau dieses Potenzial steckt in der sogenannten Human-assisted AI, also alle Produkte die dem Menschen mit KI-Unterstützung helfend zur Seite stehen. Die Anwendungsbereiche sind enorm und die Early Adopters oft nicht sehr anspruchsvoll. In nahezu allen Bereichen des Lebens können solche Anwendungen demnächst entstehen.

[April] openAI stellt openAI Gym vor

Das Non-Profit-Unternehmen openAI hat openAI Gym vorgestellt. Damit veröffentlichen sie die ersten Ergebnisse ihrer Forschung an Reinforcement Learning Algorithmen. Die Bibliothek ermöglicht es Nutzern, verschiedene Algorithmen zu testen und bietet ein Framework für die Programmierung von intelligenten Spiele-Bots.

[April] KI beschreibt Fotos für blinde Menschen

Facebook hat eine KI vorgestellt, die blinden Menschen ein Bild beschreibt. Dem vorausgegangen sind viele Apple_logo_black.svgEntwicklungen im Bereich Deep Learning und der semantischen Bildanalyse. Schon in den letzten Jahren nahm der Trend zu, Bilder semantisch zu beschreiben. Nun gipfelt dieser Trend in der Entwicklung solcher intelligenter Tools. Die KI ist besonders interessant für Dienste wie Instagram, welche nur aus Bildern bestehen. Damit wird Instagram auch für blinde (oder Menschen mit Sehschwäche) nutzbar.

[Mai] Google im Spot-Light

Auf der Google I/O hat Google mal wieder einen guten Progress gezeigt. Unter anderem präsentierten sie die TPU (Tensor Processing Unit). Mit diesem, auf die Anwendungen des Machine Learning optimierten, Chips zeigt Google zudem, wie schnell und agil man Hardware entwickeln kann. Außerdem stellte Google ihr neustes Smart-Home Produkt vor: Google Home. Davon werden wir in diesem und dem nächsten Jahr noch einiges hören.

[Juni] ALPHA schlägt Kampfpiloten

Die kleine smarte KI ALPHA (die auf einem RaspberryPI läuft) schlägt zum ersten Mal einen erfahrenden Kampfpiloten und lässt ihn im Simulator abstürzen. Entwickelt wurde das System von einem Absolventen der University of Cincinnati.

[Juni]  Der Aufsatz über den Panik-Knopf

Zwei Wissenschaftler haben sich in einem Aufsatz ihre Gedanken über einen Panik-Knopf bei Robotern gemacht. Laurent Orseau (Google Deepmind) und Stuart Armstrong (University of Oxford) haben dabei Regeln aufgestellt, unter welchen Konditionen der Knopf zum Einsatz kommt. Außerdem haben sie einige bekannte Verfahren aufgegriffen und gezeigt, wie man diesen Panik-Knopf realisieren kann.

 

Buchempfehlung zum Thema

BESTSELLER: Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert