Amazon Go – Der disruptive Supermarkt der Zukunft

Amazon Go – Der disruptive Supermarkt der Zukunft

Viele Visionäre hatten sowas erst in 4 bis 5 Jahren auf dem Zettel. Nun kann der automatisierte Supermarkt schon viel schneller Realität und konkurrenzfähig werden, als von vielen gewollt. Amazon stellte heut Amazon Go vor. Es ist der erste Supermarkt, der komplett ohne Personal im Front Office auskommt. Aber wie funktionierts? Laut Amazon werden dabei lang erprobte Deep Learning Modelle für die Verhaltensanalyse verwendet.

Nach dem Einchecken per Smartphone, kann sich der Kunde jedes Produkt aus dem Regal nehmen, was ihm gefällt. Schlaue Computer Vision Algorithmen verstehen die Aktionen der User und buchen die Artikel problemlos auf das Amazon-Konto des Users.

In Seattle soll der erste Markt im Frühling 2017 an den Start gehen. Wir sind gespannt und beobachten den Fortschritt von Amazon Go!

[Tiere der Robotik] Festo – Der AquaPenguin

Der AquaPenguin ist ein Unterwasserfahrzeug, welches autonom agieren kann und durch den Einsatz eines 3D-Sonars sogar mit der Umgebung kommunizieren kann. Was den AquaPenguin jedoch einzigartig macht, ist der in alle Richtungen bewegliche Rumpf. Die Technologie dahinter nennt sich Fin Ray und wurde für den AquaPenguin zum ersten Mal im dreidimensionalen Raum benutzt.

Hier geht es zum Datenblatt des AquaPenguin.

 

[Tiere der Robotik] Der BionicOpter von Festo

Der BionicOpter (eine Mischung aus Hubschrauber und Flugzeug) ist der Libelle nachempfunden. Durch die eingebaute sensible und flexible Mechanik, ist er in der Lage sehr anspruchsvolle Manöver zu fliegen und in der Luft zu stehen. Wie viele nachkonstruierte bionische Tiere, wird die Libelle aufgrund ihrer Flexibilität auch in Krisengebieten eingesetzt werden können. Vielleicht wird sie in der nahen Zukunft die aktuell handelsübliche Drohne ablösen ;-).

Hier gehts zum Datenblatt des BionicOpters.

[Tiere der Robotik] Die Festo BionicANT

Festo hat eine Ameise entwickelt, die sich, mit Schwarmintelligenz ausgestattet, mit anderen Individuen absprechen und auf ein Vorgehen verständigen kann. Die BioANT ist sehr filigran gebaut und findet jederzeit zurück zur Ladestation (wo sie über ihre Fühler laden kann). Dafür nutzt die Ameise:

  • Stereo-Kamera
  • Greifwerkzeuge aus Piezoaktorik
  • Positions-Tracking

Hier geht es zum Datenblatt von Festo.

Das Fremde – Die Roboterkolonie

Eine Zivilisation von Robotern unter uns? Das gibt es! Das Fremde ist eine Installation der Visual Artists Supermafia zusammen mit 2 Forschern: Michael Spranger und Stéphane Noël. Die Idee hinter Das Fremde ist, die Entwicklung von Sprache (die Erweiterung und Reduktion) in Echtzeit verfolgen zu können. Dafür reist die Ausstellung durch die Welt und bietet den Besuchern damit die Möglichkeit mit den Agenten zu interagieren und natürlich auch ihre eigene Entwicklung zu reflektieren.




[Startups] 42reports – Wie effizient ist dein Business?

home_shops

Quelle: 42reports.com

Worum geht es hier?
42reports bietet ein Offline-Analyse-Tool für Läden und Filialen. Ähnlich wie Google Analytics kann man das Verhalten von Kunden mit Hilfe verschiedener Technologien messen und auswerten. Daraus lassen sich verschiedene Metriken ableiten, bspw. Anzahl Neukunden, Anzahl der wiederkehrenden Kunden sowie Verweildauer im Store. Diese Daten kann werden dann in Reports gegossen, die man sich einfach als PDF ausgeben lassen kann oder im Dashboard von 42reports ansehen kann. Des weiteren ist es möglich, Vorhersagen aufgrund der Daten zu machen, um den Laden zu optimieren. 42reports hat bereits mehrere Finanzierungsrunden mit namenhaften Investoren u.a. Frank Thelen und Tengelmann Ventures hingelegt. Im April 2016 wurde 42 von der DILAX Intelcom übernommen und legte einen Exit hin.




Zahlen bitte

  • ca. 100 EUR kostet ein Sensor von 42reports pro Monat.
  • Maximal 2 Minuten dauert das Setup des plug&ready Sensors

Zukunft des Startups

Durch die Übernahme durch die DILAX Intelcom geht 42reports in dessen Produkt-Portfolio über. Verschiedene Produkte von DILAX beschäftigen sich unter anderem auch mit Offline-Analytics von Retailern.

Die Gründer
Die beiden Gründer sind Christian Wallin und Kai Gruenenwald. Christian arbeitete bei u.a. bei Goldmann Sachs als Analyst. Kai hingegen ist eher im Bereich Sales und Marketing aktiv.

Deep Learning – So gelingt der Einstieg!

Deep Learning ist in vielen Bereichen der KI-Forschung und der praktischen wirtschaftlichen Anwendungen von maschinellem Lernen  zum State-of-the-Art geworden – vor allem bei Aufgaben mit Bildern und Texten. Es klingt wie ein komplett neues und aufregendes Verfahren, entpuppt sich aber als ein Zusammensetzen von bereits vorhandenen Komponenten des Machine Learning. Je nachdem wie tief man in die Materie einsteigen will, muss man sich vorher mit Formen der Merkmalsextraktion sowie mit künstlichen neuronalen Netzen beschäftigen. Deep Learning bedeutet nämlich im Grunde folgendes:

  • Ein mehrschichtiges künstliches neuronales Netz (multi layer)
  • Jede Schicht (Layer) hat eine bestimmte Funktion & führt verschiedene Operationen aus
  • Man entwirft verschiedene Architekturen dieser Netze – verschiedene Verschaltungen von Layern





Diese Layer haben verschiedene Funktionen. Die meistbenutzten Konzepte werden nachfolgend dargestellt:

  • INPUT [32x32x3] Funktioniert im Grunde ähnlich wie eine Retina. Die Matrix in diesem Layer besteht aus den RGB-Bildpunkten (3) und entspricht der Größe des Bildes in diesem Beispiel: 32×32 Pixel.

    Quelle: Wikipedia

    Quelle: Wikipedia

  • CONV (Convolutional Layer) Dieser Layer berechnet Features für lokale Regionen im Input. Die meistgenutzte Funktion hier ist ein Skalarprodukt der Werte in den verschiedenen Regionen berechnet. Setzt man 12 verschiedene Filter ein, erhält man 12 Ergebnismatrizen. Dieser Dieser Layer produziert also eine Matrix mit den Dimensionen: [32x32x12].
  • RELU (Rectified Linear Unit) In diesem Layer werden relativ simple Funktionen angewendet, ähnlich wie max(x, 0). Werte werden hier nicht verändert, dafür aber eventuell auf einen Threshold-Wert gesetzt. Wir erhalten also wieder eine Matrix mit den Dimensionen [32x32x12].
  • POOL (Pooling) wird genutzt, um ein Downsampling auszuführen. Für POOL gibt es verschiedene Operationen, eine davon ist Max-Pooling- Dabei wird aus einer n x n Matrix der größte Wert gewählt. Beispielsweise mit dem Output [16x16x12]. Das entspricht einem Faktor von 0.5.
  • FC (fully connected) In diesem Layer sind alle Neuronen einer Schicht miteinander verbunden. Hier passiert auch der meiste Lernaufwand. Für den Fall, dass ein Netz zwischen 10 Klassen entscheiden muss, wären die Dimensionen hier [1x1x10].

Eine Beispiel-Architektur wäre eine serielle Verschaltung folgender Layer:  [INPUT – CONV – RELU – POOL – FC]. Hier werden zuerst verschiedene gefaltete Features aus dem Bild extrahiert. Danach wird ein bestimmtes Muster aus den extrahierten Features herausgeschnitten (entschieden nach Thresholds). Mit diesen Features wird nur ein Downsampling durchgeführt. Nach dem Downsampling der gefilterten und gefalteten Features wird nun der Layer angesprochen, der aus den Repräsentationen die verschiedenen Klassen entscheidet. Im Vergleich zu einem Ein-Layer-Netzwerk (auch shallow genannt) wird hier viel mehr Aufwand betrieben, um Features zu extrahieren.

Mehr über die Vergangenheit von Deep Learning und der Schönheit von lernenden Maschinen, erfährt man in Ben Vigoras Talk mit dem Titel “When Machines Have Ideas”. Er redet darüber, was lernen wirklich bedeutet und was das Interessante an lernenden Maschinen ist.

Hugo Larochelle redet in “The Deep End of Deep Learning” über den langen Weg, den Deep Learning gehen musste, bis es zum Buzzword wurde. Sehr interessant ist dabei auch, dass es diverse Ansätze zum Thema Deep Learning schon viel eher gab.

Um die 2 vorherigen Videos abzurunden, sollte man sich diesen Talk von Andrej Karpathy ansehen. Er ist Teil des Labs der Stanford University und war maßgeblich an der Weiterentwicklung des initialen Begriffs Deep Learning beteiligt.

Nach diesen Ausführungen zum Thema Deep Learning hat man eine Intuition für das aktuell am meisten gehypte Thema der KI-Forschung bekommen. Falls ihr euch fragt, wie es nun weiter geht oder gar Lust habt, ein Projekt mit Deep Learning Frameworks umzusetzen, dann werdet ihr hier fündig:




DeepMind lernt jetzt StarCraft II

Nachdem Google DeepMinds AlphaGo mit Lee Sedol den weltweit besten Go-Spieler geschlagen hat, versucht das Team hinter der Google-Akquisition nun, die nächste Nuss zu knacken. Mit StarCraft II haben sie sich dabei eine besonders schwere Nuss herausgesucht. StarCraft ist nicht rundenbasiert, sondern ein sogenanntes Echtzeitspiel. Die Entscheidungen die DeepMind trifft, müssen also schnell und akkurat sein. Dennoch kann man das Gelernte aus AlphaGo wenigstens teilweise anwenden, denn beide Spiele (Go und StarCraft) haben eine Gemeinsamkeit. Betrachten wir das Spielverhalten von Schach, Go und StarCraft, wird dies deutlicher:

  •  Schach
    • Strukturen sind zum Start gegeben
    • Ziel ist es, die gegnerischen Strukturen zu zerstören
  • Go
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, eine Strukturen so aufzubauen, dass man den Gegner beherrscht
  • StarCraft
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, gegnerische Strukturen zu zerstören und eigene Strukturen stabil zu halten

Vereinfacht gesagt: StarCraft ein Mix aus den beiden anderen vorgestellten Spielphilosophien. Ein möglicher Ansatz des DeepMind-Teams wird im Video deutlich. Der Eindruck vom Spielfeld wird in Feature Layern (Merkmalsebenen) abgebildet. Anhand dieser Darstellung kann DeepMind dann, die Strategien der Gegner abschätzen und daraus eigene Strategien entwickeln.




Uber Elevate – Pendeln in der Zukunft

Zusammen mit NASA, Georgia Tech University, MIT, Nesta und Otto Motor hat Uber ein Konzept für ein

VTOL (vertical take-off and landing) im Personenverkehr erstellt. Das Projekt läuft bei Uber unter dem Arbeitstitel Elevate. Über den bisherigen Stand von Uber Elevate wird in dem

Quelle: Uber Elevate Report

Quelle: Uber Elevate Report

knapp 100 Seiten umfassenden Bericht kein Wort verloren. Über die Effizienzsteigerung, welche die Umsetzung dieses Projekts mit sich bringen könnte, schreibt die Projektgruppe dafür um so detailierter.

Es wird angemerkt, dass die initiale Entwicklung und Herstellung des Produktes zwar teuer wären, eine Massenproduktion könnte danach aber deutlich kostengünstiger realisiert werden. Ein großer Bonus im Vergleich zum Fahren auf Straßen ist die Dimension, die man im Luftverkehr dazu gewinnt – nämlich die Höhe. Durch die VTOLs könnte auch der Straßenverkehr deutlich entlastet werden. Zur Landung würden die VTOLs u.a. bereits vorhandene Helikopterlandeplätze nutzen können. Eine Reise von San Francisco nach San Jose (sonst 2 Stunden) könnte man damit in 15 Minuten bewerkstelligen.

Außerdem enthält der Bericht einige Passagen, die sich mit dem Thema Markteintrittsbarrieren und -machbarkeit befassen. Einen genauen Zeitplan für das Projekt liegt nicht vor. Es wird aber angenommen, dass sich Uber nach diesem Proof of Concept um Standards bemüht, die helfen würden, Uber Elevate irgendwann in die Realität umzusetzen.

Hier geht es zum Report.



Demis Hassabis – Ein Kopf hinter Google DeepMind

Demis Hassabis, einer der führenden Köpfe hinter Google DeepMind redet über die Form von KI, an der DeepMind baut. Demis hat nach der Uni an verschiedenen Startups mitgewirkt – auch im Bereich Machine Learning. Nach seiner Startup-Zeit ging es für ihn wieder zurück an die Universität, wo er in Cognitive Neuro Science promovierte.

Er unterscheidet in seinem Vortrag verschiedene Formen von Künstlichen Intelligenzen:

  • Learning vs. Handcrafted
  • General vs. Specific
  • Grounded vs. Logic-based
  • Active learning vs. Passive observation




Google DeepMind ist nur an Intelligenzen interessiert, die sich, wie folgt, kategorisieren lassen:  feature learning, general purpose, grounded und active learning. Doch was bedeutet dies im Detail? Die gelernten Modelle sollen ihre Feature-Extraktoren selbst lernen (also durch Feedback relevante Merkmale finden), sie sollten keinem speziellem Zweck dienen, sondern universal einsetzbar sein. Außerdem basieren sie auf probabilistischen Ansätzen, die biologisch motiviert werden. Als letztes Kriterium sollen sie aktiv lernen und dafür eine Belohnung oder eine Strafe erhalten (reward, insb. reinforcement learning). Wie Demis es in seinem Vortrag sagt: “System without any data, learning from the first principles”.

Neben seinem Ausblick in die Zukunft von DeepMind redet er vor allem über zwei Anwendungsfälle von Googles DeepMind. Als erstes geht er auf AlphaGo ein (eine KI die Lee Sedol im Spiel Go geschlagen hat). Sein zweiter Anwendungsfall ist ein Rechenzentrum von Google, dass mit einem von Google DeepMind entwickelten System signifikant Strom sparen konnte.




Künstliche Intelligenz in den USA! Das Strategie-Papier dazu

Im Mai 2016 haben sich in den U.S.A. verschiedene KI-Spezialisten zusammengesetzt und versucht, ein Strategiepapier für die Zukunft mit der KI zu entwickeln. Das Papier wurde nun im Oktober vorgestellt. Es enthält neben einführenden Worten zum Thema Künstliche Intelligenz auch ein paar begriffliche Definitionen (darunter Autonomy, Automation, etc.).




Das Strategiepapier gibt Handlungsempfehlung für den Präsidenten der Vereinigten Staaten. Wer die ca. 50 Seiten des Reports nicht lesen will, bekommt hier die wichtigsten Handlungsempfehlungen zusammengefasst:

  • Datensätze der staatlichen Institutionen offenlegen, um die KI-Forschung in diesen Bereichen zu beschleunigen.
  • Institutionen und staatliche Agenturen sollten Standards festlegen, auf denen sie Informationen austauschen, gewinnen oder vorhersagen können.
  • Jedes Ministerium sollte Stellen für Machine Learning Engineers schaffen, damit spezifische Daten schnell ausgewertet werden können.

    Executive Office of the President of the United States, Quelle: Report

    Executive Office of the President of the United States, Quelle: Report

  • Das Ministerium für Verkehr soll eng mit der Wirtschaft an der Erarbeitung von Richtlinien und Gesetzen arbeiten. Dabei geht es vor allem um den Einsatz von Drohnen (UAS, unmanned aircraft systems) und autonomen Fahrzeugen (UV, automated vehicles).
  • Das Ministerium für Verkehr sollte ein skalierbares System entwickeln, dass den Luftraum der Zukunft besser überwachen kann – insbesondere individueller Personenverkehr in der Luft sowie Drohnen.
  • Die Wirtschaft soll die Ministerien zeitiger über mögliche Entwicklungen informieren, damit zeitnah Regeln und Gesetze angepasst werden können.
  • Schüler sollen in den Schulen mehr über das Thema Ethik bzgl. Künstlicher Intelligenz lernen. Die Kinder sollen KI-affineren Unterricht bekommen und somit für den bewussten Umgang ausgebildet werden.
  • Der Präsident sollte Richtlinien aufstellen, die klären, wie die Verantwortlichkeiten bei automatischen und semi-automatischen Waffensystemen aussehen.
  • Welche Jobs und Arbeitsplätze potentiell gefährdet sind, wurde nicht untersucht, sollten aber in einem zweiten Report geklärt werden.

Der Report kann als als eine grobe Übersicht gesehen werden, die der Regierung helfen soll, sich initial mit dem Thema zu befassen. Aus dem Report geht auch hervor, dass weitere Untersuchungen notwendig sind. Während in den U.S.A. der KI-Ansatz eher einheitlich verstanden wird, beschränkt sich Deutschland dort meist auf die KI in der Wirtschaft.

Die Moral des Autonomen Fahrens

Die drei MIT-Forscher Iyad Rahwan, Jean-Francois Bonnefon und Azim Shariff haben ein Online-Experiment gestartet, dass sich mit den Konsequenzen des autonomen Fahrens beschäftigt. In ihrem Experiment entwerfen sie ein Szenario, in dem die Bremsen des Autos versagen.

Moral Machine. Quelle: moralmachine.mit.edu

Moral Machine. Quelle: moralmachine.mit.edu

Die User können dabei immer aus zwei Szenarien wählen. Welches Übel wählen sie dabei? Ist ihnen das Leben der Insassen oder das Leben der Fußgänger mehr Wert? Wie verhält es sich, wenn die Fußgänger jünger bzw. älter sind?

Diese und weitere Fragen werden in diesem Experiment beantwortet. Am Ende des Experiments kann man seine eigenen Ergebnisse mit den Ergebnissen der bisherigen User (im Mittel) vergleichen.

Hier gehts zur Moral Machine.




[Video] Künstliche Intelligenz, Startups und Innovationen in der Zukunft

Am 5. Oktober 2016 fand ein Kongress des IMF (International Monetary Fund) in den USA statt. Dabei waren Christine Lagarde (Managing Director, IMF),  John Chambers (Chairman of the Board, Cisco Systems), Leila Janah (Founder and CEO, Sama and Laxmi), Hilda Moraa (Founder, Weza Tele and Fintech) und auch Ray Kurzweil. Ray ist bekannt als Futurist und Erfinder, der die Thematik der Singularity unter die Menschen bringen will. Spannende Themen bezüglich Zukunft, Armut, Joblosigkeit, Startups und Innovationen werden angeschnitten. Weniger Künstliche Intelligenz – dafür ein spannender Einblick in die Zukunft.




[Video] Industrie 4.0 – Die digitale Revolution

Eines der spannendsten Themen unserer Zeit ist die Transformation zur Industrie 4.0. Intelligente Maschinen die eine ganze Produktionsfirma menschenfrei machen, dass ist das Bild des Mainstreams zu dieser Thematik. Es wird von einer Revolution von oben gesprochen. Ob das wirklich so ist und was sich noch damit revolutionieren lässt, darum geht es in dieser Dokumentation von ARTE.




#science – Aktuelle Wissenschaft im Bereich der Künstlichen Intelligenz

In dieser Rubrik möchte ich in unregelmäßigen Abständen aktuelle Publikationen im Bereich Künstliche Ingelligenz kommentieren. Auch aus angrenzenden Bereichen und fachübergreifenden Forschungsfeldern werden aktuelle Papers vorgestellt.

 

Practical Learning of Deep Gaussian Processes via Random Fourier Features

Cutajar et al. haben in ihrer Publikation versucht, Deep Gaussian Processes mit Random Fourier Features zu verheiraten und zeigen, dass sie damit praktische Klassifikations- und Regressionsaufgaben effizienter lösen können, als einige getestete Methoden, die dem Stand der Technik entsprechen.

 

Semi-Supervised Active Learning for Support Vector Machines: A Novel Approach that Exploits Structure Information in Data

Reitmaier et al. versuchen den Prozess des Active Learning (auch Optimal Experimental Design) anhand eines Weighted Mahalanobis Kernels zu verbessern. Im Active Learning geht es darum, die notwendigen Datenquellen nach Informationen abzufragen, um eine Machine-Learning-Aufgabe zu lösen (semi-supervised). Für ihre Experimente nutzten sie die Daten-Sets MNIST und einige weitere Datenbanken.

 

Accelerate Monte Carlo Simulations with Restricted Boltzmann Machines

Die Monte-Carlo-Simulation ist weitverbreitet und sehr bekannt. Li Huang und Lei Wang haben in ihrer Publikation einen Weg gefunden, diese Art von Simulation mittels einer Boltzmann-Maschine zu beschleunigen. In ihren Experimenten konnten die Forscher zeigen, dass ihr Ansatz um mehrere Faktoren schneller ist als der State-of-the-Art.



[Wissen] Gaming AI – Schach und Go

Im Scishow-Channel gibt es einen Einstieg in die Welt der Gaming-AIs. Hauptsächlich dreht es sich dabei um die Unterschiede der AIs, die gebaut wurden, um Brettspiele zu spielen. Diese Unterschieden sich nämlich sehr von einander. Denn der Ansatz, der benötigt wurde, um Kasparov mit DeepBlue zu schlagen, konnte nicht direkt für Go benutzt werden. Das Programm AlphaGo benötigte viel mehr Kreativität und tiefes Verständnis, während DeepBlue (der Computer der Kasparov im Schach schlug) durch Hardware und ein Regelset solange aufgestockt wurde, bis es gelang.


 




 

[Forschung] Innovationen in der Medizin – Die Zukunft des Heilens

Klaus Schwab, Gründer des World Economic Forum, redet immer wieder von der 4. Industriellen Revolution (Fourth Industrial Revolution). Das diese Revolution nicht spurlos an der Medizin vorbeigehen wird, darum wird es in diesem Artikel gehen. Laut Schwab soll sich in der 4. Industriellen Revolution nicht nur die Art der Herstellung von Gütern und Dienstleistungen ändern, sondern auch die Sicht des Menschen auf sich selbst. Aber – was ist bisher schon Realität geworden?

Chat-Bots

Welche Potenziale bietet die Medizin eigentlich, wenn es um mehr Effizienz geht? Einige! Nehmen wir beispielsweise das Themen: Feststellen/Diagnostizieren von Krankheiten sowie die patientengerechte Erklärung der festgestellten Krankheiten. Hier arbeiten Firmen wie Was hab’ ich? daran, Patientenbefunde in eine, für Laien, verständliche Sprache zu übersetzen. Dieses Geschäftsmodell könnte sich in naher Zukunft ändern, in dem man auf intelligente Bots setzt, die evidenzbasiert verschiedene Ausgaben nach, von Usern gemachten, Eingaben präsentieren. Auch weitere Anwendungen wären denkbar:

Quelle: tincture.io

Quelle: tincture.io

  • Beschwerden-/Anfrage-Management Die Patienten könnten ihre Anfragen an die Ärzte aufgeben, ihre Probleme beschreiben und dadurch zu einem Arzt vermittelt werden, der Kapazitäten dafür hat.
  • Terminfindung Nach dem Ärzte als Kandidaten gefunden wurden, könnte die Terminfindung ebenfalls via Chatbot erledigt werden.
  • Befunderklärung im Dialog Die Erklärung der Befunde kann durch einen Dialog oder ein Fragen-/Antwort-Schema abgedeckt werden. Dabei liegt der Fokus auf dem laienhaften Erklären der Sachverhalte.
  • Begleitung des Genesungsprozesses Dabei wird von Zeit zu Zeit der Prozess der Gesundung begleitet. So kann der Arzt (auf Wunsch) oder das System immer wieder nachfragen und Patienten an die Einnahme  der Medikamente oder an die Durchführung bestimmter Maßnahmen erinnern.
  • Bestellprozesse Auch das Bestellen und Nachbestellen von Medikamenten kann damit abgedeckt werden.

Natürlich können diese Anwendungen nur gebaut werden, wenn sich das Gesundheitssystem grundlegend ändert. Allerdings könnte man viele Prozesse effizienter gestalten, da nicht jeder potenzielle Patient direkt zum Arzt läuft und im Wartezimmer sitzt.

Es bleibt noch anzumerken, dass es sich hier nur um einen Average Case handelt. Im Fall von akuten Problemen bleibt natürlich weiterhin der Weg in die Notaufnahme ganz ohne App ;). Ein Verzeichnis aller existierender Chat-Bots für den Medizinbereich, kann man hier einsehen.
Babylon ist so eine App, die einige der angesprochenen Aufgaben bereits abdeckt. Das könnte der erste Schritt in diese Richtung sein.




 

NLP und Information Retrieval

Das Feld des Natural Language Processing (NLP, Verarbeitung natürlicher Sprache) soll Ärzten helfen, die richtige Behandlungsstrategie zu wählen. IBM Watson tut dies auf der Grundlage vieler Daten des Patienten und vergleicht diese anonymisiert mit den Daten anderer Patienten. Motiviert wird dies durch rund 1,5 Millionen Medikationsfehler in den USA. Der große Vorteil solcher Systeme ist, dass sie in kürzester Zeit riesige Datenbanken durchsuchen sowie vergleichbare Patienten analysieren können. Dadurch können sie verschiedene Behandlungsmethoden sowie Konfidenzen für den Behandlungserfolg abschätzen.

Dabei sollen diese Systeme die Ärzte nicht entmündigen. Viel eher sollen sie eine Möglichkeit geben, sehr viele

Quelle: IBM Medical Sieve (Investor Briefing)

Quelle: IBM Medical Sieve (Investor Briefing)

Datenmengen in kürzester Zeit analysieren zu lassen und damit eine bessere und umfassendere Entscheidungsgrundlage zu bieten.

Einen weiterführenden kognitiven Assistenten bietet IBM mit dem Projekt Medical Sieve. Auf der Projektseite zu diesem IBM-Projekt kann man folgendes über das Forschungsprojekt lesen:

Medical Sieve is an ambitious long-term exploratory grand challenge project to build a next generation cognitive  assistant with advanced multimodal analytics, clinical knowledge and reasoning capabilities that is qualified to assist in clinical decision making in radiology and cardiology. It will exhibit a deep understanding of diseases and their interpretation in multiple modalities (X-ray, Ultrasound, CT, MRI, PET, Clinical text) covering various radiology and cardiology specialties.

DNA-Sequenzierung und Prävention

Die Firma Human Longevity Inc. bietet die Gen-Sequenzierung und die damit verbundene Prävention von Krankheiten an. Das Ziel ist es, die Anfälligkeiten für bestimmte Krankheiten am Genom zu erkennen.

Dafür werden umfangreiche statistische Modelle und Erkenntnisse aus dem Human Genom Project verwendet. Mit dieser Technologie könnte man schon im Kindesalter bestimmte Präventionsmaßnahmen treffen und somit für eine bestimmte Anfälligkeit vorsorgen. Ob man diese Technologie allerdings einer breiten Patienten-Audienz verfügbar macht (und machen kann) bleibt allerdings fraglich.

 

Round up

In diesem Artikel wurden keine Smart Watches und Fitness-Tracker behandelt. Diese gibt es auch – allerdings lag der Fokus auf Innovationen, welche etwas mehr Disruption in den Medizinbereich bringen können. Aktuell versuchen es sehr viele Startups und etablierte Firmen, einen Fuß in die Tür der Medizin-Zukunft zu bekommen. Dabei sind einige Ansätze sehr radikal und könnten – sollte es soweit kommen – viele Änderungen mit sich bringen. Wie es uns die Geschichte gelehrt hat, wird es einen Mittelweg geben. Trotzdem ist die avantgardistische Arbeit vieler Firmen und Lobby-Verbände wichtig, um die Entwicklung anzuführen.

Weiterführende Links




Das Jahr 2016 – Was bisher geschah

Hier möchte ich einen kleines Round-Up darüber geben, was seit dem 01. Januar 2016 bis heut in der Künstlichen Intelligenz passiert ist, dass uns allen in Erinnerung bleiben wird. Dabei waren einige Highlights und Durchbrüche, die uns schon demnächst wieder beschäftigen werden oder Standards für die Zukunft setzen werden.

Sehr viel ist in den Bereichen Image Processing und Chat-Bots passiert. Aber lest selbst.

[Januar] Marvin Minsky ist tot

Das Jahr begann gleich mal mit einer sehr unschönen Nachricht. Marvin Minsky ist im Alter von 88 Jahren 240px-Marvin_Minsky_at_OLPCbin Boston gestorben. Er war einer der größten Denker der Künstlichen Intelligenz und Mitbegründer vieler Verfahren. In Erinnerung bleibt unter anderem auch sein Buch Society of Mind – Mentopolis, in dem er eine Welt beschreibt, die aus unintelligenten Agenten besteht und daraus ein intelligentes System bildet.

[Januar] Treffen sich zwei Roboter, sagt der eine…

Hier wurden 2 der besten Chat-Bots in ein Gespräch verwickelt. Das erste Halbjahr 2016 drehte sich generell sehr viel um Chat-Bots – sei es auf Facebook oder anderen Plattformen. In diesem Artikel wurden die beiden Bots Rose und Mitsuku mit einander in einen virtuellen Raum gesperrt und mussten miteinander kommunizieren. Der Artikel hier ist nur ein Beispiel für einen sehr brisanten Trend im Jahr 2016.

[Februar] Volkswagen CIO kommt in der Zukunft an

Der Titel klingt natürlich sehr reißerisch – auch wenn ich aus persönlicher Erfahrung weiß, wie es um einige deutsche Automobilkonzerne in Deutschland steht (und das ist schon sehr gut ;)). Allerdings ist das die Sichtweise vieler Deutscher, wenn es um VW, BMW, Mercedes-Benz und weitere Marken geht. Der Volkswagen CIO sprach jedenfalls ein bisschen über die Zukunft mit Künstlicher Intelligenz. Im Februar standen autonom fahrende Autos generell stark im Mittelpunkt.

[Februar] Der visuelle Turing-Test

Menschen sollen entscheiden, welches Bild von einer Person und welches von einer Maschine gemalt wurde. deepart_exampleDahinter steckt der Algorithmus von Tübinger Forschern (deepart). Hier kann man selbst testen, ob man herausfindet, wer der Künstler des Bildes ist.

[März] Tay wird von Twitter Nutzern erzogen

Microsoft launchte Tay! Es sollte eine KI werden, die durch Kommunikation lernen sollte, wie die “jungen” Menschen heutzutage kommunizieren. Letztendlich hat Tay aber rassistische Kommentare und schimpfen gelernt. Spannend – Microsoft wurde anfangs verantwortlich gemacht, allerdings kann Tay als ein Spiegel der Gesellschaft gesehen werden und gibt das Nutzerverhalten bei Neuheiten ganz gut wieder. Misuse first!

[März] SXSW stellt Human-assisted AI als Next Big Thing vor

… Und genau dieses Potenzial steckt in der sogenannten Human-assisted AI, also alle Produkte die dem Menschen mit KI-Unterstützung helfend zur Seite stehen. Die Anwendungsbereiche sind enorm und die Early Adopters oft nicht sehr anspruchsvoll. In nahezu allen Bereichen des Lebens können solche Anwendungen demnächst entstehen.

[April] openAI stellt openAI Gym vor

Das Non-Profit-Unternehmen openAI hat openAI Gym vorgestellt. Damit veröffentlichen sie die ersten Ergebnisse ihrer Forschung an Reinforcement Learning Algorithmen. Die Bibliothek ermöglicht es Nutzern, verschiedene Algorithmen zu testen und bietet ein Framework für die Programmierung von intelligenten Spiele-Bots.

[April] KI beschreibt Fotos für blinde Menschen

Facebook hat eine KI vorgestellt, die blinden Menschen ein Bild beschreibt. Dem vorausgegangen sind viele Apple_logo_black.svgEntwicklungen im Bereich Deep Learning und der semantischen Bildanalyse. Schon in den letzten Jahren nahm der Trend zu, Bilder semantisch zu beschreiben. Nun gipfelt dieser Trend in der Entwicklung solcher intelligenter Tools. Die KI ist besonders interessant für Dienste wie Instagram, welche nur aus Bildern bestehen. Damit wird Instagram auch für blinde (oder Menschen mit Sehschwäche) nutzbar.

[Mai] Google im Spot-Light

Auf der Google I/O hat Google mal wieder einen guten Progress gezeigt. Unter anderem präsentierten sie die TPU (Tensor Processing Unit). Mit diesem, auf die Anwendungen des Machine Learning optimierten, Chips zeigt Google zudem, wie schnell und agil man Hardware entwickeln kann. Außerdem stellte Google ihr neustes Smart-Home Produkt vor: Google Home. Davon werden wir in diesem und dem nächsten Jahr noch einiges hören.

[Juni] ALPHA schlägt Kampfpiloten

Die kleine smarte KI ALPHA (die auf einem RaspberryPI läuft) schlägt zum ersten Mal einen erfahrenden Kampfpiloten und lässt ihn im Simulator abstürzen. Entwickelt wurde das System von einem Absolventen der University of Cincinnati.

[Juni]  Der Aufsatz über den Panik-Knopf

Zwei Wissenschaftler haben sich in einem Aufsatz ihre Gedanken über einen Panik-Knopf bei Robotern gemacht. Laurent Orseau (Google Deepmind) und Stuart Armstrong (University of Oxford) haben dabei Regeln aufgestellt, unter welchen Konditionen der Knopf zum Einsatz kommt. Außerdem haben sie einige bekannte Verfahren aufgegriffen und gezeigt, wie man diesen Panik-Knopf realisieren kann.

 

Buchempfehlung zum Thema

BESTSELLER: Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert 




[Forschung] Amazon Picking Challenge in Leipzig

Am Wochenende um den 30.6. bis 3.7 findet in Leipzig die Amazon Picking Challenge statt. 16 Internationale Hochschul-Teams stellen dabei Ansätze zur Automatisierung in der Logistik vor und kämpfen um eine Preisgeld von 80.000 USD. 2015 fand die Picking Challenge zum ersten Mal statt – damals in Seattle. Dabei fand die Challenge breite Zustimmung, wie Dave Clark (Senior Vice President) bestätigte. Diesmal kämpfen die Teams im Rahmen des RoboCups, der parallel in Leipzig stattfindet.

Die beiden Disziplinen sind das Bestücken von Regalen (stow) und das Befüllen von Kisten aus Regalen (pick). Neben den beiden Disziplinen gibt es auch noch eine Ausstellung, in der der Besucher mehr über Amazon und die Arbeit in den Logistikzentren erfahren kann.

 

Über Amazon

Amazon.com öffnete seine virtuellen Tore im Juli 1995. Das Unternehmen wird von vier Grundprinzipien geleitet: Fokus auf den Kunden statt auf den Wettbewerb, Leidenschaft fürs Erfinden, Verpflichtung zu operativer Exzellenz und langfristiges Denken. Kundenrezensionen, 1-Click Shopping, personalisierte Empfehlungen, Prime, Versand durch Amazon, AWS, Kindle Direct Publishing, Kindle, Fire Tablets, Fire TV, Amazon Echo und Alexa sind nur einige der Produkte und Services, für die Amazon Pionierarbeit geleistet hat.

Buchempfehlung zum Thema

Robotics: Everything You Need to Know About Robotics from Beginner to Expert

[Startups] Mindmeld – Die KI für Zuhause

Worum geht es hier?
Mindmeld ist ein System, das ein sprachliches Interface bieten soll, um alle Aktivitäten in der Wohnung oder dem Haus zu koordinieren. Dazu benutzen die Entwickler NLP-Techniken, semantische Datenbanken und ansprechendes
Interface-Design.
media-kit-4Neben den “normalen” IoT-Aufgaben wie Licht an- und ausschalten, Türen schließen und die Heizung regeln, kann Mindmeld außerdem Filme spielen und besitzt Regeln, um logische Beziehungen im Input zu erkennen. Somit lässt sich die Idee des Smart Home sehr gut mit anderen Media-Anwendungen verknüpfen. Es ist auch geplant, dass Drittanbieter in das Ökosytem von Mindmeld einsteigen können und dort ihre passenden Anwendungen bauen können. Das erklärte Ziel von Mindmeld ist es, dumme Chatbots zu ersetzen und Schnittstellen für Bots zu bauen, die einer Konversation folgen können und ein Gedächtnis bieten.

 

Zahlen bitte
Das Unternehmenen hatte bisher 2 (+ eine nicht öffentliche) Finanzierungsrunden.

  • 2,4 Mio. USD (2012, Greylock Partners, Bessemer Ventures, GV, IDG Ventures)
  • 13 Mio. USD (2013/2014, Intel Capital, Samsung Ventures, Telefonica Digital)

Benutzte Technologien

  • Node.js
  • Python
  • PHP
  • Erlang
  • JavaScript
  • Chef (für die Provisionierung)

Zukunft des Startups

Das Startup hat gute Chancen, da es aktuell noch nicht viele Competitor im Bereich Smart Home auf diesem Level gibt. Allerdings versuchen es viele Firmen und vor allem die Open-Source-Gemeinde. Genau das ist der Punkt! Wenn Mindmeld es schafft, eine gute Position am Markt zu bekommen, bevor Open-Source-Tüftler und andere Firmen nachziehen, sind die Aussichten auf Erfolg immens groß. Das Thema “Smart-Home” ist auch noch lange nicht ausgeschöpft und das Konzept des IoT (Internet of Things) steckt, was marktreife Produkte angeht, noch in den Kinderschuhen. Es scheint so, als ob sich das Unternehmen viel mehr um die Intelligenz ihres Mensch-Maschine-Interfaces kümmert, als um alle anderen Komponenten, die zum System gehören. Auch das zeichnet sie aus! Wenn die Entwicklung erfolgreich verläuft, kann man die Chatbot-Intelligenz auch in weiteren Bereichen einsetzen (Trends zu Text to Speech Bots).

Die Gründer
Mindmeld wurde von Tim Tuttle gegründet, der davor bereits Bang Networks (wurde mit 24 Mio. $ finanziert) und Truveo (wurde von AOL gekauft) gegründet hat. Am MIT arbeitete er im Labor für künstliche Intelligenz und konnte dort bereits den Grundstein für seine folgenden Gründungen legen.

 

The Internet of Things (MIT Press Essential Knowledge) Architecting the Interet of Things Natural Language Processing using Python