ML Conference 2018 in München – Das Programm ist online

ML Conference 2018 in München – Das Programm ist online

Vom 18 bis 20. Juni geben international führende IT-Experten bei der zweiten Machine Learning Conference im Münchener Sheraton Arabellapark Hotel einen umfassenden Einblick in die Welt des Maschinellen Lernens und der Künstlichen Intelligenz. Die Konferenz bietet insgesamt über 35 Sessions, Keynotes und Workshops mit den drei parallelen Tracks “Business & Strategy”, “Machine Learning Tools & Principles” und “Machine Learning Advanced Development”. Über 35 Speaker, u.a. Canburak Tümer (Turkcell), Constantin Gonzalez (Amazon Web Services Germany), Marisa Tschopp (SCIP AG), Laurent Picard (Google), Daniel Wrigley (SHI) und Alison Lowndes (NVIDIA) präsentieren die neusten technologischen Entwicklungen aus Forschung und Industrie.

Unter anderem können die Teilnehmer aus den folgenden Sessions wählen: 

  • „Deep Learning in Telecommunication“ (Burak Isikli, Turkcell)
  • „Deep Learning Dive into the Graphics World“ (Muzahid Hussain, Dassault Systems 3d Excite)
  • „Boost your app with Machine Learning APIs“ Laurent Picard (Google)
  • „AI really is all that!“ Alison Lowndes (NVIDIA)
  • „Amazon SageMaker: Building, Training and Deploying Machine Learning Models Efficiently and at Scale“ Constantin Gonzalez (Amazon Web Servives Germany)
  • „Natural Language Support with LUIS“ Rainer Stropek (software architects / www.IT-Visions.de)

Am ersten Tag haben die Teilnehmer die Möglichkeit, drei ganztägige Praxis-Workshops zu besuchen. Im „AI Product Workshop“ wird Luis Rodriguez (Teknolog IO) mithilfe von realen Fallstudien eine Reihe von Techniken zur Gestaltung mit maschinellen Lerntechnologien veranschaulichen. Xander Steenbrugge (ML6) führt in seinem Workshop „Deep Learning with TensorFlow“ in die Grundlagen von Googles Deep Learning Bibliothek ein wird anhand von praktischen Beispielen den Umgang mit diesem Tool üben.

Abgerundet wird das Programm von drei Keynotes, u.a. zu dem Thema „Cracking open the Black Box of Neural Networks“ von Xander Steenbrugge (ML6), und dem Get-together, bei dem die Teilnehmer bei Freigetränken und Snacks die Möglichkeit zur Vernetzung und zum Austausch haben.

 Das ganze Programm kann ab sofort online eingesehen werden unter: https://mlconference.ai/programWeitere Informationen und Tickets finden Interessenten unter: https://mlconference.ai/

(PM von sandsmedia)

Fastbrick Robotics – Disruption in der Baubranche

Der Roboter auf der Baustelle ist in Deutschland noch weit von der Umsetzung entfernt. Das stellten auch Thomas Bock und Thomas Linner (beide TU München) in ihrem “Cambridge Handbooks on Construction Robotics” fest. Die wenigsten der weltweit verwendeten Baustellenroboter (ca. 5.000, Stand 2016) stehen nämlich in Deutschland (gemessen an Industrienationen). Aber auch in der Baubranche, wie in jeder anderen, gibt es aktuell Disruption. Die könnte aus Australien kommen.

Ein Haus mit einem Roboter bauen, dass ist die Mission von Fastbrick Robotics. Ihren Sitz hat die Firma in Perth (Australien) und wurde 2015 gegründet. Zu den Investoren gehört unter anderen auch Caterpillar, die mit ihren riesigen Baufahrzeugen der klare Weltmarktführer sind.

Mit HadrianX, dem fahrbaren Lkw-Roboter von Fastbrick, ist es möglich, Stein auf Stein zu setzen und somit ein Haus in einer effizienteren Geschwindigkeit zu bauen. Bevor jedoch HadrianX die Bühne betrat, arbeitete Fastbrick am Vorgänger – dem Hadrian105. Diese Maschine sah bedeutend unspektakulärer aus.

Hadrian105 und Hadrian109 nutzen als Grundform ein Baggerfahrzeug, dass die Ladung Baumaterial mit sich führte. Der Roboter, in dem bisher nur wenig Künstliche Intelligenz steckt, weiß, wie das Gebäude aussehen soll und baut Stein auf Stein – arbeitet einen Plan ab. Eine bedeutende Restriktion ist jedoch die Anzahl der Steine, die das Baggerfahrzeug mit sich nehmen konnte.

Abbildung 1: Roadmap der Kommerzialisierung von Hadrian109 (Präsentation, Q1 2015)

Diese Restriktion löst HadrianX, dem ein Lastkraftwagen zu Grunde liegt, auf. Durch die größere Ladefläche, war es möglich, schneller und damit noch effizienter zu bauen.

Abbildung 1 zeigt die Roadmap (Stand 2015) von Fastbrick Robotics. In 2018 soll das System produktiv ausgerollt werden. Es wird also spannend. Ein Blick auf die Aktien der Firma Fastbrick Robotics (FBR.AX, DZ2.F, FBRKF) lohnt sich immer mal wieder.

Das war die kurze Vorstellung von Fastbrick Robotics – einem kommenden Disruptor in der Baubranche.

Was bleibt?

  • Auch in der Baubranche gibt es technischen Fortschritt und digitale Disruption
  • Fastbrick Robotics existiert seit 2015 und rollt 2018 das System HadrianX produktiv aus
  • Die Disruption in der Baunbrache hat Deutschland noch nicht erreicht

 

Ihr interessiert euch für Roboter der Konstruktionsphase. Dann findet ihr hier die richtigen Links!

 

 

 

Cloud, Machine Learning und Mobile – Die DecompileD Conference in Dresden

decompiled_conference-logoAm 6. April findet im Dresdner Parkhotel die 1. DecompileD Conference statt. Die Themen auf der Konferenz sind Mobile Development, Cloud Infrastructure und Machine Learning.

Die Referenten berichten unter anderem, wie man auf Mobile-Applikationen Machine Learning benutzen kann und wie ganze Plattformen auf Cloud Plattformen umgezogen wurden. Insgesamt werden 19 Talks gezeigt.

Die Teilnehmer erwartet ein tolles Event mit zwei parallelen Tracks. Außerdem wird es eine Meetup-Expo geben, auf der sich regionale und überregionale Meetups präsentieren. Begleitet wird die Konferenz mit ansprechendem Catering vormittags, mittags sowie abends.

Für ein würdiges Ende der Konferenz wird eine Aftershow-Party mit vielen Specials sorgen. Ihr habt noch kein Ticket?

Spart 15% und nutzt den Rabattcode “MACHINEROCKSTARS” bei der Bestellung eures Tickets.

Hier gehts zur DecompileD!

Bösartige Künstliche Intelligenz – Vorhersagen und Schutz

Kürzlich wurde der The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation – Report veröffentlicht. An diesem Report arbeiteten 26 Wissenschaftler, Forscher und Practitioner von verschiedenen Instituten, Firmen und Universitäten. Er ist das Ergebnis eines intensiven 2-Tage-Workshops. Hauptsächlich wurde der Report unterstützt von:

  • Future of Humanity Institute
  • University of Oxford
  • Centre for the Study of Existential Risk
  • University of Cambridge
  • Center for a New American Security Electronic Frontier Foundation
  • OpenAI

Ein Screenshot aus dem Report. Die Performance von Computer Vision Algorithmen (hier ImageNet) wird immer akkurater. Die Performance des Menschen wird hier mit einer Verbesserung von 0 angenommen. Die Fehlerrate des Menschen (bei 5% geschätzt) wird von den aktuellen Algorithmen qualitativ übertroffen.

Der Report greift verschiedene mögliche Angriffszenarien auf und beschreibt den Schutz davor. Auch im Zusammenhang mit Social Engineering sind diverse Angriffe unter der Nutzung von Künstliche Intelligenz denkbar. Für diese Angriffe sensibilisiert der Report. Allerdings ist er eher politischer Natur und damit zur Referenz für politische Entscheider gedacht.

Diese Handlungsempfehlungen werden gemacht:

  • Der Gesetzgeber soll eng mit Ingenieuren zusammenarbeiten, um möglichen Dual-Use (Nutzen der Technologie für kriminelle / unethische Zwecke) zu verhindern.
  • Ingenieure und Forscher sollen sich der Dual-Use Natur ihrer Arbeit immer bewusst sein.
  • In etablierten Bereichen soll es Best Practices geben, die die Dual-Use Möglichkeiten einschränken.
  • Das Domainwissen bei AI-Fragen und -Entscheidungen soll maximiert werden, sprich: viele verschiedene Experten werden in Entscheidungen einbezogen.

Hier kann man den ganzen Report lesen!

Welche Deep Learning Frameworks gibt es?

Stand Deep Learning Frameworks 2017. Credits: Indra den Bakker

Stand Deep Learning Frameworks 2017. Credits: Indra den Bakker

Wie sah die Landschaft der Deep Learning Frameworks im abgelaufenen Jahr 2017 aus? Die 5 großen Player Google, Microsoft, Amazon und Facebook stecken hinter den bekanntesten und meist benutzten Frameworks.

Was wird das Jahr 2018 bringen? Einige Zeichen stehen auf Konsolidierung der Frameworks, Entwicklerteams von einigen Frameworks wollen sich sogar anderen Entwicklern anschließen, um ein neues Framework zu bauen.

Mehr dazu lest ihr im Artikel von Indra den Bakker

 

Der 34C3 – Spannende Machine Learning Videos

Der 34. Chaos Communication Congress des CCC fand in Leipzig statt. Wir haben für euch alle wichtigen Vorträge gesehen und euch die 3 relevantesten Machine Learning Talks hier verlinkt. Viel Spaß!

 

Beeinflussung durch Künstliche Intelligenz

Social Bots, Fake News und Filterblasen

Deep Learning Blind Spots

Roboter oder nicht? Diese Tests müssen Roboter bestehen

Okay, Roboter! Oder doch Mensch? Was macht einen Roboter aus und wann verwechseln wir Mensch und Roboter? Mit dieser Frage beschäftigen sich Wissenschaftler schon seit Jahrzehnten. Sie entwickeln Tests dafür, um herauszufinden, ob ein gegenüber (beispielsweise im Chat) ein Roboter ist oder nicht. Einige dieser Tests stellt dieser Artikel vor.

 

The Turing Test (Turing)

Das ist der absolute Klassiker dieser Tests. 1950 schlug Alan Turing ihn vor. Dabei geht es darum, eine Maschine von einem Menschen zu unterscheiden. Ein Fragensteller stellt zwei Akteuren die gleichen Fragen. Er sieht sie nicht – sie chatten nur. Kann der Fragensteller anhand der Antworten nicht unterscheiden, ob er mit einem Menschen oder einer Maschine schreibt, hat die Maschine den Turing Test bestanden.

Die Kritiker des Tests opponieren, dass der Turing-Test nur die funktionalen Fähigkeiten der Maschine herausfordert. Sie schlagen vor, außerdem die Kreativität und die Diskursfähigkeit in den Test einzubeziehen. Zwei, auf dem Turing-Test aufbauende, Tests sind darauf ausgerichtet: Lovelace-Test und Metzinger-Test.

The Coffee Test (Wozniak)

Der Apple Mitgründer Steve Wozniak (auch Woz genannt) schlug diesen Test vor. Ein Roboter soll dazu in der Lage sein, einen durchschnittlichen amerikanischen Haushalt zu betreten, die Küche aufzusuchen und dort alle nötigen Zutaten für einen Kaffee zu finden. Danach muss er den Kaffee zubereiten und servieren. Das erfordert viele verschiedene Komponenten und ein hohes Verständnis der Umwelt, denn jeder Haushalt ist anders aufgebaut. Es gibt verschiedene Produkte und Geräte, die er Proband kennen und verstehen muss.

 

The Robot College Student Test (Goertzel)

Bei diesem Test geht es darum, auf eine amerikanische Universität zu kommen. Der Roboter besteht den Test, wenn er die Prüfungen in allen relevanten Fächern besteht. Dafür muss er genauso gut wie der Mensch oder sogar besser abschneiden. Im Juni 2017 hat ein chinesisches Unternehmen eine Künstliche Intelligenz für diesen Test (ausschließlich für das Fach Mathe) entworfen. Das System bestand den Test, wenn auch nicht mit einer sehr guten Benotung.

 

The Employment Test (Nilsson)

Das Roboter oder Algorithmen bestimmte Jobs bedrohen, ist bereits bekannt. Nils J. Nilsson hat 2005 vorgeschlagen, auch Roboter einen Einstellungstest zu unterziehen. Dabei sollen die Roboter in der Lage sein, alle möglichen Aufgaben zu lösen, denn jeder Job ist anders und fordert andere Qualitäten von der Arbeitskraft.

Das Roboter meist ohne Einstellungstest einen Job bekommen, zeigt der Polzeiroboter der bereits in Dubai getestet wird.

 

The Flat Pack Furniture Test (Tony Severyns)

Ist auch als IKEA-Test bekannt. Dabei muss der Roboter ein Möbelstück aufbauen. Startpunkt ist dabei ein geschlossenes Paket, in welchem eine Bauanleitung sowie alle nötigen Teile verstaut sind. Der Test ist bestanden, sobald das Möbelstück korrekt verschraubt und verleimt ist. Außerdem muss das Möbelstück korrekt dort platziert werden, wo es hingehört.

 

Unzählige weitere Tests

Seit der Erfindung des Turing-Tests vor mehr als 60 Jahren gab es immer wieder neue Versuche und mögliche Entwürfe für Reifeprüfungen. Die AAAI Conference on Artificial Intelligence 2015 hatte sogar einen ganzen Workshop nur für dieses Thema reserviert.

So funktioniert Recommendation bei Spotify

Rot markiert. Recommendation bei Spotify (Credit: Chris Johnson, Spotify)

Rot markiert. Recommendation bei Spotify (Credit: Chris Johnson, Spotify)

Empfehlungssystemen begegnet man überall im Internet. Auch bei Spotify arbeitet man mit State-of-the-Art Systemen im Bereich Recommendation.

Drei verschiedene Systeme werden bei Spotify dazu benutzt, um euch die Musik vorzuschlagen, die euch sehr wahrscheinlich gefallen könnte.

Dabei bedient sich Spotify an Metadaten der Tracks, liest die Logs der gespielten Musik und durchsucht sogar Blogs und News nach verschiedenen Artikeln. Diese Informationen werden dann benutzt, um euch einen neuen Track zu empfehlen.

Diese 3 Methoden benutzt Spotify

Kollaboratives Filtern – “Wer X gehört hat, hat auch Y gehört.” Amazon nutzt beispielsweise Kollaboratives Filtern, um euch zu zeigen, welche Produkte jemand noch gekauft hat, der ähnliche Produkte wie ihr kaufte. Das funktioniert zum Beispiel über Matrixfaktorisierung.

Natural Language Processing – Die Songtexte und Beschreibungen werden mit Natural Language Processing durchsucht und nach Schlüsselwörtern sortiert. Ähnliche Textpassagen und Phrasen sprechen für eine Ähnlichkeit. Schwierig wird es, wenn der Track sehr wenige bis garkeine Lyrics enthält. Dafür gibt es noch eine dritte Form der Recommendation.

Audio Material – Auf den reinen Audiosignalen wird ein neuronales Netz (Deep Learning) angewandt. Dieses Netz erkennt Ähnlichkeiten in den Frequenenzen. Es nutzt auch weitere Features, um die Ähnlichkeit eines Songs zu bestimmen. So kann man vor allem Songs bewerten, die über keine Lyrics verfügen und bisher selten gehört wurden (also keine Chance für Kollaboratives Filtern hätten).

Ihr findet das Thema spannend? Hier gibt es den längeren Artikel dazu.

5 untechnische Künstliche Intelligenz Begriffe die sie kennen sollten

Künstliche Intelligenz ist meist ein technisches Thema. Welche untechnischen Begriffe muss ich kennen, wenn ich mit meinen Kollegen, Freunden oder auf Konferenzen über das Thema diskutieren will? Wir zeigen dir 5 der wichtigsten untechnischen Begriffe, über die sich trefflich diskutieren und fachsimpeln lässt. Viel Spaß!

Human in the Loop (Buzzword!)

Human in the Loop Systeme benötigen einen menschlichen Supervisor, der ihnen in kritischen Situationen helfen kann. Die meiste Zeit versuchen diese Systeme, das gelernte selbst umzusetzen. Dies dient der Automatisierung von Prozessen. Lediglich in schwierigen oder unbekannten Situationen wird ein Mensch gefragt (in die Loop geholt), um entweder schwierige Entscheidungen zu treffen oder der Maschine neue Situationen zu erklären.

Aktuell werden viele Prozesse in der Wirtschaft und Industrie von Human in the Loop Systemen übernommen. Diese Systeme werden angelernt und benötigen dafür noch einen Supervisor.

 

Technokratie

Technokratie bezeichnet eine Regierungsform ohne Politiker. In dieser Regierungsform werden ausschließlich Wissenschaftler berufen, ein Volk zu vertreten. Technokratie würde direkt übersetzt bedeuten: Regierung der Sachverständigen. Die Probleme der Gesellschaft würden Technokraten mit ihren rationalen Modellen und Vorstellungen lösen. Ein Aspekt der vielen Technokratiekritikern missfällt.

Die Technokratie in ihrer Reinform basiert weder auf Parteien noch auf Koalitionsgedanken. Die gewählten Vertreter sind parteilos und handeln im Rahmen ihrer wissenschaftlichen Möglichkeiten.




Transhumanismus

Als Transhumanismus versteht man eine philosophische Denkrichtung, den Menschen durch technologische Komponenten in jeglicher Form zu erweitern oder verbessern. Der Transhumanismus hat aktuell 3 verschiedene Strömungen ausgebildet: Demokratischer Transhumanismus, Extropianismus und Singularitarianismus.

Der Transhumanismus kann sich in der Realität sehr vielfältig äußern, durch Sportler mit Prothesen, BioArt-Akteure (wie Stelarc) oder Literatur wie Homo Deus (auf englischauf deutsch).

 

Posthumanismus

Der Posthumanismus ist eine philosophische Denkrichtung. Im Kern ist die Aussage: „Der Mensch hat seinen evolutionären Zenit bereits erreicht – es ist Zeit für etwas neues“. Der Mensch wird hier nur als eine Spezies unter vielen gesehen.

Dem Mensch wird im PH auch das Recht abgesprochen, die Natur zu zerstören und sich als Krone der Schöpfung zu sehen. Eins steht jedoch fest: Im Posthumanismus gibt es den Menschen unseres Zeitalters nicht mehr.

Dabei ist nicht klar, ob der Mensch als solches oder eben der Homo Sapiens im posthumanistischen Zeitalter keine Rolle mehr spielen soll. Vergleichbar dazu auch: Was ist Transhumanismus (Lexikon), Was ist Transhumanismus (Einführung).

 

Technologische Singularität

Technologische Singularität bezeichnet den Zeitpunkt, an dem Maschinen so fortschrittlich sind, dass sie sich selbst verbessern können. Damit einher geht der Punkt, dass die Zukunft der Menschheit immer schwieriger vorherzusehen ist. Bisher wurde der Zeitpunkt, an dem technologische Singularität eintritt, immer wieder in die Zukunft verschoben. Viele Experten und Forscher auf diesem Gebiet sind sich jedoch einig, dass dieser Zeitpunkt unerwartet und teilweise auch von weiten Teilen der Menschheit unbemerkt eintritt.

Damit verbunden sehen Insider auch die biologische Unsterblichkeit der Menschheit (oder zumindest einzelner Individuen).

Was ist eigentlich ein Roboter?

Sollten Roboter in der Zukunft mal mit einem reflektierenden Selbstbewusstsein ausgestattet werden, können wir nur hoffen, das sie nicht auf die Idee kommen, tschechisch bzw. polnisch zu lernen. Im Tschechischen liegt nämlich die Wurzel des Wortes Roboter. Es steht für Frondienst beziehungsweise Zwangsarbeit. Der erste Link zwischen Frondienst und den Arbeitern aus Blech wurde im Theaterstück R.U.R. (Rossums Universal Robot, oder wie es auf tschechisch hieß: “Rossumovi Univerzální Roboti”) hergestellt.

R.U.R.

Der Golem. Credits: Martin Pauer

In diesem Theaterstück wurden in großen Tanks menschenähnliche Wesen aus Blech gezüchtet, die den Menschen stupide und langweilige Arbeiten abnehmen sollten. Karel Čapek ist der Vater dieses Theaterstück und damit ein Stück weit auch der Vater des Begriffs Roboter. Allerdings nur auf dem Papier, denn obwohl Karel Čapek dieses Stück schrieb, kam die Idee, diese Wesen “Robota” zu nennen, von seinem Bruder Josef. Am Ende des Theaterstücks rebellieren die Roboter allerdings und vernichten die Menschheit. Obwohl das Werk 1920 geschrieben wurde, ist es immer noch aktuell und steckt voller Hinweise und philosophischen Denkanstößen. Das Theaterstück gibt es übrigens auch als Buch. Hier find ihr es.

Der Golem

Eng verbunden mit diesem Theaterstück ist auch die Legende des Golem, welche höchstwahrscheinlich als Inspiration des Theaterstücks diente. Der Prager Golem, der von einem Rabbi geschaffen wurde, um am Sabbat alle Arbeiten zu erledigen und den Juden zu helfen, Übel von ihnen abzuwenden. Eine spannende Überschneidung gibt es zwischen Golem und Robota. Laut der Legende wird ein Golem mittels Zahlen- und Buchstabenmystik zum Leben erweckt – ein Robota auch.

Und heute?

Humanoider Roboter aus dem 3D Drucker. Project Poppy (Open Source Roboter). Credits: Inria / Poppy-project.org / Photo H. Raguet.Und heute?

Ausgehend von diesem Ursprung gibt es derzeit sehr viele verschiedene Arten von Robotern, die zur Erkundung, zum Transport, als Spielzeug, als Assistenzroboter, in der Medizin und in der Industrie eingesetzt werden. Dabei werden Roboter in unterschiedlichsten Formen hergestellt: sitzend auf einem Portal (Industrie), humanoid (mit Beinen), Laufroboter & mobile (auf Rädern oder anderweitig fahrend), BEAMs (Biologisch inspirierte, meist analoge Roboter) und Roboter die nur durch Software in Erscheinung treten.

Eine Begrifflichkeit, die den Roboter ersetzt, ist noch nicht in Sicht. Es läuft eher auf eine Ausdifferenzierung des Roboterbegriffs hinaus. Ein Agent (auch Softbot genannt) ist beispielsweise ein Roboter, der ein autonomes Verhalten aufweist und nur in bestimmten Fällen kommuniziert. Er muss sich in seiner Umgebung also auskennen und in den meisten Fällen ohne menschliches Eingreifen handeln können. Eine weitere Differenzierung stellt der Androide da. Damit sind menschenähnliche Roboter gemeint.

Seit der Einführung des Begriffs “Robota” in der breiten Masse, hat sich also einiges getan. Künstler drehen Filme und schreiben Bücher, um den Begriff und das Konzept des Roboters bekannter zu machen und auf besondere Weise dafür zu sensibilisieren.

Nur am Rande

Auch spannend sind die Werke des polnischen Philsophen und Autors Stanislaw Lem (Buch: Lem über Lem). Seine Science-Fiction Romane und Erzählungen verkaufen sich 45 Millionen mal und wurden in 57 Sprachen übersetzt. Einige seiner bekannten Werke findet man hier: Solaris, Das Katastrophenprinzip, Die Astronauten und Der Unbesiegbare)

#MLDD – Das 3. Dresdens Machine Learning Meetup – Startup Edition

Am 26.10.2017 fand in den Räumen der LOVOO GmbH das 3. Meetup der MLDD (Machine Learning Meetup Dresden) statt. Diesmal präsentierten sich 3 Startups aus Dresden, deren Produkte auch Machine Learning einsetzen.

IMG_7611

Polylith zeigt, welche Aufgaben Machine Learning bei ihnen löst.

Diese 3 Startups haben sich präsentiert:

  • Evomo: Fitness 5.0 ist die Devise von Evomo. Das Startup entwickelt eine App, die eure Workouts überwacht. Nach dem Workout kann euch die App direkt sagen, wieviele Kniebeuge, Liegestütze und weitere Übungen ihr in diesem Workout gemacht habt. Ihr wollt mehr Infos zu Evomo? Klickt hier!
  • Polylith: Aktuell gibt es einige Firmen, die Probleme durch einen “Crowd-Based” Ansatz lösen wollen. Polylith lagert die (test-driven) Software-Entwicklung an die Crowd aus. Sie nutzen Machine Learning, um die Qualität des Codes (und damit auch die Qualität der Crowd-Worker) festzustellen. Dafür haben sie clevere Annotations-Tools entwickelt. Klingt spannend? Hier erfahrt ihr mehr zu Polylith!
  • Amonilyzer: Die Jungs vom Amonilyzer sind in der Halbleiter-Industrie unterwegs. Sie wollen die Standzeiten / Reparaturzyklen der kleinen Transporter optimieren, die in einer Fabrik von A nach B fahren. Dafür nutzen sie historische Daten. Amonilyzer ist aktuell nur ein Projektname. Man wird von den Jungs in der Zukunft noch viel mehr hören.

IMG_7609

75 Teilnehmer waren zur 3. Auflage des Machine Learning Meetups (MLDD) gekommen. Neben einigen akademischen Teilnehmern waren auch viele Teilnehmer aus der Wirtschaft dabei. Auch Studenten und technisch-interessierte Menschen haben den Weg zum Meetup gefunden.

Ihr wollt das Machine Learning Meetup in Dresden auch besuchen? Tragt euch auf Meetup ein und erhaltet alle Neuigkeiten über das MLDD.

SocializerHub – Harvey sorgt für A.I. Driven Marketing

Marketing Automation ist ein spannendes Anwendungsgebiet für Machine Learning. Unternehmen nutzen es, um Zeit und Aufwand zu sparen. Ein Unternehmen aus Bayern arbeitet daran. Wir haben sie interviewt.

Bildschirmfoto 2017-09-29 um 16.17.17

Ihr seid 4(+1) Gründer. Wie und wo habt ihr euch kennengelernt?

Wir, die 4 jungen Gründer, haben gemeinsam Abitur am Gymnasium Tegernsee gemacht. Wir haben uns täglich in den Pausen über Themen wie Unternehmertum, Innovationen und Marktpotenziale von eigenen Ideen unterhalten. Während unserer Diskussionen hat Johann Ebert, der Vater unseres CEOs Fabian Ebert und Senior im Gründerteam bereits im Bereich Künstliche Intelligenz in Dubai entwickelt. Nach Diskussionen mit seinem Sohn Fabian Ebert, wie man denn die KI aus Dubai weiterentwickeln könnte um in Deutschland eine Technologie auf den Markt zu bringen, war für Fabian Ebert das Team für dieses Projekt sofort klar, seine Schulfreunde.

Welches Problem habt ihr gesehen, dass euch zur Entwicklung von Harvey X motivierte?

Für uns gehören Social Networks zum täglichen Gebrauch, egal ob morgens früh nach dem Aufstehen, zwischendurch oder vor dem Schlafengehen. Mit dem Großwerden der Influencer-Netzwerke und des Affiliate Marketings ist uns aufgefallen, dass der Online-Auftritt eines Unternehmens nicht nur noch aus einer Webseite besteht, sondern aus der Kombination von Social Media und Webseite. Dadurch ist uns auch klar geworden, dass Unternehmen einen neuen Sales-Weg über die sozialen Netzwerke bilden können, indem sie qualitativ hochwertige Follower und potenzielle Kunden als Follower und Leser auf ihre Profile bekommen. Da haben wir unsere Lücke gesehen, die meisten Unternehmen- vor allem Klein- und mittelständische Unternehmen – haben massive Defizite im Bereich Social Media. Oftmals fehlt das Geld für einen Social Media Manager oder die Zeit die Profile zu pflegen und regelmäßig qualitativ hochwertige Posts zu erstellen. In den großen Unternehmen können sich die Social Media Manager kaum noch wirklich kreativ mit Social Media Kampagnen beschäftigen, sondern sind nur am Suchen von qualitativ hochwertigem Content, den sie regelmäßig posten können um ein Grundrauschen auf den Profilen zu erzeugen. Auf dieser Basis haben wir unseren Harvey X entwickelt, um jedem Unternehmen die Möglichkeit zu geben auf den sozialen Medien effektiv auftreten zu können. Unsere Preisstruktur (ab 79,90€ monatlich) wollten wir auch so setzen, dass sich wirklich jedes Unternehmen unseren Service leisten kann und somit Zugriff auf Technologien bekommt, auf die sonst nur große Unternehmen Zugriff haben („software as a service“). Vor allem die Content-Generierung fällt Klein- und mittelständischen Unternehmen sehr schwer. Meistens fehlt der Content oder das Wissen über die Verarbeitung des Contents. In der Hinsicht übernimmt Harvey X die Generierung und Verarbeitungen und sorgt für das perfekte Grundrauschen auf den sozialen Profilen von unseren Nutzern.

Wie funktioniert Harvey X im Kern? Könnt ihr uns kurz durch den Prozess führen?

Zuerst muss man mal sagen, dass unser Harvey X ständig unser Mitarbeiter des Monats ist. Er arbeitet 365 Tage im Jahr, 7 Tage die Woche und 24 Stunden am Tag. Ein Mitarbeiter wie er im Buche steht. Wenn ein neuer Kunde zu uns kommt, dann gibt dieser Kunde uns Keywords, die speziell an das Unternehmen angepasst sind. Gleichzeitig analysiert Harvey das Unternehmen und fügt relevante Keywords zu den bereits bestehenden hinzu. Bezüglich dieser Keywords und Themen die Harvey nun zu dem Unternehmen hat, filtert er News, Artikel und Quellen aus dem Internet – derzeit filtert Harvey X über 1 Millionen News, Artikel und Quellen täglich und es werden stetig mehr.socializerhub-overview Die qualitativ hochwertigsten News oder Artikel filtert er heraus und überprüft sie nochmal auf Echtheit, Quelle und Qualität. Gleichzeitig führt Harvey Echtzeitanalysen zu jedem relevanten sozialen Netzwerk durch, um die individuelle Leserschaft des Kunden zu analysieren und um zu wissen, wann dieser online ist und kommuniziert. Basierend auf diesen Analysen postet er vollautomatisch die gefilterten News mit der höchsten Qualität zur idealen Zeit in das perfekte Netzwerk. Er optimiert unter anderem die dazugehörigen Hashtags und die Beiträge, wenn er merkt, dass die Leserschaft über andere Themen ebenfalls stark kommuniziert. Ziemlich viel zu tun für einen Mitarbeiter auf eine Vielzahl von Kunden, aber unser Harvey X schafft das problemlos und hat noch massig Potential. Er ist einzigartig und das bleibt er auch für uns – Die Basis Von Harvey X ist patentiert und somit weltweit geschützt.

Machine Teacher mögen Zahlen und Fakten. Könnt ihr etwas zu der Intelligenz hinter Harvey X verraten? Welche Modelle benutzt ihr?

Unsere Basis-KI die wir nutzen ist das OpenAI-Framework von Elon Musk. Zu Anfangszeiten haben wir noch mit IBM Watson gearbeitet, allerdings dann schnell unsere Vorteile in der OpenAI gefunden. Wie jede Künstliche Intelligenz wird auf den Prinzipen des Machine Learnings und des Deep Learnings gearbeitet, allerdings gibt es bei Harvey noch eine Besonderheit: Er hat eine liquide Informationsmembran, die man als ein Echtzeit-System bezeichnen kann. Sie passt sich immer den Gegebenheiten an, wie es schon das Wort „liquide“ verrät. In Verbindung mit der OpenAI kann er somit verschiedene Filter extrem schnell auf unvorstellbare Mengen an Echtzeitinformationen anwenden. Derzeit sind es über 1 Millionen Informationen am Tag und es werden täglich mehr.

Warum sollten Unternehmen euer Produkt einsetzen? Was ist euer USP?

socializerhub-logoWir – die fiveinnovations GmbH – können mit unserer SocializerHub-Technologie Social Media für Unternehmen so effektiv machen, wie es keine Person von Menschenhand kann. Ein guter Online-Auftritt zeichnet sich durch Social Media und Webseite aus. Wir optimieren Kosten, wenn es um Social Media geht. In großen Unternehmen bieten wir den Social Media Managern wieder die Zeit um kreativ zu denken und uns das Grundrauschen zu überlassen, mit dem wir qualitativ hochwertige Follower und Leser auf die Profile ziehen. Auf dieser Basis können Social Media Kampagnen viel effektiver geschaltet und genutzt werden. Für Klein- und mittelständische Unternehmen bieten wir die Möglichkeit Social Media perfekt zu betreiben, dabei keine großen Kosten zu haben und die Zeit für Social Media auf ein Minimum zu reduzieren. Von Einzelperson bis hin zur Aktiengesellschaft können wir jeden Kunden betreuen, unabhängig von Themengebiet oder Branche.

Ihr seid sehr ambitioniert und kündigt weitere Innovationen an. Was können wir in der Zukunft von euch erwarten?

Genaues darf ich noch nicht verraten, aber ich kann sagen, dass Harveys Potential noch lange nicht ausgeschöpft ist und wir jetzt schon viele Innovationen in der Tasche haben, mit denen wir Unternehmen unterstützen können. Blockchain, SmartContacts und weiterhin Künstliche Intelligenz sind Stichworte zu denen man in Zukunft ein Auge auf uns haben sollte.

Danke für das Gespräch! Folgt SocializerHub auf Twitter!

Wann wird die Maschine den Mensch überholen?

Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang und Owain Evans haben in ihrer Arbeit: “When Will AI Exceed Human Performance? Evidence from AI Experts” verschiedene KI Experten auf dem gesamten Globus um Schätzungen zu verschiedenen Fragestellungen gebeten. Die Hauptfrage dabei war:

Wann wird die KI stärker sein als der Mensch?

oder auf englisch:

When will AI exceed human performance?

Figure 1: Wann wird die Künstliche Intelligenz stärker sein als der Mensch?

Die Wissenschaftler sollten das Jahr 2016 als Anfangspunkt nehmen und versuchen, für die kommenden 100 Jahre jeweils eine Wahrscheinlichkeit abzugeben, wann sie damit rechnen.

Die grauen Linien in Figure 1 zeigen alle Messpunkte der verschiedenen Forscher. Die aggregierte Vorhersage überschreitet in circa 50 Jahren die “50% wahrscheinlich, das die KI den Menschen überholt” Marke. In 100 Jahren ist die Wahrscheinlichkeit bei knapp 75%.




Figure 2: Hat die optimistische/pessimistische Schätzung eventuell kulturelle Hintergründe?

Sehr spannend sind die “Ausreißer” – die sehr optimistischen und sehr pessimistischen Schätzer. Figure 2 illustriert, das asiatische Forscher sehr optimistisch geschätzt haben. Nordamerikanische Forscher hingegen schätzen sehr pessimistisch. Welche Einflüsse die Autoren der Studie dafür verantwortlich machen, wird nicht genannt.

 

Wir können allerdings festhalten, dass wir in 50 Jahren eine 50% Chance und in 100 Jahren eine 75% Chance haben, das eine KI stärker sein wird, als ein Mensch.

Figure 3: Berufe, Kreativität und Computerspiele. Wann wird eine Maschine das beherrschen?

 

Diese Aussage ist natürlich sehr wage. Aktuell existieren Systeme, die effizienter arbeiten als der Mensch – beim Verpacken von Kisten, beim Schweißen von großen Metallflächen und weiterem mehr. In der Frage, welche die Autoren stellten, ging es um eine komplette Intelligenz, die mit HLMI (Human Level Machine Intelligence) bezeichnet wird.

Die Umfrage beschäftigte sich aber auch mit weiteren Fragestellungen. Unter anderem wurden die Forscher danach gefragt, wann eine Intelligenz spezifische Sachen besser kann als ein Mensch.

Figure 3 zeigt verschiedene Aufgaben mit den Schätzungen in Jahren, die es noch dauern könnte, bis eine Intelligenz diese Aufgabe, besser als ein Mensch, erledigen kann. Bis eine Intelligenz eine bessere Vertriebsperson ist, soll es im Mittel noch 14 Jahre dauern (die Linie zeigt die Abweichung aller Schätzungen an, es handelt sich hier nicht um einen Roboter, sondern um eine Software).

Sogar mathematische Forschung soll eine Intelligenz irgendwann besser können als der Mensch. Mit diesen schwereren Tasks beschäftigt sich Figure 4.

Figure 4: Nichts ist unmöglich. Etwas kompliziertere Aufgaben brauchen länger, bis sie automatisiert sind.



Dank dieser Studie von Katja Grace et al. haben wir nun eine ungefähre Vorstellung, wann uns die Künstlichen Intelligenzen gefährlich werden können. Allerdings wird sich unser Bild auf die Menschheit, auf Roboter und der Welt in der wir leben in diesen vielen Jahren auch grundsätzlich verändert haben.

Wir dürfen gespannt sein, was uns in den kommenden Jahren und Jahrzehnten noch erwartet! Übrigens, weitere Prognosen rund um das Thema “Technologie in der Zukunft” sammeln wir hier auf dem Blog.

Hier gehts zur Studie

Was passiert in Unternehmen die KI einsetzen?

Wir hören oft grausame Dinge, über die Unternehmen die sich mit Künstlicher Intelligenz befassen oder sie einsetzen wollen. Eine Studie von Capgemini Consulting zeigt jetzt, was sich für diese Unternehmen geändert hat.




Figure 1: Was hat sich verbessert? Credits: Capgemini Consulting

In einer Studie, die Capgemini Consulting zusammen mit dem Digital Transformation Institute durchgeführte, wird gezeigt, wie es den Unternehmen geht, die bereits Künstliche Intelligenz (AI) einsetzen. Für diese Studie wurden rund 1000 Firmen weltweit interviewt. 75% der Unternehmen verzeichneten einen Uplift von mindestens 10% ihrer Vertriebs. Operationale Kosten konnten gesenkt werden, wobei die operationale Effektivität signifikant stieg. Mit dem Net Promoter Score (NPS) wird die Kundenzufriedenheit gemessen. In 3 aus 4 Unternehmen stieg sogar der NPS signifikant an. Das konnte auf eine effizientere Kontaktaufnahme der Kunden und einer verbesserten Auswertung von Kundendaten zurückgeführt werden (Figure 1).

 

Figure 2: Welche Bereiche können einen signifikanten Uplift verzeichnen? Credits: Capgemini Consulting

Außerdem berichteten die Unternehmen, dass die Produktivität ihrer Mitarbeiter stieg, da sie nun in der Lage waren, sich um wichtige Aufgaben zu kümmern. Die meiste Zeit wird in vielen Betrieben noch mit repetitiven Aufgaben verschwendet, die sich eigentlich sehr gut automatisieren lassen. Ein weiterer Pluspunkt geht an die Aufbereitung und Darstellung von großen Datenmengen. Dort leistet die KI (oder eigentlich Business Intelligence / Analytics) eine wichtige Arbeit. Anhand von Zahlen (data-driven) kann man am besten über sein Business entscheiden. Das veranschaulicht Figure 2.

Figure 3: Wurden im Unternehme neue Jobs geschaffen? Wenn ja, welche Rollen wurden geschaffen? Credits: Capgemini Consulting

Oftmals wird die steigende Arbeitslosigkeit mit dem Einsatz von Künstlicher Intelligenz in Unternehmen in Verbindung gebracht. Ganz unberechtigt ist dieses Argument nicht, allerdings schafft der Einsatz von Künstlicher Intelligenz auch in vielen Bereichen neue Jobs. In 83% der Firmen sind neue Jobs entstanden. Hauptsächlich sind natürlich neue Managerrollen entstanden. Auch Direktoren- und Koordinatoren-Jobs sind entstanden. Maschinen und Technik muss nämlich gewartet und verwaltet werden. Alles in allem ist die Verteilung der neu entstandenen Jobs aber sehr heterogen, wie Figure 3 zeigt.

Figure 4: In welchen Bereichen/Sektoren der Wirtschaft wird bereits Künstliche Intelligenz eingesetzt? Credits: Capgemini Consulting

 

In dieser Studie konnten wir erstmals sehen, wie sich die Anwendung von Künstlicher Intelligenz auf ein Unternehmen auswirken kann. Viele Positionen von Experten waren dabei oft sehr extrem. Hier könenn wir nun erste Zahlen sehen. In Figure 4 illustriert, die Verteilung von KI-gestützten Unternehmen je Sektor.

 




 

 

Adikteev – Dynamische Anzeigen erstellen – Dynamic Creative Optimization

Immer mehr Anzeigen werden dynamisch erstellt. Dabei orientieren sich die Anzeigenmacher an den Informationen, die sie über den Nutzer sammeln konnten. Daten aus der Vergangenheit und seine demographischen Spezifikationen helfen einem Dynamic Creative Optimization (DCO) System dabei, eine Ad für ihn zu generieren.

Dabei geht es vor allem um die Optimierung von:

  • Call to Action
  • Hintergrund
  • Wahl des Produktfotos
  • Animationen
  • Sättigung und Farbgebung

Die Firma Adikteev entwickelt solch ein System. Dieses System soll laut Angaben eine 50% höhere Conversion-Rate gegenüber der Testgruppe erzeugen. Getestet wurde das System bereits bei Gaming-Apps und Content-Portalen. Weitere Infos gibt es hier.

 

Paper Review – Language Modeling, Deep vs. Diverse Architecture und Sentiment Analysis

Wir sind im Sommermodus. Aktuell basteln wir an einem Plan, wie wir euch ab Herbst weiter mit spannenden Artikeln aus der Machine Learning Szene begeistern können.

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

In Neural Networks Compression for Language Modeling werden RNNs komprimiert. Hier handelt es sich um RNNs, die verschiedene Text-Klassifizierungen durchführen. Das ist besonders wichtig für Mobile Devices, die dadurch mehrschichtige Netze effizienter abspeichern können. Bereits im Juli haben wir euch im Paper Reivew das Paper Towards Evolutional Compression vorgestellt – dort werden ähnliche Algorithmen verwendet. Hier gehts zum Paper.

Der Autor von Deep vs. Diverse Architectures for Classification Problems vergleicht verschiedene Netz-Architekturen für verschiedene Aufgaben. Es stellt sich heraus, dass sich für einige Aufgaben Deep-Learning-Architekturen besonders eignen. Allerdings lassen sich auch Aufgaben finden, die mit kleineren (unkomplexeren) Architekturen lösen lassen. Deep-Learning ist also nicht die sofort die Allzweckwaffe. Wofür ihr welche Algorithmen benutzen solltet, lest hier hier. Hier gehts zum Paper.

In Sentiment Analysis by Joint Learning of Word Embeddings and Classifier von Prathusha Kameswara Sarma und Bill Sethares wird Supervised Word Embeddings for Sentiment Analysis vorgestellt. Mit dieser Struktur erreichen sie auf verschiedenen Datenbanken in ihren Experiments den State-of-the-Art bezüglich AUC. In einigen Fällen sind sie damit sogar genauer als die aktuell bekannten Ergebnisse. SWESA ist dabei ein sehr flexibles Konstrukt. Hier gehts zum Paper.

 

Am Rand erwähnt

Paper Review – Sentence Generation und Sentiments mit Emojis

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

In SenGen: Sentence Generating Neural Variational Topic Model zeigen die Autoren, dass ein Satz die kleinste Einheit beim Topic Modeling ist. Im Gegensatz zu vielen anderen Modellen, die Bag of Words (also Wörter) benutzen, um ein Topic-Modell aufzubauen, verwenden wie einen Satz. in den Experimenten vergleichen sie ihren Ansatz gegen die aktuellen State-of-the-Art Ansätze: LDA, NVDM, NVLDA und ProdLDA. Hier gehts zum Paper.

Die Autoren von Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm haben versucht Texte auf Emojis zu mappen. Sie nutzen dabei große Datasets und vergleichen sich mit anderen auch sehr aktuellen Forschungsergebnissen. Hier gehts zum Paper.

 

Am Rand erwähnt

 

 

5 Sachen die Machine Learning für die Menschheit tun kann

In unserer Rubrik High Five stellen wir euch unsere Top-Liste zu einer bestimmten Machine Learning relevanten Kategorie vor. Diesmal haben wir uns angeschaut, was Machine Learning für die Menschheit tun kann. Wie wir das ganze sehen, lest ihr hier!

work-chinese-industrial-professional1. Uns von sinnlosen Jobs befreien

Viele von uns kennen diesen Moment im Job! Man wünscht sich einen Roboter, der einen monotone Arbeit abnimmt. Sowas kann gelingen. Monotone Arbeiten wie Bandarbeit sind meist nicht nur für unsere Psyche sehr anstrengend, sondern auch für unseren unseren Körper. Abnutzungserscheinungen an Knochen und anderen Körperteilen sind die Folge.

pexels-photo-2615012. Unsere Faulheit kompensieren

Ähnlich zu der monotonen Arbeit im Job, kann uns Machine Learning auch von monotonen Arbeiten im privaten Bereich befreien. Dabei sind die Vorlieben diverser als im Arbeitsleben. Während ein passionierter Gärtner lieber selbst gießt, kann der nicht vorhandene grüne Daumen von anderen Personen durch Sensoren und Sensormodelle kompensiert werden. Dabei ist Gärtnern nur ein Beispiel für viele Anwendungsbereiche.

pexels-photo-2481563. Vorhersagen über unsere Gesundheit machen

Durch statistische Verfahren können wir eine bestimmte Anfälligkeit für Krankheiten ermitteln. Das bedeutet, man kann Krankheiten behandeln, bevor sie auftreten. Damit wird unser Leben auch vorhersagbarer – dafür aber sicherer.

 

pexels-photo (3)

4. Unser Leben sicherer machen

Autonomes Fahren und vernetzte Verkehrssysteme werden es uns ermöglichen, sicherer ans Ziel zu kommen. Schon heut ist viel Machine Learning in Verkehrsleitsystemen und sogar Autos verbaut. Nicht nur auf der Straße gibt es dafür Anwendungen. Auch im Luft- und Wasserverkehrt werden smarte Systeme eingesetzt.

 

industry-sunrise-clouds-fog-39553

5. Die Umwelt schonen

Wieviel Müll wird wann und wo produziert? Wieviel Energie wird verbraucht, wieviel Energie muss zeit-/ortsbezogen erzeugt werden? Diese Fragen können uns smarte Netze beantworten, die sehr viele Daten gesammelt haben und somit die Umwelt schonen können. Es wird nur so viel Energie produziert, wie tatsächlich gebraucht wird und der Müll wird ebenfalls smarter entsorgt.




Natürlich gibt es noch weitere Anwendungsfälle. Machine Learning kann uns helfen, den Fokus auf wichtigere und komplexere Fragestellungen zu legen, die uns als Menschheit helfen und uns weiter bringen.

Der Reiz des Utopischen – Was sind Utopien?

Wo geht der Weg der Menschheit hin? Welche Rolle spielen unsere technischen Möglichkeiten dabei? Diese Fragen beschäftigen viele Forscher – nicht nur im Bereich Künstliche Intelligenz. Utopien sind dabei ein beliebtes Genre, den (oft extremen) Rahmen der Möglichkeiten abzustecken. Unser Gastautor Tino Polzin erklärt uns, warum wir mehr über Utopien lesen sollten.

Was sind Utopien?

Jeder von uns kennt den Ausdruck, dass etwas „utopisch“ ist und versucht damit den Umstand zu verdeutlichen, dass etwas unmöglich zu erreichen scheint. Obwohl der Begriff Utopie zu Zeiten der griechischen Hochkulturen so nicht existierte, stammt er doch aus dem Griechischen und bedeutet tópos „Ort“ und ou „nicht“. Wörtlich bedeutet Utopie „Nirgendsland“ oder „Nichtland“.

In einer Utopie möglich: Eine virtuelle Stadt, die sich von unser Vorstellung einer Stadt sehr weit entfernt hat.

In einer Utopie möglich: Eine virtuelle Stadt, die sich von unser Vorstellung einer Stadt sehr weit entfernt hat.

Utopien in der Literatur stellen gemeinhin eine ideelle Gesellschaft dar, die in einem mehr oder weniger isolierten Raum existiert. Diese imaginären Gemeinschaften stellen eine positive oder negative Entwicklung der real existierenden Welt dar. Kurz gesagt sind Utopien die Manifestation einer „möglichen Gesellschaft“ im Text. Die erste Utopie überhaupt stammt vom Philosophen Platon. In seinem Werk „Politeia“ (dt. „Der Staat“) aus dem Jahre 370 v. Chr. versucht er die Gerechtigkeit im Staat und die perfekte Ordnung der Gesellschaft zu entwickeln. In der Literatur gibt es neben den Utopien auch die Anti-Utopien (Dystopien). Romane also,  die sich mit dem Gegensatz einer ideellen Gesellschaft auseinandersetzen. Bekanntestes Beispiel hierfür ist der Roman „1984“ von George Orwell aus dem Jahre 1949.

Warum sollte man Utopien lesen?

Utopien klingen befremdlich oder idyllisch? Unsere Verantwortung ist es, sie zu verhindern oder herbeizuführen.

Utopien klingen befremdlich oder idyllisch? Unsere Verantwortung ist es, sie zu verhindern oder herbeizuführen.

Viele Autoren von Utopien entwickeln eigene Vorstellungen einer ideellen Gesellschaft und beziehen sich dabei meist mit einem satirisch-kritischen Unterton auf vorherrschende Gesellschaftsverhältnisse der jeweiligen Zeit. Damit geben utopische Romane dem Autor vergleichsweise viel Macht in die Hände, vor allem in Zeiten staatlicher Zensur. Für uns als Leser bietet sich hierbei die Möglichkeit, einen Einblick in die Gedanken des jeweiligen Autors zu bekommen. Zudem lassen sich mit dem nötigen Verständnis für die jeweilige Zeitepoche auch die Nuancen von Kritik und Satire an Missständen vergangener Gesellschaften erkennen.

Neben unterschiedlichen Utopien des perfekten Staates bietet auch die fortschreitende, technische Entwicklung genügend Möglichkeiten und Anlässe, sich mit dem Lesen utopischer/ dystopische Romanliteratur den Geist dafür zu öffnen, wo technische Entwicklungen enden können und ob dies im Sinne der Menschheit ist. Als Beispiel für die Auseinandersetzung von Technik in Utopien sei hier nur Aldous Huxleys „Schöne Neue Welt“ genannt. Huxley beschreibt in seinem Buch einen Weltstaat, dessen zentrales Wesensmerkmal die genetische Manipulation von Erbgut und Embryonen ist.

Utopien bieten trotz ihrer oftmals simplen Erzählstruktur ein Fenster in die Zukunft, durch das wir als Leser blicken können. Dabei können wir von dieser Zukunft fasziniert sein oder uns angewidert abwenden, aber wir sollten dabei nicht vergessen, dass jedes Fenster auch ein Spiegel sein kann.

Welche Utopien sind lesenswert?

  • Platon, „Politeia (dt. „Der Staat“), 370 v. Chr. – Warum: Erste Utopie überhaupt und prägender Entwurf für die Ordnung eines Staates und dessen Gesellschaft.
  • Thomas Morus, „Utopia, 1516 – Warum: Namensgeber des Utopiegenres, zudem auch kritische Auseinandersetzung mit der Zeit des 16. Jahrhunderts.
  • Aldous Huxley, „Schöne Neue Welt, 1932 – Warum: Ein Weltstaat, der durch genetische Kontrolle und glücklich machende Rauschmittel im wahrsten Sinne des Wortes glückliche Menschen erschafft.
  • George Orwell, „Nineteen Eighty-Four, 1949 – Warum: Die wohl bekannteste Dystopie überhaupt etablierte den „Big Brother“ und führt dem Leser vor Augen, was passiert, wenn die Überwachung total und absolut wird.
  • Dave Eggers, „The Circle, 2013 – Warum: In gewisser Weise übersetzt diese Mini-Dystopie den Roman „1984“ in unsere Zeit, in der ein Internetkonzern nicht nur das (digitale) Leben seiner Nutzer totalüberwachen will.

Zum Gastautor: Tino Polzin, Jahrgang ’90, studierte Philosophie, Geschichte und Psychologie an der TU Dresden sowie der FU Hagen. Aktuell beschäftigt er sich mit der Klassifikation von Utopien in der Literatur.

Paper Review – Kreativität messen, Language Models und CNN Kompression

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

A Machine Learning Approach for Evaluating Creative Artifacts von IBM Research India versuchen anhand von Film-Datenbanken und deren Kritiken zu erkennen, woran man Kreativität messen kann. Sie kommen zu dem Schluss, dass der Grad von “Unexpectedness” (also Unerwartbarkeit) mit der Kreativität eines filmischen Werkes korreliert. Hier gehts zum Paper.

Syllable-aware Neural Language Models: A Failure to Beat Character-aware Ones. Das Paper beschäftigt sich mit NLM (Neural Language Modeling). Es wird gezeigt das silbenbasierte Modelle zwar keine bessere Genauigkeit gegenüber vergleichbaren State-of-the-Art Modellen haben, allerdings reduzieren sie die Anzahl der Parameter und sparsamer bezüglich der Computation Time. Hier gehts zum Paper.

In Towards Evolutional Compression stellen die Autoren einen Algorithmus vor, der sich benutzen lässt, um aufwändige mehrschichtige Architekturen Neuronaler Netze so zu verkleinern, dass sie an die Genauigkeit der ursprünglichen Netze heranreichen. Die Motivation für diese Arbeit sehen die Autoren in dem größer werdenden Interesse, komplexe CNNs auch auf Smartphones zu benutzen. Hier gehts zum Paper.

Am Rand erwähnt

Apples Machine Learning Journal ist da!

Das Refiner Network. Quelle: Apples Machine Learning Journal / machinelearning.apple.com

Vor einiger Zeit hatte Apple angekündigt, mehr eigene Entwicklungen im Bereich Machine Learning publik zu machen. Jetzt scheint es so weit zu sein! Apple hat das Machine Learning Journal gelauncht. Sogar der erste Beitrag ist schon da. Der beschäftigt sich mit einem Refiner Network genanntem Modul. Dieses Modul hilft dabei, synthetische Datensätze realistischer zu machen, um damit große Datenmengen zu erzeugen. Diese werden zum Training von Machine Learning Anwendungen gebraucht.




Warum ist das nötig? Meist ist es sehr kostenintensiv, große Datenmengen mit Labeln zu erstellen. Daher kommt die Motivation auf synthetische (durch die Erstellung bereits gelabelt) Daten zurückzugreifen.

Hier geht es zur Leseempfehlung!

Mit einem Bot und Fotolia Geld verdienen

strange_phone_case2

Beispiel einer vom Bot erstellten Handyhülle mit StrapOn. Quelle: OnlineMarketingRockstars

Wie OnlineMarketingRockstars berichtet, hat der deutsche Software-Hersteller ToasterNet mit einem Nebenprojekt auf Amazon für Furore gesorgt. Mittels eines Bots wurden Designs von Handyhüllen erstellt. Die Fotos kamen vom Stockfotodienst Fotolia. Die Beschreibungen der Bilder soll ein Bot in Amazon-Suchbegriffe umgewandelt haben und so automatisiertes Suchmaschinenmarketing (SEA) betrieben haben. Insgesamt sollen dabei 30.000 Artikel (verschiedene Motive für verschiedene Handytypen) erstellt worden sein.

Beispiel einer vom Bot erstellten Handyhülle. Quelle: OnlineMarketingRockstars

Beispiel einer vom Bot erstellten Handyhülle. Quelle: OnlineMarketingRockstars

Auch etwas untypische Motive wie ein Strap-On oder ein Fußzehen, welche von Fußpilz befallen wurden, waren im Shop erhältlich. Ob der Bot nun aus dem Ruder lief oder Geschäftssinn bewies, bleibt noch zu klären.




Allerdings zeigt dieses Geschäftsmodell wiederum den aktuellen Trend, mit Arbitrage-Modellen Geld zu verdienen. Produkte werden über Ali Baba günstig eingekauft, mit einem eigenen Label oder Motiven versehen und dann auf Amazon teurer weiter verkauft.

Was ist Transhumanismus?

Der Transhumanismus an sich vereint viele Strömungen verschiedener Gruppierungen mit diversen Zielen. Diese Beschreibung ist nicht besonders präzise, aber sie zeigt, was Transhumanismus ist – vielschichtig. Dieser Artikel verfolgt das Ziel, etwas Licht ins Dunkle zu bringen. Dafür werde ich alle Eckpfeiler des Transhumanismus auflisten und kurz erklären, wie sie sich in das Thema einfügen. pexels-photo-128969Bevor wir aber damit starten, will ich nur kurz erklären, wie sich der Begriff zusammensetzt. Nämlich aus:

  • Trans (lat. “über” oder “hinaus”) und
  • Human (lat. “Mensch”).

Prinzipiell geht es darum, die Grenzen menschlicher Entwicklungsmöglichkeiten zu brechen und durch technische Optionen zu erweitern. Den Menschen “übermenschlich” denken – fasst es wohl am besten zusammen. Wird Friedrich Nietzsche dadurch wieder salonfähig? Es wird jedenfalls diskutiert, inwiefern seine Einflüsse der Philosophie des “Übermenschen” dem modernen transhumanistischen Gedanken ähneln. Diese Richtung lässt sich in die folgenden Strömungen einteilen:

  • Singularitarianismus – Das Ziel ist die Transzendenz der menschlichen Spezies durch die Erschaffung einer Superintelligenz. Im Endeffekt reden wir hier von einer biologischen Unsterblichkeit, da das Individuum selbst in der Lage ist, sich kontinuierlich zu verbessern.
  • Demokratischer Transhumanismus – Diese Strömung ist die moderateste von allen. Die Aktivisten wollen den menschlichen Fortschritt mit unserem gegenwärtigen, in der westlichen Welt etablierten, politischen System zusammenführen. Sozialdemokratie gemixt mit liberalerem Fortschrittsgedanken – so kann man den DT verstehen.
  • Extropianismus – Ihre Anhänger sind sehr radikal in ihren Theorien. Diese trägt starke posthumanistische Züge. Für sie gelten die 2 Grundsätze der Thermodynamik nicht – sie wollen keine Entropie, sie wollen Extropie. Vorallem aber richtet sich ihre Bewegung gegen Dekadenz, Alter, Tod und das damit einhergehende begrenzte jugendliche Leben. “Ewige Jugend und nur das nötigste zum Leben” – könnte der Leitspruch sein.

Diese Strömungen haben verschiedene Ziele. Die Eckpfeiler ihrer Theorien und Vorstellungen sind aber oftmals ziemlich identisch. Welche das sind, seht ihr hier:

  • Eugenik – Einer der schwierigsten Eckpfeiler im Transhumanismus ist unumstritten die Eugenik. Während in den früheren Ausführungen der Eugenik oft durch Kastration oder Sterilisiation die Richtung vorgegeben werden sollte, basieren die neusten Methoden darauf, schon vor der Geburt durch gezielte Genmanipulation für das Wohl des Individuums zu sorgen.
  • Prothesen / Exoskelette – Erweiterungen durch neue Körperteile und Körperextensionen, die dem Menschen helfen, verschiedene Aktionen verbessert auszuführen, als es ohne diese Prothesen oder Skelette möglich wäre. Dazu zählen auch Exoskelette die gesunde Menschen nutzen, um bspw. schwere Gegenstände zu heben oder um in Gefahrensituationen geschützt zu sein.
  • Bioethik – Zur Bioethik gehört hauptsächlich der Umgang mit unserer Umwelt und Umgebung. Dieses Thema wird sehr wichtig. Denn wenn sich die Menschheit von der Umwelt immer weiter emanzipiert, wird der Umgang mit der Umwelt wieder zum Thema werden. Verschiedene Ansätze existieren dabei, die bekanntesten: Deontologische Ethik (Kant), Kommunitarismus, Individualismus (liberaler Ansatz) und der Utilitarismus.
  • Kryonik / Gentechnik – Mit dem “Einfrieren von Stammzellen” beschreibt man oft das als Kryonik bekannte Gebiet. Aber das ist noch lange nicht alles. Es geht dabei auch um das Züchten von Zellen. Dabei arbeitet man im Bereich des Tissue Engineerings daran, Gehirngewebe zu replizieren sowie zu konservieren.
  • Neuroethik – Die Neuroethik befasst sich in ihrem Kern mit Fragen wie: Freiheit, Wille, Selbstbewusstsein und Persönlichkeit. Ein Teilgebiet der angewandten Neuroethik beschäftigt sich aber auch mit Neuro-Enhancements. Diese Verbesserungen des Gehirns können chemischer sowie technischer Natur sein. Letztere interessiert die Transhumanisten natürlich am meisten. Kommen wir nun zu einem der wichtigsten Werkzeuge für diese Enhancements.
  • Gehirn-Maschine-Interface – Hierbei geht es um eine Schnittstelle, die einen Computer mit dem Gehirn verbindet. Dabei können Backups gemacht werden, Analysen durchgeführt oder Updates eingespielt werden. Jedes Individuum soll mittels einer Schnittstelle verschiedene Fähigkeiten erlernen können oder Erinnerungen sichern können.
  • clinic-doctor-health-hospitalNanotechnologie – Wird in vielen Szenarien benötigt, beispielsweise als kleine Roboter in der Medizin. Diese Technik soll verschiedene smarte Systeme zur Verfügung stellen, die uns den Alltag erleichtern.
  • Roboter / Agenten – Viele Aspekte des Transhumanismus lassen sich überhaupt nur realisieren, wenn wir in unserer Umgebung eine Menge autonom arbeitende Systeme implementieren, die uns verschiedene Arbeiten abnehmen. Nur dann kommt unsere Zivilisation dazu, sich ein Upgrade zu verpassen.
  • Zukunftsforschung – Ein wichtiger Teil jeder Theorie bzw. Strömung im Bereich des Transhumanismus. Jede Theorie basiert auf einem Modell der Zukunft. Diese Modelle werden durch Roadmapping, Systemanalyse, Szenarienanalyse oder sogar mit der bekannten Methode 635 aufgestellt. Um die vorhin vorgestellten Strömungen in Tiefe zu begründen, sind solche Betrachtungen nötig.





Diese Eckpfeiler sind die Voraussetzungen und Stützen dieser Theorien. Allerdings gibt es aus verschiedenen Lagern immer wieder Kritik am Thema Trans- bzw. Posthumanismus (beides sollte man trennen, hier werden allerdings beide Positionen zusammen betrachtet).  Diese Kritiken werden nachfolgend auch stichpunktartig aufgeführt:

  • Kritik an der Existenz der Idee – Die Kritiker sprechen davon, dass es die Technologie für dieses Konzept des Transhumanismus niemals geben wird.  Ihrer Meinung nach, ist die Menschheit nicht fähig dazu, alle Voraussetzungen zu schaffen.
  • Kritik an der Vorhersagbarkeit – Geht in die ähnliche Richtung, wie die Kritik an der Existenz der Idee. Die Kritik wird allerdings um den Fakt erweitert, das die Zukunft schlecht vorhersagbar war, ist und sein wird. Transhumanistische Konzepte klingen zwar sehr einfach und offensichtlich, allerdings wissen wir, dass die Zukunft keineswegs so determiniert ist, wie sie in diversen Konzeptbüchern zu finden ist.
  • Kritik an der fehlenden Moral – Die transhumanistische Avantgarde interessiert sich meist nur für den technischen Fortschritt. Viele gesellschaftliche Aspekte wie Änderungen in der Politik, Gemeinwesen und Gesellschaft werden häufig ausgeblendet. Im Transhumanismus steht der Mensch im Mittelpunkt. Oft erhebt er garnicht den Anspruch, sich mit solchen Themen zu beschäftigen – sollte er aber!

Das war der kleine Einstieg in das Thema Transhumanismus. Wenn euch der Artikel gefallen hat, teilt ihn doch in eurem Netzwerk. Das nächste Was ist …. ? wird sich mit dem Thema Technokratie befassen.

 

Unsere Leseempfehlung zu dem Thema

Stefan Lorenz Sorgner zeigt in seinem Buch Transhumanismus – “Die gefährlichste Idee der Welt”, wie gefährtlich diese Idee tatsächlich sein kann. Er beleuchtet philosophische Gesichtspunkte und grenzt sich in seinem Buch stark von der Idee des Posthumanismus ab.

Welche Enhancements sind sinnvoll? Verlängerung der Lebensspanne, Verstärkung von empathischem Verhalten oder aber gleich die Amputation von einem schlecht funktionierenden Körperteil? Diese Fragen bewertet der Auto in seinem Buch, das man gelesen haben sollte. Hier gehts zum Buch.

Podcasts für Machine Teacher

In unserer Rubrik High Five zeigen wir euch unser Top 5 Ranking zu einer bestimmten Kategorie. In dieser Ausgaben haben wir uns Podcasts angeschaut. Das Lesen von Büchern ist nicht so euer Ding? Dann hört doch einfach mal hier rein. Viel Spaß!


1-QzMbmbhRIpGstQJcMV6S1w1. This Week in Machine Learning & AI

TWiML&AI bringt auf wöchentlicher Basis ein neuen Podcast zum Thema Machine Learning und Künstliche Intelligenz. Dabei werden nicht nur reine Machine Learning Themen besprochen, sondern auch öfter das bigger picture erläutert. Niveau: Fortgeschritten. Zum Podcast / Zur Webseite.

 

1-w1mAks253oWyFOXm2uGFLg2. Talking Machines

Einer der besten Podcasts zum Thema! Ein ausgezeichneter Host interviewt ausgezeichnete Gäste zum Thema Machine Learning. Dadurch das viele Gäste selbst in der Wirtschaft aktiv sind, können sie viele nützliche Einsichten in ihre Arbeit geben. Niveau: Fortgeschritten. Zum Podcast / Zur Webseite.

1-SrSCXTNvUHzENik8GMhsNQ3. Machine Learning 101

Dieser Podcast versteht sich eigentlich als Anfänger-Medium. Allerdings werden einige Themen auch sehr tiefgründig behandelt, so dass es auch für Fortgeschrittene interessant sein kann. Im Grunde ist es der beste Einsteiger-Pod. Niveau: Anfänger. Zum Podcast / Zur Webseite.

1-IIubHPYAypUV3_RES997Eg4. The Data Skeptic

Ein guter Einstieg in die Themen Data Science und Machine Learning. Es gibt hier Interviews mit Forschern und Praktikern zu hören. Niveau: Anfänger / Fortgeschritten. Zum Podcast / Zur Webseite.

 

1-j_3y1tnXwNRdS5yVb9YAhw

5. Linear Digressions

Katie Malone und Ben Jaffe sind eure Hosts und führen euch nicht nur durch Machine Learning Themen, sondern auch durch Fallstricke im Bereich Data Science. Sehr hörenswert. Niveau: Fortgeschritten. Zum Podcast / Zur Webseite.

 

Das war unsere High Five zum Thema Podcasts. Der Artikel hat euch gefallen, teilt ihn doch in eurem Netzwerk. Danke!

 

Wird Sentiment Analysis Produkt-Reviews vereinfachen?

3 Minuten Lesezeit | Stimmungen und Meinungen sind wichtig. Viele Firmen sammeln diese Informationen ihrer Kunden und werten sie aus. Produkt-Reviews sind seit jeher ein wichtiger Forschungsgegenstand der Sentiment Analysis. Bisher hat es aber noch kein System geschafft, Produkt-Reviews so aufzuarbeiten, dass das Lesen Spaß macht.

Sentiment Analysis beschreibt die Extraktion von Stimmungen aus beispielsweise Texten. Die ersten Ansätze beschränkten sich auf einen Dictionary-Ansatz, bei dem hinter jedem Wort ein bestimmter Sentiment-Wert lag, deren Summe am Ende berechnet wurde (positiv oder negativ). Um mehr textuellen Kontext aus den Worten und Phrasen zu bekommen, wurden N-Gram-Modelle genutzt. Damit konnte man beispielsweise Verneinungen und Phrase detektieren. Der aktuelle State-of-the-Art arbeitet mit Deep Learning Netzen (Beispiel: A Deep Neural Architecture for Sentence-level Sentiment Classification in Twitter Social Networking).

pro-vs-con

Beste Pro vs. Contra Bewertung des Buches “Homo Deus“. Quelle: amazon.com

Dadurch wird die Sentiment Analysis immer robuster. Es ergeben sich viele Anwendungsfelder, die vorher nicht möglich waren. Ein spannendes Feld sind Produkt-Reviews. Jeder kennt es, jeder hasst es. Produkt-Reviews sind meist nach Sternen sortiert. Trotzdem können die Texte der Reviews einen positiven sowie negativen Teil enthalten. Will man verstehen, warum eine Sternebewertung zustande kommt, muss man den kompletten Text lesen.

Die Lösung: Eingefärbte Textstellen (positiv / negativ) würden das Lesen und Reviews vereinfachen und schnellere Kaufentscheidungen forcieren. Es hätte also einen positiven Effekt für den Käufer sowie den Händler.

block-review

Ein spannendes Review (Homo Deus) das von vielen Usern sicher ungelesen bleibt. Quelle: amazon.com

Für wen lohnt es sich?

Von farblich aufgearbeitete Reviews könnten alle Akteure profitieren:

  • Plattformbetreiber – Reviewer können weiterhin ausführliche Reviews schreiben, denn diese werden für sie aufgearbeitet. Es wird also mehr Aktivität erzeugt.
  • Reviewer – Können sich auf den Inhalt konzentrieren, das die Formatierung für sie erledigt wird. Da mehr Leute ihre ausführlichen Reviews lesen, werden sie dadurch beflügelt, mehr Content zu liefern.
  • Händler – Kriegt die Reviews für sein Produkt besser aufgearbeitet und kann gegensteuern bzw. besser an den die Kontrapunkten seines Produktes arbeiten.





Blut geleckt?

Du hast Blut geleckt und willst dich mit Sentiment Analysis beschäftigen. Hier zeigen wir dir, was du tun must:

  1. Lies diesen Artikel 😉 der Klassiker (hier)
  2. Schau dir die Demo an und beschäftige dich mit den Dokumenten (hier)
  3. Videos, Videos, Videos! Dan Jurafsky und Chris Manning auf Youtube (hier)
  4. Was ist State of the Art? Wir sagen es euch im Science Radar

Wird Dynamic Pricing das Online Business revolutionieren?

Die ersten Algorithmen, die sich mit dynamischen Preisen befassten, waren noch sehr rudimentär. Durch die Medien ging 2011 ein fataler Fehler beziehungsweise ein potentieller Lucky Shot. Zwei Drittanbieter haben auf Amazon das gleiche Buch angeboten. Der simple Algorithmus konnte damals noch überlistet werden und das Buch kostete 23 Mio. US-Dollar.

Mehr Abschlüsse durch Kompensation

money-coins-stack-wealth-50545Sowas darf natürlich nicht passieren – aber es passierte – warum? Die ersten Algorithmen zu diesem Thema widmeten sich vor allem der Konkurrenz. Wie viel Geld wird verlangt, wie lange gilt das Angebot, gibt es Rabatte oder Aktionen? Nach dem man sich von dieser Denkweise gelöst hat, wendete man sich dem Käufer zu. Dynamische Preise wurden für verschiedene Segmente, meist basierend auf soziografischen Eigenschaften, ausgespielt. Falls man von diesen Algorithmen profitiert, hat man sicherlich nichts dagegen etwas zu sparen. Findet man sich aber auf der anderen Seite wieder und muss mehr bezahlen, findet man das ganze sicherlich nicht so spaßig. Denn dort, wo man Low-Segment-Käufer gewinnt (niedrigere Gewinne macht), muss man mehr aus den High-Segment-Käufern herausholen (um niedrigere Gewinne zu kompensieren).

The Bigger Picture

 

 

pexels-photo-236093Zusammen mit der Entwicklung des persönlichen Home-Assistenten kann das ein spannendes Szenario werden. Wenn der Algorithmus lernt, dass einige Käufer wenig Zeit mit Preisvergleichen verbringen und lieber Produkte über den Home-Assistenten bestellen, wird er zum Pokerspieler. Er spekuliert auf ein bestimmtes Verhalten und macht einen guten Deal. Das Bestellen von Lebensmitteln wird dadurch auch zu einem Pokerspiel, wenn in der Zukunft automatisch bestimmte Produkte nachgekauft werden sollen.




Interessant?

Du fandest das spannend? Hier gibt es eine absolute Empfehlung zu einem Radio-Interview (englisch) mit Sven Brodmerkel (Professor, Bond University), Max Daniel (Executive Director, FRI Berlin) und Steve Wise (President,  Nonhuman Rights Project) mit dem Titel: Dynamic pricing – and should AI be granted “legal personhood”. Außerdem wird es demnächst  im Science Radar auch Updates zum Thema Dynamic Pricing geben.

Semantic Analysis mit Rhetoric Structure Theory

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

Takeaways – Was ist neu

Bisherige Ansätze für Sentiment-Analyse nutzten entweder klassische Maschine-Learning-Verfahren oder aber Deep Learning mit regulären LSTM (Long Short Term Memory) Komponenten. Dieser Ansatz tauscht herkömmliche LSTMs mit, auf Rhetoric Structure Theory basierenden, RST-LSTM. Dadurch kann ein Uplift in der Genauigkeit erzielt werden. Hier gehts zum Paper.

Takeaways

  • Durch die Rhetoric Structure Theory ist es möglich, das Netz noch besser zu machen.
  • RST-LSTM werden anstatt linear in eine Baumstruktur geschalten. Dadurch können sie auch komplexere Texte verarbeiten.

Worum geht es

Der Aufbau der Experimentation-Pipeline. Auch die Optimierungsschritte "Leaf insertion" und "Node reordering" sind zu sehen. Quelle: Figure 3 of Sentiment analysis based on rhetorical structure theory: Learning deep neural networks from discourse trees

Der Aufbau der Experimentation-Pipeline. Auch die Optimierungsschritte “Leaf insertion” und “Node reordering” sind zu sehen. Quelle: Figure 3 of Sentiment analysis based on rhetorical structure theory: Learning deep neural networks from discourse trees

Im Gegensatz  zu vielen herkömmlichen Ansätzen wie N-Grams oder Bag-of-Words im Bereich der Sentiment Analysis (Stimmungsanalyse, Emotionsanalyse) benutzen die Autoren sogenannte “Discourse Trees”. Das bedeutet, es werden Phrasen nach semantischen Gesichtspunkten in einen Entscheidungsbaum gehangen und dann mit emotionalen Werten und Polarität versehen. Die Struktur nennen die Autoren RST-LSTM (Rhetoric Structure Theory – Long Short Term Memory). Dabei wird die natürliche Sprache in sogenannte EDUs (Elementary Discourse Units) hierarchisch eingeteilt.  Solche Strukturen haben sich bereits beim Zusammenfassen von Zeitungsartikeln bewährt.

rst-lstm-003

Links sieht man eine herkömmliche LSTM-Struktur. Rechts sieht man die hierachische Struktur wie sie in diesem Ansatz genutzt wird. Quelle: Figure 7 of Sentiment analysis based on rhetorical structure theory: Learning deep neural networks from discourse trees

Es wird ein neuronales Netz benutzt, das diese Abwandlung dieser LSTM-Struktur beherbergt und das somit mehr Kapazität für komplexe Discourse hat als herkömmliche Netze.

 

Experimente & Daten

Es wurden zur Evaluation zwei Datensets herangezogen:

Der vorgestellte Ansatz wurde mit den aktuellen State-of-the-Art-Methoden verglichen. Durch verschiedene Veränderungen an Parametern sowie der Struktur der Discourse Trees konnte ein besseres Ergebnis erzielt werden. Auf dem IMDb Datenset erreicht der Ansatz lt. F1-Score: 84.9 % sowie auf dem Rotten Tomato Set: 79,6 % F1-Score. Das bedeutet ein Uplift zur Baseline von 4.33 % und 3.16 %.

Fortführend

Aktuell werden die Trees noch manuell angepasst. Zukünftig könnte man die Autoencoder der EDUs viel spezifischer nach verschiedenen Trainingsepochen anpassen und somit eine bessere Codierung erreichen.

Lust zu lesen? Hier gehts zum Paper.

Ähnliche Arbeiten

  • K. Xu, S. S. Liao, J. Li, Y. Song, Mining comparative opinions from 32 customer reviews for competitive intelligence, Decision Support Systems 50 (2011) 743–754.
  • A. Bhattacherjee, An empirical analysis of the antecedents of electronic commerce service continuance, Decision Support Systems 32 (2001) 201– 214.
  • B. Pang, L. Lee, Seeing stars: Exploiting class relationships for sentiment categorization with respect to rating scales, in: Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics (ACL ’05), 2005, pp. 115–124.
  • X. Yu, Y. Liu, X. Huang, A. An, Mining online reviews for predicting sales performance: A case study in the movie domain, IEEE Transactions on Knowledge and Data Engineering 24 (2012) 720–734.
  • S. Tirunillai, G. J. Tellis, Does chatter really matter? Dynamics of usergenerated content and stock performance, Marketing Science 31 (2012) 198–215.
  • S. Feuerriegel, H. Prendinger, News-based trading strategies, Decision Support Systems 90 (2016) 65–74.
  • N. Pröllochs, S. Feuerriegel, D. Neumann, Negation scope detection in sentiment analysis: Decision support for news-driven trading, Decision Support Systems 88 (2016) 67–75.
  • H. Rui, Y. Liu, A. Whinston, Whose and what chatter matters? The effect of tweets on movie sales, Decision Support Systems 55 (2013) 863–870.

PatternNet & PatternLRP – UnBlackboxing von Neuronalen Netzen

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

Main Takeaway – Was ist neu

Neuronale Netze werden häufig als Black-Boxen gesehen. Man kann die Entscheidungen des Klassifikators nicht so einfach einsehen, wie man das gern möchte. Um diese Einschränkungen aufzuheben, stellen die Autoren in dem Paper die beiden Systeme PatternNet und PatternLRP vor. Hier gehts zum Paper.

Takeaways

  • Die Gewichte im ersten Layer zwischen Input Space und ersten Hiddenlayer sagen nicht aus, wie wichtig ein Feature ist.
  • Es gibt verschiedene Ansätze, um den Zusammenhang zwischen Input und Output in neuronalen Netzen sichtbar zu machen.

Worum geht es

patternnet-002

Verschiedene Ansätze, um Zusammenhänge von Input und Output zu visualisieren. Quelle: Figure 1 – PatternNet and PatternLRP Improving the interpretability of neural networks

Um dem Thema näher zu kommen, werden zuerst lineare Modelle beleuchtet und bereits existierende Explanation-Methoden vorgestellt. Danach wird eine Objective Function zur Messung der Qualität von Neuronweisen Explanation-Methoden eingeführt. Basierend darauf werden zwei neue Systeme eingeführt.

Um Klassifikatorentscheidungen sichtbar zu machen, werden Methoden benutzt, die eine Rückprojektion in den Input-Space möglich machen u.a. saliency maps (Aktivierungsmuster), DeConvNet, Guided BackProp (GBP), Layer-wise Relevance Propagation (LRP) und Deep Taylor Decomposition (DTD).

Dafür werden die beiden Systeme PatternNet und PatternLRP vorgeschlagen. Diese unterschieden sich in der Form der Ausgabe und benutzen jeweils verschiedene Methoden, um beispielsweise Rauschen zu minimieren.

Experimente & Daten

patternnet-001

Man sieht den Vergleich verschiedener Verfahren sowie deren Output (Experiment: Qualitative evaluation). Quelle: Figure 7 – PatternNet and PatternLRP Improving the interpretability of neural networks.

Die Autoren haben 3 verschiedene Experimente durchgeführt. Größtenteils beschränkt sich die Auswertung aber auf ein qualitative Auswertung der Daten.

 

  • Measuring the quality of signal estimators – Anhand einer Correlation-Metrik wird gemessen, wie gut die Muster wiedererkannt werden. Als Baseline dient dabei eine Zufallsschätzung.
  • Image degradation – Das Bild wird in 9×9 Pixel große Patches zerlegt. Danach wird die Aktivierung der der Heat-Map als Zahl gemessen und die Patches nach dem Grad der Aktivierung absteigend geordnet.
  • Qualitative evaluation – Existierende und die beiden vorgestellten Verfahren wurden an den selben Bildern getestet und durch Visual Inspection (Ansehen der Bilder) die Qualität entschieden.




Fortführend

Für fortführende Arbeiten und Experimente bietet das Paper keine Perspektive.

Lust zu lesen? Hier gehts zum Paper.

Ähnliche Arbeiten

  • Matthew D Zeiler and Rob Fergus. Visualizing and understanding convolutional networks. In European Conference on Computer Vision, pages 818–833. Springer, 2014.
  • Jost Tobias Springenberg, Alexey Dosovitskiy, Thomas Brox, and Martin Riedmiller. Striving for simplicity: The all convolutional net. In ICLR, 2015.
  • Luisa M Zintgraf, Taco S Cohen, Tameem Adel, and Max Welling. Visualizing deep neural network decisions: Prediction difference analysis. In ICLR, 2017
  • Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. In ICLR, 2014.
  • Jason Yosinski, Jeff Clune, Thomas Fuchs, and Hod Lipson. Understanding neural networks through deep visualization. In ICML Workshop on Deep Learning, 2015.
  • Anh Nguyen, Alexey Dosovitskiy, Jason Yosinski, Thomas Brox, and Jeff Clune. Synthesizing the preferred inputs for neurons in neural networks via deep generator networks. In Advances in Neural Information Processing Systems, pages 3387–3395, 2016.
  • David Baehrens, Timon Schroeter, Stefan Harmeling, Motoaki Kawanabe, Katja Hansen, and Klaus-Robert Muller. How to explain individual classification decisions. ¨ Journal of Machine Learning Research, 11(Jun):1803–1831, 2010.
  • Sebastian Bach, Alexander Binder, Gregoire Montavon, Frederick Klauschen, Klaus-Robert ´ Muller, and Wojciech Samek. On pixel-wise explanations for non-linear classifier decisions by ¨ layer-wise relevance propagation. PloS one, 10(7):e0130140, 2015.
  • Gregoire Montavon, Sebastian Lapuschkin, Alexander Binder, Wojciech Samek, and Klaus- ´ Robert Muller. Explaining nonlinear classification decisions with deep taylor decomposition. ¨ Pattern Recognition, 65:211–222, 2017.

NeuroNER – Named Entity Recognition

In unserer Rubrik Paper Review stellen wir euch aktuelle Paper aus dem Bereich Machine Learning vor. Wir fassen für euch das Wesentliche zusammen und ihr entscheidet selbst, ob ihr das Paper lesen wollt oder nicht. Viel Spaß!

Was ist neu

Die Autoren präsentieren einen Ansatz, der Deep Learning für den klassischen Named Entity Task benutzt. Dabei geht es darum, Orte, Personen und andere Entitäten in Texten zu finden. Außerdem stellen sie mit BRAT einen visuellen Annotator vor. Hier gehts zum Paper.

Worum geht es

training-neuroner

Trainingsprozess von NeuroNER. Figure 1 aus NeuroNER: an easy-to-use program for named-entity recognition based on neural networks

Named Entity Recognition ist eine Aufgabe, die meist auf Corpora beruht, die mühevoll annotiert wurden. Diese Corpora werden in Modelle umgewandelt und meist nicht mitgeliefert. Das macht eine erneute Annotation beziehungsweise eine erweiterte Annotation sowie ein darauf folgendes Re-Training der Modelle unmöglich. NeuroNER bietet diese Möglichkeit. Es besteht aus 2 Komponenten:

  • NeuroNER Modell – Ein Deep Learning Netz, basierend auf einer bestimmten Variante von RNNs (Recurrent Neural Networks) die sogenannten LSTM (Long Short Term Memory) mit 3 Ebenen: Character-enhanced token-embedding layer, Label prediction layer & Label sequence optimization layer.
  • BRAT – Ein webbasiertes Annotations-Tool für Trainingsdaten. Das Tool ermöglicht es, sehr schnell neue Annotationen zum Korpus hinzuzufügen.
prediction-neuroner

Prediction und Evaluation. Figure 1 von NeuroNER: an easy-to-use program for named-entity recognition based on neural networks

Bei NeuroNER liegt der Fokus auf Usability. Durch ihr Annotationstool und die enge Verzahnung zum Modelltraining gelingt das den Autoren auch besser als den bisherigen Ansätzen.. Es existieren schon einige vortrainierte Modelle, die man nutzen kann. Die Visualisierung des Trainings kann Live eingesehen werden. Dafür bringt das Tool eigene Graphen mit. Außerdem kann TensorBoard benutzt werden – eine webbasierte Software von Tensorflow, um das Training zu kontrollieren und Insights zu erlangen.

Experimente & Daten

Die Experimente sind nicht sehr umfangreich. Es existiert ein Vergleich mit dem aktuellen State-of-the-Art Ansatz:

  • State of the Art [Passos et al.] –  CoNLL 2003: 90.9%, i2b2: 97.9%
  • NeuroNER – CoNLL: 90.5%, i2b2: 97.7%

auf den zwei Datensätzen CoNLL und i2b2. Dabei schneidet NeuroNER nicht signifikant besser oder schlechter ab. Im Vergleich zu dem State of the Art von Passos et al. bietet NeuroNER allerdings eine durchsichtigere Architektur sowie das visuelle Annotations- und Trainings-Tool.




Fortführend

Für fortführende Arbeiten und Experimente bietet das Paper keine Perspektive.

Lust zu lesen? Hier gehts zum Paper.

Ähnliche Arbeiten

  • Guergana K Savova, James J Masanz, Philip V Ogren, Jiaping Zheng, Sunghwan Sohn, Karin C KipperSchuler, and Christopher G Chute. 2010. Mayo clinical text analysis and knowledge extraction system (ctakes): architecture, component evaluation and applications. Journal of the American Medical Informatics Association 17(5):507–513.
  • HC Cho, N Okazaki, M Miwa, and J Tsujii. 2010. Nersuite: a named entity recognition toolkit. Tsujii Laboratory, Department of Information Science, University of Tokyo, Tokyo, Japan .
  • William Boag, Kevin Wacome, Tristan Naumann, and Anna Rumshisky. 2015. Cliner: A lightweight tool for clinical named entity recognition. American Medical Informatics Association (AMIA) Joint Summits on Clinical Research Informatics (poster) .
  • Robert Leaman, Graciela Gonzalez, et al. 2008. Banner: an executable survey of advances in biomedical named entity recognition. In Pacific symposium on biocomputing. volume 13, pages 652–663.