#decompiled20 – DecompileD – Die Entwicklerkonferenz in Dresden

#decompiled20 – DecompileD – Die Entwicklerkonferenz in Dresden

Am 27. März findet zum 2. Mal die Entwicklerkonferenz DecompileD in Dresden statt. Im OSTRA-DOME werden dann Hunderte Developer und Software Engineers, aber auch Startup-GründerInnen, StudentInnen, Product Owner sowie EntscheidungsträgerInnen der IKT-Branche erwartet. Zahlreiche namhafte Unternehmen, wie Google, Amazon Web Services, Flix Bus, Vodafone, Cloud & Heat, Wandelbots u.v.m., sind mit eigenen SpeakerInnen und ExpertInnen vor Ort. Selbst aus Norwegen und Israel reisen SprecherInnen an. In insgesamt 26 Beiträgen in zwei Tracks beleuchten Spezialisten ihres Fachs im Rahmen der sächsischen Anwenderkonferenz unterschiedliche Aspekte in den Bereichen Mobile, Cloud Engineering sowie Machine Learning.

Die Softwaresparte wächst. Und das nicht nur in Sachsen. Kaum ein Bereich – ob in Industrie, Wirtschaft, Wissenschaft, Forschung oder öffentlicher Hand – kommt heute noch ohne jene Zeilen Code aus, die Maschinen effizient, Roboter handlungsfähig, Autos multimedial, das Internet interaktiv oder das eigene Handy smart machen. Developer und Software Engineers, einst eher abfällig als Nerds umschrieben, sind inzwischen heiß begehrt – teils echte Stars, auch außerhalb ihrer Szene. Gegenwart und Zukunft brauchen smarten Code. Den Herausforderungen von morgen wird schon heute digital begegnet.

Ein Indiz: Allein in Sachsen verdoppelte sich die Mitarbeiterzahl des Bereiches Software in den vergangenen zehn Jahren in etwa von 12.000 in 2008 auf 28.000 in 2018. Tendenz: Weiterhin stark steigend.

Grund genug für LOVOO, einem der namhaften Softwareanbieter des Freistaates Sachsen, 2018 erstmals ein eigenes Standortevent für die Branche zu schaffen. 270 TeilnehmerInnen machten die DecompileD in ihrem Premierenjahr aus dem Stand zum Erfolg. Damals noch im Parkhotel Dresden sah sich die Entwicklerkonferenz als die Plattform um Fragen wie:

  • Wie migriert man eine Plattform zur AppEngine von Google?
  • Welche Herausforderungen gibt es bei der Virtualisierung in die Cloud?
  • Welchen Einfluss hat Big Data und darauf basierende Analysen auf den Unternehmensalltag?
  • Welche Rolle wird Machine Learning auf dem Smartphone künftig spielen?

zu beantworten. Die DecompileD 2020 widmet sich nun den neuestens Trends. Ob AI-based Algorhythms, Cognitive Business, Robotics, Kotlin Multiplatform, Azure, API Management, Kubernetes, Flutter, Mobile Development oder BigData Migration – das Programm der DecompileD 2020 lässt kaum Entwicklerwünsche offen.

In diesem Jahr sind SpeakerInnen wie z.B.:

  • Nils Heuer, Global Solutions Architect Volkswagen Group | Amazon Web Services
  • Martin Splitt, Developer Advocate | Google
  • Vladimir Jovanovic, Senior Android Engineer | Flixbus
  • Lilli Landmann, Design Operator | Startnext GmbH
  • Julian Eberius, Senior Architect – Big Data | Vodafone Group Plc
  • Mey Beisaron, Backend Developer | AppsFlyer Inc.
  • Christoph Biering, Head of AI & Co-Founder | Wandelbots GmbH
  • Sven Malvik, Team Lead Cloud Platform | Vipps AS
  • Toni Das, Machine Learning Engineer | AI4BD Deutschland GmbH

dabei. Das Programm der DecompileD 2020 ist bereits online. Die Anmeldung läuft auf vollen Touren. Nutzen auch Sie die Möglichkeit, sich am 27. März im OSTRA-DOME Dresden, sich hochkarätig zu vernetzen. Sichern Sie sich noch heute Ihr persönliches Veranstaltungsticket.

DecompileD Conference auf einen Blick

  • Datum: Freitag, 27. März 2020
  • Ort: OSTRA-DOME & Studios, Zur Messe 9 A, 01067 Dresden
  • Themen / Tags: Mobile, Cloud, Machine Learning / Fachkonferenz, Tech, Event, Dresden
  • Detaillierte Informationen und Tickets: https://www.decompiled.de

DecompileD Conference in den Social Media

Weiterführende Links

www.decompiled.de  

 

Pressemitteilung vom Silicon Saxony.

Foto: DecompileD 2018

Travis Bott – Künstliche Intelligenz meets Hip Hop

Travis Scott (ein HipHop-Künstler) hat zusammen mit seiner Agentur einen Song von einem Deep Learning Netz generieren lassen. Dabei wurde das Netz mit Texten und Videos von Travis Scott trainiert. Die generierten Lyrics hören sich zwar nach Travis Scott an, besitzen aber an einigen Stellen keinen Zusammenhang und sind Unsinn. Der Songtitel lautet: “Jack Park Canny Dope Man“.

Trotzdem fand das Netz einen Weg, den Stil von Travis Scott identisch zu kopieren. Am Ende des Tages bleibt TravisBott ein cooler PR-Coup der Agentur space150. Aber der PR-Coup bringt die Diskussion wieder auf, wie gut KI heutzutage schon menschliche Kunst adaptieren beziehungsweise imitieren kann.

Unter Music Processing Data Sets haben wir Datensets für euch vorbereitet, falls auch ihr einen Travis Bott bauen wollt.

 

 

Mit LotsOfBots Warehouse Roboter vergleichen

Lange war die Lage in der Logistik-Robotik (insbesondere AGVs) unübersichtlich und sehr fragmentiert. Mit Lots Of Bots kann man nun erstmals alle auf dem Markt erhältlichen Logistik-Roboter vergleichen. Dabei sind insbesondere Roboter für die Kommissionierung, Picking, Reinigung bzw. dem Transport von Kisten, Paletten und Wagen gemeint.

Der Vergleich der Roboter bezieht sich dabei auf vorhandene Zertifizierungen, Sensoren und generelle Ausrüstung der Roboter.

Die auf Lots Of Bots gelisteten AGVs (Autonomous Guided Vehicles) gelten als Revolution in der Logistik. Frühere Transportsysteme fuhren auf Schienen oder aufgeklebten Strecken (mit Markern). Durch AGVs wird es erstmals möglich, Warehouses flexibel und autonomer Arbeiten zu lassen.

Auch ihr wollt schnell und zuverlässig eine Übersicht über den Markt der AGVs bekommen, dann kommt ihr hier zum Robot Finder von Lots Of Bots.

Die Chatbot Euphorie sinkt

Viele Geschäftsmodelle wurden seit 2015 umgedacht. Chatbots kamen auf und stellte für viele Unternehmen erstmal einen spannenden Acquisition Chanel da.  Fünf Jahre später stellen einige dieser Unternehmen fest, dass der Chatbot vielleicht doch nicht so optimal ist. Ähnlich geht es auch dem Startup Storyliner, die anfangs das Problem des “Leeren Blattes” in der Content Creator Branche lösen wollten. Es stellte sich heraus, dass Kunden u.a. zu wenig Fokus auf einen Chatbot legen und bereits nach wenigen Minuten die Konzentration schwindet. Das Interview mit den Gründern lest ihr hier.

Wofür eignen sich Chatbots? In den vergangenen Jahren wurden immer häufiger Chatbots für verschiedene Use Cases eingesetzt, darunter:

  • On-Boarding von Nutzern für diverse Plattformen
  • Schnellerer Sales Prozess
  • Optimierung von Customer Service Prozessen
  • Abfrage von Informationen über APIs im Hintergrund
Nachdem Chatbots oft als der Kanal der Zukunft gehypt wurden, stellt sich nun heraus, dass diese Technologie noch einige Zeit brauchen wird, bis sie die nötige Akzeptanz findet.
Aber welche Verbesserungen werden Chatbots letztendlich zum Siegeszug verhelfen?

Buch-Tipps zum Thema Chatbots

6 Mythen zum Thema Deep Fakes

Das Center for Data Ethics and Innovation hat einen Report über das Thema Desinformation und DeepFakes veröffentlicht. Der Report bietet vieles! U.a. wird gezeigt, wie Deep Fakes enstehen und wie sich falsche Informationen verbreiten. Darauf werde ich in anderen Beiträgen zurückkommen. Hier geht es um die 6 Mythen zum Thema Deep Fakes.

(Extrahiert aus dem Report: Snapshot Paper – Deepfakes and Audiovisual Disinformation)

Deep Fakes treten vorwiegend in Form von Gesichtsaustausch in Videos auf. 

Realität: Es gibt vier Typen von Deep Fakes: Gesichtsersatz, Gesichtsnachstellung, Gesichtserzeugung und Audiosynthese.

Deepfakes tauchen auf Social-Media-Plattformen in großer Zahl auf

Realität: Auf Social-Media-Plattformen sind nur wenige politische Deepfakes aufgetaucht. Die Anzahl der gefälschten pornografischen Videos gibt jedoch Anlass zur Sorge.

Jeder kann ausgefeilte Deepfakes erstellen, die die Messlatte der Glaubwürdigkeit sprengen. 

Realität: Während unterstützende Software wie FakeApp es mehr Menschen ermöglicht hat, sich mit Deepfakes zu beschäftigen, erfordert die hochqualitative Audio- und Bildsynthese immer noch beträchtliches Fachwissen.

Die beste Methode zum Erkennen von Deepfakes besteht in physiologischen Tests (dem “Eye Blinking”-Test).

Realität: Die physiologische Untersuchung von Videos kann langsam und unzuverlässig sein. Für ein systematisches Screening von Deepfakes sind AI-basierte Tools erforderlich, mit denen die Erkennung gefälschter Inhalte teilweise automatisiert werden kann. Die Tools müssen außerdem regelmäßig aktualisiert werden.

Neue Gesetze sind eine schnelle Lösung für den Umgang mit Deepfakes. 

Realität: Versuche, Gesetze gegen Deepfakes zu erlassen, können sich als wirkungslos erweisen, da es sehr schwierig ist, die Herkunft der behandelten Inhalte zu bestimmen. Die Gesetzgebung könnte auch den nützlichen Einsatz visueller und akustischer Manipulationen gefährden.

Deepfakes sind wie mit Photoshop erstellte Bilder. Die Menschen werden sich an sie gewöhnen. 

Realität: Dies ist eine Annahme, keine Tatsache. Es gibt nur unzureichende Untersuchungen darüber, wie Deepfakes das Verhalten und die Überzeugungen der Zuschauer beeinflussen.

Machine Learning für Manager

Machine Learning kann für Nicht-Techies, Anfänger und Manager oft eine harte Nuss sein. In unserer neuen Tour wollen wir deshalb dabei helfen, diese Nuss zu knacken. Oftmals sind Management-Entscheidungen zu treffen, bei denen Manager zumindest eine Ahnung von den Abläufen und Prozessen haben wollen.

In 6 kurzen Kapiteln werden die grundlegendsten Begriffe angesprochen und in verständlicher Sprache erklärt. Diese Kapitel beinhalten alles, was man wissen muss, um mit Engineers und Datenspezialisten zu diskutieren.

  • Entscheidung für den Typ der Anwendung
  • Das besorgen der Daten
  • Das Erstellen der Feature-Repräsentation
  • Prototyping des Feature-Vektors
  • Auswahl eines Verfahrens für die Implementation
  • Anschließendes Messen der Ergebnisse

Hier geht es zur Tour Machine Learning für Manager.

Human Digitale Teams in der Wirtschaft

Von Human-digitalen Teams spricht man, wenn man Teams meint, die einen oder mehrere digitale “Kollegen” haben. Das sind in der Regel Helfer mit Künstlicher Intelligenz, die eine spezielle Aufgabe effizienter lösen können, als ihre menschlichen Kollegen. Oftmals sind diese Aufgaben dann entweder datenintensiv oder sehr komplex.

Digitale intelligente Helfer geben dabei meistens Empfehlungen oder zeigen die Implikationen von bestimmten Entscheidungen auf. In der heutigen Industrie sind immer mehr solcher Helfer aktiv in den Arbeitsprozessen dabei.

Beispiele für Digitale Helfer

  • Risikoabschätzung bei Investment-Entscheidungen
  • Bildgebende Verfahren im OP-Saal
  • Digitale Assistenzsysteme (Siri, Cortana, etc.) für Termine und Erinnerungen
  • Intelligente Suchsysteme auf großen Datenmengen
  • Entscheidungen im Bereich Business Analytics
  • Assistenten zur optimierten Planung von Arbeitsaufwänden

Wie spricht man Digitale Helfer an?

Digitale Helfer spricht man beispielsweise über ein Text-Interface (Chatbot), über eine grafische Oberfläche oder ein Sprach-Interface an. Aktuell arbeitet man dabei meist in der Befehlsform, um schnell an eine Antwort oder eine Empfehlung zu gelangen.

Entwicklung von Digitalen Kollegen

Immer mehr Firmen in der Industrie und im Dienstleistungsbereich nutzen Digitale Assistenten / Helfer dafür, um sich auf die wichtigen Aufgaben und ihr Kerngeschäft zu fokussieren. Durch das Erfassen von Daten und Machine Learning werden immer mehr Aufgabenfelder gefunden, in denen sich der Einsatz dieser Assistenten lohnt.

Buch-Tipps für das Thema “Human-digitale Teams”

Wann überholt die Maschine den Mensch?

Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang und Owain Evans haben in ihrer Arbeit: “When Will AI Exceed Human Performance? Evidence from AI Experts” verschiedene KI Experten auf dem gesamten Globus um Schätzungen zu verschiedenen Fragestellungen gebeten. Die Hauptfrage dabei war:

Wann wird die KI stärker sein als der Mensch?

oder auf englisch:

When will AI exceed human performance?

Figure 1: Wann wird die Künstliche Intelligenz stärker sein als der Mensch?

Die Wissenschaftler sollten das Jahr 2016 als Anfangspunkt nehmen und versuchen, für die kommenden 100 Jahre jeweils eine Wahrscheinlichkeit abzugeben, wann sie damit rechnen.

Die grauen Linien in Figure 1 zeigen alle Messpunkte der verschiedenen Forscher. Die aggregierte Vorhersage überschreitet in circa 50 Jahren die “50% wahrscheinlich, das die KI den Menschen überholt” Marke. In 100 Jahren ist die Wahrscheinlichkeit bei knapp 75%.

Figure 2: Hat die optimistische/pessimistische Schätzung eventuell kulturelle Hintergründe?

Sehr spannend sind die “Ausreißer” – die sehr optimistischen und sehr pessimistischen Schätzer. Figure 2 illustriert, das asiatische Forscher sehr optimistisch geschätzt haben. Nordamerikanische Forscher hingegen schätzen sehr pessimistisch. Welche Einflüsse die Autoren der Studie dafür verantwortlich machen, wird nicht genannt.

 

Wir können allerdings festhalten, dass wir in 50 Jahren eine 50% Chance und in 100 Jahren eine 75% Chance haben, das eine KI stärker sein wird, als ein Mensch.

Figure 3: Berufe, Kreativität und Computerspiele. Wann wird eine Maschine das beherrschen?

 

Diese Aussage ist natürlich sehr wage. Aktuell existieren Systeme, die effizienter arbeiten als der Mensch – beim Verpacken von Kisten, beim Schweißen von großen Metallflächen und weiterem mehr. In der Frage, welche die Autoren stellten, ging es um eine komplette Intelligenz, die mit HLMI (Human Level Machine Intelligence) bezeichnet wird.

Die Umfrage beschäftigte sich aber auch mit weiteren Fragestellungen. Unter anderem wurden die Forscher danach gefragt, wann eine Intelligenz spezifische Sachen besser kann als ein Mensch.

Figure 3 zeigt verschiedene Aufgaben mit den Schätzungen in Jahren, die es noch dauern könnte, bis eine Intelligenz diese Aufgabe, besser als ein Mensch, erledigen kann. Bis eine Intelligenz eine bessere Vertriebsperson ist, soll es im Mittel noch 14 Jahre dauern (die Linie zeigt die Abweichung aller Schätzungen an, es handelt sich hier nicht um einen Roboter, sondern um eine Software).

Sogar mathematische Forschung soll eine Intelligenz irgendwann besser können als der Mensch. Mit diesen schwereren Tasks beschäftigt sich Figure 4.

Figure 4: Nichts ist unmöglich. Etwas kompliziertere Aufgaben brauchen länger, bis sie automatisiert sind.

Dank dieser Studie von Katja Grace et al. haben wir nun eine ungefähre Vorstellung, wann uns die Künstlichen Intelligenzen gefährlich werden können. Allerdings wird sich unser Bild auf die Menschheit, auf Roboter und der Welt in der wir leben in diesen vielen Jahren auch grundsätzlich verändert haben.

Hier gehts zur Studie

 

Buch-Tipps zum Thema

5 Wege wie Roboter den Mainstream erreichen

In diesem Artikel von PWC werden 5 Wege gezeigt, die die nächste Generation der Roboter auszeichnet und ihnen helfen wird, in den Mainstream zu gelangen. Diese 5 Wege sind hauptsächlich:

  1. Aus einer starren Umgebung in eine Dynamische – Roboter und ihre Ingenieure lernen zunehmend, wie das Verhalten von Robotern in dynamischen Umgebungen aussehen muss.
  2. Von der Isolation zu Cobots – Collaborating Robots ist aktuell das Schlagwort, wenn man von Robotern spricht, die mit dem Menschen zusammen arbeiten sollen.
  3. Vom programmierten zum gelernten Verhalten – Forschungen im Bereich des Machine Learning machen es möglich, dass Roboter out-of-the-box ihr gewünschtes Verhalten lernen. Das macht sie sehr flexibel.
  4. Von der Einzelfertigung zum flexiblen Einsatz – Besseres Verständnis der Prozesse in Wirtschaft und Industrie haben dazu geführt, dass Roboter nicht nur für einzelne Kunden spannend sind, sondern auf diverse Prozesse (in langen Prozessketten) eingesetzt werden können.
  5. Vom Back-Office zum Front-Office – Früher wurden Roboter in Fabrikhallen hinter Glasscheiben betrieben. Es ist aber nun auch möglich, bestimmte Typen von Robotern dafür zu nutzen, mit dem Kunden zu kommunizieren. Beispielsweise werden Roboter nicht nur für die Fertigung, sondern auch zur Auslieferung benutzt.

Den Artikel von PWC gibt es hier in ganzer Länge. Viel Spaß beim Lesen.

Kraken Robotics – The sky is the seabed

In der Rubrik Startups & Unternehmen stellen wir neue innovative Firmen aus dem Bereich der Künstlichen Intelligenz vor. Diesmal: Kraken Robotics aus Neufundland.

Kraken Robotics ein Unternehmen aus Neufundland (Kanada) arbeitet an autonomen Unterseebooten. Das Unternehmen an sich verfolge ich nun schon seit knapp 3 Jahren. Damals etablierte Kraken eine Tochterfirma in Deutschland. Das erklärte Ziel von Kraken ist es, den Boden des Ozeans zu kartieren. Das klingt erstmal nach einer typischen Aufgabe für ein Forschungsinstitut und nicht nach einer kommerziellen Idee, hinter der eine Firma steht. Allerdings ergeben sich daraus diverse Geschäftsfelder, die nicht sofort ersichtlich sind.

Aber was bietet Kraken eigentlich:

  • AquaPix(TM) Sensoren – Diese Sonar-Sensoren bieten eine Weltneuheit, was ihre Genauigkeit und Präzision angeht.
  • Diverse Sensoren – Zum Messen von Geschwindigkeit bzw. anderen Parametern unter der Wasseroberfläche.
  •  KatFish(TM) und ThunderFish(TM) – Zwei autonome Unterseeboote, die mit Kraken-Sensoren ausgestattet sind und damit Gewässer kartieren können.
  • SeaVision(TM) – Ein Sensorsystem mit dem man Oberflächeninspektion an Objekten in Gewässern durchführen kann.
  • Diverse andere Komponenten –  die druckresistent arbeiten können, darunter auch einen Datenspeicher

Erstaunlich dabei ist die Genauigkeit der Sensoren. Dadurch lassen sich selbst komplizierte Strukturen am Meeresboden visualisieren und inspizieren. Wie im Bild zu sehen, gelingt es den Kraken Sensoren sogar, die SS Ferrando ein ehemaliges Transportschiff des Britischen Empires sehr genau zu aufzulösen.

Kraken hat erst kürzlich wieder ein Funding des Kanadischen Ministeriums für Innovation in Höhe von $5.9M bekommen. Dabei ist Kraken Teil des Ocean Superclusters, einer Initiative des Ministeriums, die sich an Technologien rund um die Themen Ozeane, autonome Systeme und Robotik drehen. Typische Anwendungsfelder für die Technologie von Kraken sind:

  • Generelle Erkundung von Ozeanen, um seine Mechanismen besser zu verstehen
  • Maintenance von Öl- und Gasleitungen bzw. von Systemen die auf oder in Gewässern betrieben werden
  • Militärische Aktionen wie Aufklärung oder Überwachung von Gewässern
  • Und natürlich die Suche nach verborgen liegenden Schätzen 😉

Aktuell arbeitet man bei Kraken daran, Sensoren und Experimentierplattformen zu verbessern. Allerdings hat man bereits schon diverse Deals mit privaten Forschungsinstituten und Militärs unterschrieben. Es existiert also schon eine Form von Cashflow für Kraken.

Es bleibt also spannend bei Kraken Robotics. Man spekuliert von einer $250M+ Pipeline, die das Unternehmen bereits haben soll. Wer also an der Börse aktiv ist, sollte mal einen Blick auf Kraken Robotics (PNG.V, 2KQ.F) werfen.

Das nachfolgende Video von der CannTech2019 zeigt nochmals das Potential, welches Kraken in der Zukunft mitbringen kann.