Forschung

Bösartige Künstliche Intelligenz – Vorhersagen und Schutz

Teilt den Artikel mit euren Freunden und Followern!

Kürzlich wurde der The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation – Report veröffentlicht. An diesem Report arbeiteten 26 Wissenschaftler, Forscher und Practitioner von verschiedenen Instituten, Firmen und Universitäten. Er ist das Ergebnis eines intensiven 2-Tage-Workshops. Hauptsächlich wurde der Report unterstützt von:

  • Future of Humanity Institute
  • University of Oxford
  • Centre for the Study of Existential Risk
  • University of Cambridge
  • Center for a New American Security Electronic Frontier Foundation
  • OpenAI
Ein Screenshot aus dem Report. Die Performance von Computer Vision Algorithmen (hier ImageNet) wird immer akkurater. Die Performance des Menschen wird hier mit einer Verbesserung von 0 angenommen. Die Fehlerrate des Menschen (bei 5% geschätzt) wird von den aktuellen Algorithmen qualitativ übertroffen.

Der Report greift verschiedene mögliche Angriffszenarien auf und beschreibt den Schutz davor. Auch im Zusammenhang mit Social Engineering sind diverse Angriffe unter der Nutzung von Künstliche Intelligenz denkbar. Für diese Angriffe sensibilisiert der Report. Allerdings ist er eher politischer Natur und damit zur Referenz für politische Entscheider gedacht.

Diese Handlungsempfehlungen werden gemacht:

  • Der Gesetzgeber soll eng mit Ingenieuren zusammenarbeiten, um möglichen Dual-Use (Nutzen der Technologie für kriminelle / unethische Zwecke) zu verhindern.
  • Ingenieure und Forscher sollen sich der Dual-Use Natur ihrer Arbeit immer bewusst sein.
  • In etablierten Bereichen soll es Best Practices geben, die die Dual-Use Möglichkeiten einschränken.
  • Das Domainwissen bei AI-Fragen und -Entscheidungen soll maximiert werden, sprich: viele verschiedene Experten werden in Entscheidungen einbezogen.

Hier kann man den ganzen Report lesen!