Tag: University of Cambridge

B├Âsartige K├╝nstliche Intelligenz – Vorhersagen und Schutz

K├╝rzlich wurde der┬áThe Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation – Report ver├Âffentlicht. An diesem Report arbeiteten 26 Wissenschaftler, Forscher und Practitioner von verschiedenen Instituten, Firmen und Universit├Ąten. Er ist das Ergebnis eines intensiven 2-Tage-Workshops. Haupts├Ąchlich wurde der Report unterst├╝tzt von:

  • Future of Humanity Institute
  • University of Oxford
  • Centre for the Study of Existential Risk
  • University of Cambridge
  • Center for a New American Security Electronic Frontier Foundation
  • OpenAI

Ein Screenshot aus dem Report. Die Performance von Computer Vision Algorithmen (hier ImageNet) wird immer akkurater. Die Performance des Menschen wird hier mit einer Verbesserung von 0 angenommen. Die Fehlerrate des Menschen (bei 5% gesch├Ątzt) wird von den aktuellen Algorithmen qualitativ ├╝bertroffen.

Der Report greift verschiedene m├Âgliche Angriffszenarien auf und beschreibt den Schutz davor. Auch im Zusammenhang mit Social Engineering sind diverse Angriffe unter der Nutzung von K├╝nstliche Intelligenz denkbar. F├╝r diese Angriffe sensibilisiert der Report. Allerdings ist er eher politischer Natur und damit zur Referenz f├╝r politische Entscheider gedacht.

Diese Handlungsempfehlungen werden gemacht:

  • Der Gesetzgeber soll eng mit Ingenieuren zusammenarbeiten, um m├Âglichen Dual-Use (Nutzen der Technologie f├╝r kriminelle / unethische Zwecke) zu verhindern.
  • Ingenieure und Forscher sollen sich der Dual-Use Natur ihrer Arbeit immer bewusst sein.
  • In etablierten Bereichen soll es Best Practices geben, die die Dual-Use M├Âglichkeiten einschr├Ąnken.
  • Das Domainwissen bei AI-Fragen und -Entscheidungen soll maximiert werden, sprich: viele verschiedene Experten werden in Entscheidungen einbezogen.

Hier kann man den ganzen Report lesen!