Im Interview mit dem Guardian hat Demis Hassabis ein CERN für KI-Sicherheit gefordert.Im Interview mit dem Guardian hat Demis Hassabis ein CERN für KI-Sicherheit gefordert. Demis Hassabis, der Leiter von Google DeepMind, hat die Notwendigkeit betont, das Risiko von künstlicher Intelligenz (KI) genauso ernst zu nehmen wie die Klimakrise. Er forderte eine stärkere Regulierung, um existenzielle Ängste in Bezug auf Technologien mit übermenschlicher Intelligenz zu mildern. Während die britische Regierung ein Gipfeltreffen zur KI-Sicherheit vorbereitet, schlug Hassabis vor, die Aufsicht über die Branche könnte mit einer Einrichtung ähnlich dem Intergovernmental Panel on Climate Change (IPCC) beginnen. Er betonte, dass die Welt sofort handeln müsse, um die Gefahren der KI zu bewältigen, einschließlich der möglichen Schaffung von Biowaffen und der existenziellen Bedrohung durch superintelligente Systeme.
Hassabis, dessen Einheit das revolutionäre AlphaFold-Programm entwickelte, betonte jedoch, dass KI eine der wichtigsten und vorteilhaftesten Technologien sein könne, die je erfunden wurden. Dennoch sei eine Regulierung notwendig, und Regierungen sollten sich von internationalen Strukturen wie dem IPCC inspirieren lassen.
Hassabis schlug vor, dass es in Zukunft eine Art „Cern für KI-Sicherheit“ geben sollte, das international Forschung betreibt. Er erklärte auch, dass bestehende Regulierungsanalysen nicht direkt auf KI anwendbar seien, aber wertvolle Lehren aus bestehenden Institutionen gezogen werden könnten.
Einige Brancheninsider befürchten, dass die Entwicklung von KI mit übermenschlicher Intelligenz (AGI) nur noch wenige Jahre entfernt ist, während andere die Ängste vor der existenziellen Bedrohung für übertrieben halten. Hassabis betonte, dass die Welt noch weit von der Entwicklung von AGI-Systemen entfernt sei, aber dass die Diskussion darüber jetzt beginnen sollte. Während aktuelle KI-Systeme kein Risiko darstellen, könnten zukünftige Generationen mit zusätzlichen Fähigkeiten wie Planung und Gedächtnis Risiken bergen.
Ein Gipfeltreffen zur KI-Sicherheit am 1. und 2. November in Bletchley Park wird sich auf die Bedrohung durch fortgeschrittene KI-Systeme konzentrieren, die bei der Schaffung von Biowaffen helfen, verheerende Cyberangriffe durchführen oder der menschlichen Kontrolle entgehen könnten.
Hassabis ist optimistisch hinsichtlich der Möglichkeiten der KI in Bereichen wie Medizin und Wissenschaft, betonte jedoch die Notwendigkeit eines „mittleren Wegs“, um die Technologie zu steuern. Er erwartet die Entwicklung eines Kitemark-ähnlichen Systems für KI-Modelle in der Zukunft. Die britische Regierung hat bereits die Frontier AI-Taskforce ins Leben gerufen, die Leitlinien für Tests von modernen KI-Modellen erstellen soll und zu einem internationalen Benchmark für Testbemühungen werden könnte.