Tag: Go

DeepMind lernt jetzt StarCraft II

Nachdem Google DeepMinds AlphaGo mit Lee Sedol den weltweit besten Go-Spieler geschlagen hat, versucht das Team hinter der Google-Akquisition nun, die nĂ€chste Nuss zu knacken. Mit StarCraft II haben sie sich dabei eine besonders schwere Nuss herausgesucht. StarCraft ist nicht rundenbasiert, sondern ein sogenanntes Echtzeitspiel. Die Entscheidungen die DeepMind trifft, mĂŒssen also schnell und akkurat sein. Dennoch kann man das Gelernte aus AlphaGo wenigstens teilweise anwenden, denn beide Spiele (Go und StarCraft) haben eine Gemeinsamkeit. Betrachten wir das Spielverhalten von Schach, Go und StarCraft, wird dies deutlicher:

  •  Schach
    • Strukturen sind zum Start gegeben
    • Ziel ist es, die gegnerischen Strukturen zu zerstören
  • Go
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, eine Strukturen so aufzubauen, dass man den Gegner beherrscht
  • StarCraft
    • Strukturen sind nicht zum Start gegeben
    • Ziel ist es, gegnerische Strukturen zu zerstören und eigene Strukturen stabil zu halten

Vereinfacht gesagt: StarCraft ein Mix aus den beiden anderen vorgestellten Spielphilosophien. Ein möglicher Ansatz des DeepMind-Teams wird im Video deutlich. Der Eindruck vom Spielfeld wird in Feature Layern (Merkmalsebenen) abgebildet. Anhand dieser Darstellung kann DeepMind dann, die Strategien der Gegner abschÀtzen und daraus eigene Strategien entwickeln.




[Wissen] Gaming AI – Schach und Go

Im Scishow-Channel gibt es einen Einstieg in die Welt der Gaming-AIs. HauptsĂ€chlich dreht es sich dabei um die Unterschiede der AIs, die gebaut wurden, um Brettspiele zu spielen. Diese Unterschieden sich nĂ€mlich sehr von einander. Denn der Ansatz, der benötigt wurde, um Kasparov mit DeepBlue zu schlagen, konnte nicht direkt fĂŒr Go benutzt werden. Das Programm AlphaGo benötigte viel mehr KreativitĂ€t und tiefes VerstĂ€ndnis, wĂ€hrend DeepBlue (der Computer der Kasparov im Schach schlug) durch Hardware und ein Regelset solange aufgestockt wurde, bis es gelang.