18.02.2025, 15:00 Uhr
Universität Wien
Besprechungsraum 4.34
Währinger Str. 29
1090 Wien
Titel: Esports Trainer
Kurzfassung:
Ziel dieser Masterarbeit ist es, eine Möglichkeit zu finden, wie ein Spieler oder eine Spielerin
durch künstliche Intelligenz (KI) in einem Computerspiel sich verbessern kann. In einem ersten
Schritt muss diese KI die Fähigkeiten des Menschen deutlich übertreffen, um eine wertvolle
Unterstützung bieten zu können. Reinforcement Learning ist das Herzstück jeder Spiel-KI. Das
Prinzip ähnelt dem menschlichen Lernen und basiert auf einem Versuch-und-Irrtum-Konzept. Es wird
durch neuronale Netze weiter verbessert.
Eine der derzeit besten KI im Bereich der Computerspiele ist MuZero, ein direkter Nachfolger des
bekannten AlphaZero-Algorithmus. Durch Spiele gegen sich selbst ist es möglich, dass sich die KI so
weit zu verbessert, dass es die Fähigkeiten des Menschen bei weitem übertrifft. MuZero ist die
grundlegende AI in dieser Arbeit, um die Spiele von Menschen zu analysieren.
Der erste Schritt war die Erstellung der KI. Diese KI unterscheidet sich etwas vom Stand der
Forschung, da die Bedingungen nicht die gleichen sind. Die KI-Modelle sind aufgrund von
Hardwarebeschränkungen deutlich kleiner. Dadurch erreicht die KI nur gute und keine perfekten
Ergebnisse. Es wurden verschiedene Methoden verwendet, um Informationen aus der KI zu extrahieren.
Die erste Methode Perfect Game vergleicht die Aktionen des Menschen und der KI, je größer die
Abweichung, desto schlechter wird die Aktion des Menschen bewertet. Diese Methode eignet sich
besonders, um die Spielzüge der KI nachzuahmen. Sie ist jedoch nur für Spielerinnen und Spieler zu
empfehlen, die bereits ein hohes Fähigkeitsniveau erreicht haben. Da diese Methode oft
intransparent und schwer umsetzbar ist, wurde nach Methoden gesucht, die auch ähnlich gute Aktionen
vorschlagen und positiv bewerten. Value only Game beschreibt die Methode, einzelne Positionen im
Spiel zu bewerten, ohne auf erlernte Handlungsmuster zurückzugreifen. Mit dieser Bewertungsmethode
können Aktionen granular unterschieden werden und somit werden auch gute und nicht nur die besten
Aktionen verwendet. Für sehr gute Spielerinnen und Spieler ist diese Methode eher weniger geeignet,
da die KI ohne die gelernten Handlungsmuster schwächer ist. Die letzte Methode Easy Game
konzentriert sich darauf, möglichst einfache Spielzüge zu finden, die trotzdem zu einem guten
Ergebnis führen. Diese Methoden wurden anhand von Praxisbeispielen untersucht und verglichen. Jede
dieser Methoden hat bestimmte Anwendungsmöglichkeiten und verschiedene Parameter, um die Ergebnisse
zu optimieren.
Die Ergebnisse zeigen, dass diese Methoden anwendbar sind und dass Spielerinnen und Spieler ihre
Spiele auf hohem Niveau analysieren und dadurch ihre Fähigkeiten verbessern können. Wichtig ist,
dass die KI deutlich besser spielt als der Mensch und dass die KI vorher trainiert werden muss.
Dieses Training setzt auch das Vorhandensein einer
Trainingsumgebung und entsprechender Hardware voraus.