Die KI von DeepMind ist jetzt in der Lage, menschliche Spieler in Quake III zu schlagen
Wir haben Spiele gesehen, in denen Entwickler Bots platzieren, um es menschlichen Spielern zu erleichtern oder Einzelspieler-Nachbildungen der Multiplayer-Modi vieler Spiele zu erstellen. Diese KI-Spieler sind selten in der Lage, gegen ihre menschlichen Kollegen anzutreten. Daher werden sie verwendet, um die Lernkurve vieler Multiplayer-Spiele zu vereinfachen. Andererseits ist DeepMind eine Firma, die sich auf den Einsatz von KI in vielen Arbeitsbereichen spezialisiert hat. Sie enthüllten, dass ihre KI-gesteuerten Bots in einem der meistgespielten Multiplayer-Spiele Quake III endlich ihre menschlichen Gegenstücke schlagen konnten. Ihre Ergebnisse sind faszinierend für diejenigen, die ein Faible für KI-Lernen und -Fähigkeiten haben.
Dies ist nicht das erste Projekt von DeepMind in Bezug auf Videospiele. Sie haben bereits eine neuronale Engine entwickelt, mit der Profispieler vieler Multiplayer-Spiele besiegt werden können. Das beste Beispiel hier ist AlphaGo, wo ihre KI den bekannten Profispieler des genannten Spiels besiegte. Sie haben auch KI für viele andere Spiele entwickelt.
Abzüge
Zurück zu ihren Schlussfolgerungen bezüglich ihrer KI in Quake III. Quake III unterscheidet sich drastisch von vielen anderen Spielen. Das Spiel unterscheidet sich kategorisch aufgrund der prozedural generierten Phasen und der Tatsache, dass sich das Spiel in der Perspektive der ersten Person befindet. Das Problem für die KI-Entwicklung hier ist, dass sie nicht die bestmögliche Methode lernen konnten, um das Spiel zu schlagen. Das eigentliche Problem erwies sich als Segen in der Verkleidung, da die KI einer humanoiden Lernkurve ähnelte, dazu später mehr.
Die KI begann von vorne und lernte die Regeln für die Erfassung des Flaggenmodus selbst. Die KI war dann in der Lage, 40 menschliche Spieler zu schlagen, bei denen sowohl Menschen als auch die KI gemischt wurden. Nachdem DeepMind die Menschen erheblich besiegt hatte, akzeptierte sie, dass ihr Gewinn auf die pro-menschlichen Reaktionszeiten ihres KI-Agenten zurückzuführen ist. Also beschlossen sie, sie zu verlangsamen, aber die KI war immer noch in der Lage, ihre menschlichen Kollegen zu schlagen.
Fortschritt der KI
Tomshardware berichtet, dass ihre Schlussfolgerungen besonders faszinierend sind, da die KI die Grundlagen des Spiels selbst lernen musste und die KI in der Lage war, die Ergebnisse zu erzielen, wenn Phasen prozedural generiert wurden.
DeepMind sagte, dass ihre Arbeit an diesem Projekt die Tatsache unterstreicht, dass wir KI effizient trainieren können, indem wir Multi-Agent-Techniken verwenden, was KI gegen KI bedeutet. Es macht die KI nicht nur auf ihre Fehler aufmerksam, sondern arbeitet auch an Dingen, die besser gemacht werden können. Sie sagten, "Es hebt die Ergebnisse hervor, indem es den natürlichen Lehrplan nutzt, der durch das Training mit mehreren Agenten bereitgestellt wird, und die Entwicklung robuster Agenten erzwingt, die sich sogar mit Menschen zusammenschließen können.”