Chess AI: Competing Paradigms for Machine Intelligence
https://arxiv.org/pdf/2109.11602.pdfZusammenfassung:
Endspielstudien dienen seit langem als Werkzeug zum Testen der menschlichen Kreativität und Intelligenz. Wir finden, dass sie auch als Werkzeug zum Testen der Maschinenfähigkeit dienen können. Zwei der führenden Schach-Engines, Stockfish und Leela Chess Zero (LCZero), wenden während des Spiels deutlich unterschiedliche Methoden an. Wir verwenden Plasketts Puzzle, eine berühmte Endspielstudie aus den späten 1970er Jahren, um die beiden Engines zu vergleichen. Unsere Experimente zeigen, dass Stockfish LCZero beim Puzzle übertrifft. Wir untersuchen die algorithmischen Unterschiede zwischen den Engines und verwenden unsere Beobachtungen als Grundlage für eine sorgfältige Interpretation der Testergebnisse. Inspiriert davon, wie Menschen Schachprobleme lösen, fragen wir, ob Maschinen eine Form der Vorstellungskraft besitzen können. Auf der theoretischen Seite beschreiben wir, wie die Bellman-Gleichung angewendet werden kann, um die Gewinnwahrscheinlichkeit zu optimieren. Abschließend diskutieren wir die Implikationen unserer Arbeit zu künstlicher Intelligenz (KI) und künstlicher allgemeiner Intelligenz (AGI) und schlagen mögliche Wege für zukünftige Forschung vor.