Beitrag im Forum von Peter Martan:
Aufgebracht hat diesen jüngsten Branch des Engine- Lernens Kelly Kinyama:
https://www.chessprogramming.org/ShashChessZitat:
A rote learning technique inspired from Q-learning, worked out and introduced by Kelly Kinyama [8] [9] and also employed in BrainLearn 9.0 [10], was applied in ShashChess since version 12.0 [11]. After the end of a decisive selfplay game, the list of moves (ml) and associated scores is merged into the learn table from end to start, the score of timestep t adjusted as weighted average with the future reward of timestep t+1, using a learning rate α of 0.5 and a discount factor γ of 0.99 [12]:
Für Stockfish hatte schon vor vielen Jahren Jeremy Bernstein
https://www.chessprogramming.org/Jeremy_Bernstein, einen SF PA (Persistent Analysis) eine Zeit lang gepflegt, dessen hat sich Marco Zerbinati dann auch noch einmal viel später angenommen, bevor der Kinyama- Code modern wurde.
Aus nostalgischen Gründen noch einen Link zu einem Thread über SF PA_GTB (die Gaviota-tbs waren die zweite große Errungenschaft dieses Branches, Syzygy- tbs gab's noch nicht )
https://open-chess.org/viewtopic.php?f=7&t=2465Ich hoffe ja vor allem stark, dass sich Stefan Meyer- Kahlen, der einer der ersten war mit Lerndateien seit frühen Shredder- Versionen bis hinauf zum 12er, der Sache auch wieder mal annehmen wird.
Das Kapitel aus der ShashChess- Readme dazu:
https://github.com/amchess/ShashChess/#persisted-learning