Falls es jemanden interessiert, ist hier meine Besondere Lernleistung zum Thema
"Einsatz von allgemeinen Evaluierungsheuristiken in Verbindung mit der Reinforcement-Learning-Strategie in der Schachprogrammierung" aus dem Jahre 2008 zu finden:
http://www.inf.fu-berlin.de/users/block/abschlussarbeiten/Fiebiger_BeLL.pdf(Nicht wundern, mein Forenname ist nicht mein Klarname)
Betreuer waren Stefan Meyer-Kahlen und Marco Block-Berlitz.
Im ersten Teil findet man viele einführende interessante Details zur Schachprogrammierung, im zweiten, praktischen Teil entwickelte ich ein eigenes Programm, bei dem ich zwei Strategien verfolgte:
1) Reduzierung der für ein Schachprogramm typischerweise über 100 Bewertungsparameter auf nur 4 Parameter, von denen sich die restlichen Parameter ableiten.
2) Anwendung von Reinforcement-Learning-Algorithmen zur automatischen Lernen der besten Wichtungen.
Das Programm war eine komplette Eigenentwicklung und besitzt weder Nullzug-Pruning noch Late-Move-Reductions, Aspiration Windows, Lazy Eval usw. - der gesamte Quellcode besteht aus komplett eigenentwickelten Techniken. Die beiden letzteren Ziele konnten zwar nicht so erfolgreich wie erhofft verwirklicht werden, aber an dem damals entwickelten Schachprogramm (was Nexus hieß - Google hat mir meinen Namen geklaut
) schreibe ich immer noch gelegentlich weiter und habe recht viel Freude.