Frank Quisinsky schrieb:
Muss mich hier aber auf einen aktuellen Stand bringen.
Der aktuelle Stand im STS vom Brainfish 180417 bei 5"/Zug auf der zitierten Hardware ist 1196 von 1300.
Dass der Unterschied zu Wasp da so relativ klein ist, (relativ zum Eret z.B.) liegt am Prinzip der "Strategic" Suite, es wird mehr die statische als die dynamische Eval getestet, eigentlich sind hier die 5" schon unnötig viel, interessant wäre mal, solche Stellungen auf dieser site
https://hxim.github.io/Stockfish-Evaluation-Guide/ganz ohne Suche bewerten zu lassen und dann die Eval mit der Output- Eval nach etwas Forward- Backward zu vergleichen, das ist aber eben wieder genau nicht der Sinn dieser Stellungen als Set.
Man könnte aus dem STS- Ergebnis gemeinsam mit dem aus dem Eret folgern, bei Wasp hapert's noch ein bisschen an der Suche, die statische Eval, auf die's in positionellen Stellungen mehr ankommt, ist schon ganz gut.
Die Bewertung aller solcher Tests ist aber sowieso nicht diskutierbar für mich, ohne die einzelnen Stellungen alle für sich genau zu beurteilen.
Und das muss ich jetzt mal wieder bei der Gelegenheit anbringen: das gilt natürlich genau so für alle ausgespielten Stellungstests, also auch für alle eng-eng-eng-Vergleiche auf reiner Matchbasis.
Das Testset, dass du zum Ausspielenlassen verwendest, macht das Ergebnis aus, so sehr einander auch die Ergebnisse von ähnlichen Testsets ähneln, und so sehr man mehr und mehr ganze Partien braucht um aus ähnlichen Testsets mit allein schon an Zahl immer mehr und einander zumindest im oberen Bereich immer ähnlicher werdenden Engines noch unterscheidbare Ergebnisse zu bekommen.
Aber das muss ich dir nicht erklären, Frank, soviel Arbeit wie du dir mit deinem Buch machst
Bei der Gelegenheit auch dafür mal wieder danke.