Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Top-3 Engines für die taktische Analyse
1 2 Previous Next  
- - By Torsten Cuber Date 2023-11-03 00:13 Edited 2023-11-03 00:28
Liebe Schachfreunde, ich konnte jetzt den relativ neuen Crystal 6 testen (nachdem ich drei Anläufe gebraucht hab, um die richtige Datei runterzuladen.)
Am Ende meines Test mit meinem PC-ULTRA-2-TEST (100 Stellungen) liegen folgende drei Engines ganz vorne:
Hardware: Intel i7-8700 @ 3.4 GHZ, 6 Kerne, die Engines laufen mit 8 GB Hashtables und Default Einstellungen.
Aber: MultiPV=4, das heißt, es wurden vier Hauptvarianten gleichzeitig berechnet und angezeigt.
Auf den ersten drei Plätzen liegen:
ShashChess GZ EXT-S 79/67 von 100
Crystal 6 PMT.               79/67 von 100
Leptir Analyzer.             78/66 von 100
(Anzahl der Lösungen in 5 Minuten / 1 Minuten)
Nur zum Vergleich:
Stockfish 15 kam auf   57/41 von 100.
Ich würde daher eine dieser drei Engines empfehlen für die taktische Partieanalyse (was für mich das Haupteinsatzgebiet für Schachprogramme ist).
Ideal wäre natürlich, diese drei Engines parallel laufen zu lassen, vielleicht noch mit Stockfish 16 als vierte Engine.
Dafür bräuchte man aber einen aktuellen Rechner mit 16 oder 32 Kernen.
Mein PC (von 2018) ist dafür schon zu schwach.
Parent - - By Lothar Jung Date 2023-11-03 08:11
Wo kann man den Test runterladen?
Parent - - By Torsten Cuber Date 2023-11-03 23:23
Leider nicht, ich benutze ihn nur zu meinen privaten Zwecken.Eine Veröffentlichung habe ich im Moment nicht geplant, wohl erst mit der nächsten Revision, also dann PC-ULTRA-3-TEST.
Ich kann aber sagen, dass auch in der Stockfish-Testsuite-2021 (238 Stellungen) als auch im Hard-Talkchess-Test (213 Stellungen) am Ende ganz ähnliche Resultate herausgekommen sind. Die genannten drei Engines landen jedesmal ganz oben.
Nur daß mein Test eben deutlich schwerer ist und deshalb die Lösequote unter 80 % liegt (bei 5 Minuten pro Stellung wohlgemerkt!).
In der nächsten Revision werde ich wieder Stellungen rausnehmen, die schnell gelöst werden können und ersetzen durch solche, die kaum oder gar nicht (innerhalb der 5 Minuten) gelöst werden können.
Da muss ich aber noch ein bisschen suchen und natürlich gründlich testen.
Parent - - By Peter Martan Date 2023-11-04 08:29 Edited 2023-11-04 09:14
Take your time, das Lustigste dran ist sowieso immer die Beschäftigung mit der einzelnen Stellung

In der Zwischenzeit (und falls du dir für deine Sammlung noch das Eine oder Andere rauspicken willst) hätte ich aus dem Talkchess hier mal wieder was, Dann Corbit hat's gepostet

https://talkchess.com/forum3/viewtopic.php?p=953749#p953749

, das fast ausschließlich aus komponierten Studien besteht und zu einem großen Teil so in eine gemeinsame Themen- und Schwierigkeitsebene gebracht ist, dass von Studien, z.B. von langzügigen Mattaufgaben, verschieden viele Züge der Originalstudie am Anfang weggelassen wurden, damit z.B. ein paar Cyclic Zugwang- Studien überhaupt für Engines in einer Hardware- Zeit lösbar werden, die man auch für eine Suite verwenden kann und möchte.

Ich hab' dann von den 138 noch diejenigen weggestrichen, bei denen der best move nur durch die exakt richtige DTM vom zweitbesten unterschieden ist, das zufällige Lösen also zu leicht passieren kann, bleiben diese 128 für mich übrig

https://talkchess.com/forum3/viewtopic.php?p=953928#p953928

(im Code- Fenster mit Select All kopieren und in eine .txt- Datei einfügen, die in .epd umbenennen, dann funktioniert's als Suite).
Im Thread zwischen den beiden Postings sind ein paar (für mich) fragwürdige Stellungen näher untersucht.

Mir hat die Zahl 128 auch so gut gepasst, weil's die gleiche Anzahl ist wie etwas, was ich schon länger auch in dieser Art verwende (taktisch schwere Stellungen, zu nicht sehr kleinem Teil aus Studien, spezialisierte Mattsuche der Engines ist auch ein Kriterium)

https://talkchess.com/forum3/viewtopic.php?p=954076&sid=72715c7c1650866f28cc20f410412928#p954076

Wenn man die Stellungen meiner alten Suite mit den neuen vereint, hat man 256, die für SMP mit starker Hardware und z.B. 15"/Stellung (eher noch etwas länger als kürzer) eine breite Streuung zwischen den Engines geben, wesentlich über 200 Lösungen kommt man mit dieser meiner (30 threads der 16x3.5GHz CPU und oder der 3070ti GPU) Hardware- TC kaum. Um mehr auf einmal zu schaffen, lasse ich ganz gern Shredder mit 8 threads pro Engine mehrmals gleichzeitig laufen, man muss jeder Instanz eine eigene Protokolldatei geben, dann hat man zum Schluss die schönen Lösungstabellen, die man zwischen den Engines gut und schnell vergleichen kann (siehe letzter Link oben), wenn man will, noch zwischen einzelnen Engines mit WDL- Zahlen in EloStat eingeben kann, muss aber halt aus den Tabellen händisch auslesen, welche von je 2 Engines gelöst und welche von diesen beiden nicht gelöst sind, das sind die "Draws", die ausschließlich einerseits gelösten zählen als Wins, die ausschließlich von der anderen Engine gelösten sind Losses aus der Sicht einer einzelnen Engine im Vergleich zu einer einzelnen anderen, so kann man's dann für EloStat verwenden, um eine Elo- Differenz und eine error bar zwischen je 2 Engines zu bekommen) aber das ist Spielerei und weniger notwendig, wenn man eh viel Unterschied zwischen den Lösungszahlen selbst hat. EloStatTS bringt natürlich gerade bei sowas schon noch viel zusätzliche Diskrimination, aber Fritz kann man halt leider nicht in mehreren Instanzen laufen lassen, wenn man die Ergebnisse in einer gemeinsamen .cbh haben will.

Hier noch die 256 am Stück:

https://www.dropbox.com/scl/fi/p3h4er1fo3eqngwbzqqzf/256p.epd?rlkey=asm9fwmwxaya9ji4qjombnrw9&dl=0
Parent - - By Torsten Cuber Date 2023-11-04 10:17
Lieber Peter, erst einmal Danke für deine ausführliche Antwort.
Deine Sammlung mit 128 Stellungen hab ich bereits vor einiger Zeit runtergeladen, und analysiere regelmäßig auf meinem Smartphone, welche davon für meinen PC-ULTRA-3-TEST in Frage kommen würde.
Deine Sammlung mit 256 Stellungen hab ich auch schon einmal runtergeladen.
Die letzte davon, Stellung 256, war Copie - Patrici, corr. game 1986, Lösung 1.Sg6!
Crystal 6 sieht das auf meinem Smartphone XIAOMI 11 sofort (0:00).
Werde mir Zeit nehmen um die wirklich schweren Stellungen rauszupicken
Wohlgemerkt, es sollen Aufgaben sein, die so schwer sind, daß selbst einige Minuten nicht ausreichend sind.
Timelimit ist bei mir 5 Minuten.
Ich habe bereits Stellungen, für die Crystal 8 Minuten benötigt hat.
Solche Stellungen suche ich für meinen Test!
Mal schauen was ich finde.
Stellungen, die in wenigen Sekunden gelöst werden können, kommen definitiv nicht in meine Sammlung.
Vielen Dank für deine Hilfe,
Liebe Grüße vom Schachfreund Torsten
Parent - - By Peter Martan Date 2023-11-04 10:42 Edited 2023-11-04 10:51
Torsten Cuber schrieb:

Deine Sammlung mit 256 Stellungen hab ich auch schon einmal runtergeladen.

Nur um Verwechslungen zu vermeiden, die 256p.epd, die ich da jetzt durch Verschmelzen der 128 aus der neuen Corbit- Sammlung und meiner alten 128er- Suite verlinkt habe, hat mit den 256, (im Download- Link, den ich zuletzt meistens gesetzt habe, heißt sie 2562.epd) die ich als Screening- Suite mit 5"/Stellung auch immer noch gern verwende, kaum etwas gemeinsam, was den Schwierigkeitsgrad (die Hardware- TC) angeht. Einzelne Stellungen kommen in beiden vor, aber das sieht man dann in der Regel eh an den Quellenangaben, die sind leider da und dort auch immer noch unvollständig. Aber der Grund, warum ich die Sammlungen, auch wenn sie sich teilweise überschneiden, als solche für sich verwende und auseinanderhalte, ist eben, dass die Themen (vor allem auch die Praxisnähe, vor allem, was die Studien angeht) und die Zeit, die die Engines im Schnitt zum Lösen brauchen, zumindest graduell verschieden sind.

Insbesondere die aus der neuen Corbit- Suite sind noch sehr wenig in anderen drin, von den vielen Suiten, die so durch's Netz geistern, auch mit Hardtalkchess ist kaum Überschneidung vorhanden. Dafür findet man fast alle in der Harold van der Heijden- Datenbank, Dann hat meistens auch die HHdb- Nummern dazu angegeben, in der .epd, die ich daraus auf 128 eingedampft habe, sind sie auch.Wo nicht HHdb, da dafür hin und wieder YACPDB.

Ob man neue mit alten mischen will, ist sowieso auch immer sehr Geschmackssache, der Vorteil: man hat mehr Diskrimination mit mehr Stellungen in einer gemeinsamen Suite, das trifft aber nur dann wirklich zu, wenn alle in eine gemeinsame Hardware- TC passen, sonst wird's automatisch zum Nachteil. Sonst sinkt sie nämlich wieder (die Unterschiedlichkeit in den Ergebnissen) mit zu vielen nicht gelösten (das wiegt am schwersten, lässt sich aber meistens bedingt durch mehr Hardware- Zeit und ein kleineres Engine- Feld ausgleichen) und mit zu vielen gelösten (das lässt sich bedingt mit EloStatTS ausgleichen, aber auch nur, wenn die TC nicht zu kurz wird, ansonsten ist MEA the way to go).
Du weißt das alles, ich wollte es nur noch einmal eigens erwähnt haben
Parent - - By Torsten Cuber Date 2023-11-04 14:05
Lieber Peter, mit den ganzen Fachbegriffen kenn ich mich leider nicht so aus, ich bin ja praktisch nur am schachlichen Gehalt der Stellungen interessiert.
Bin als kein Computerexperte wie Du!
Aber ich habe selbst schon seit langem die Überzeugung gewonnen, daß die neuesten Engines auf den neuesten Rechnern so stark sind, dass man die Engines praktisch nur noch mit Studien an ihre Grenzen führen kann.
"Normale" Taktikstellungen sind heute einfach kein Problem mehr für die Engines.
Von einigen sehr strategischen Stellungen abgesehen.
Aber da hat man dann wieder das Problem, ist die gewünschte Lösung wirklich die richtige bzw die einzige?
Ich habe schon einige "strategische" Teststellungen aus meiner Suite entfernt, weil ich nach einigen Jahren, bei einem neuen Testdurchlauf feststellen musste, dass es noch andere Züge gibt, die mindestens genauso gut sind, oftmals verbunden mit Zugumstellung.
Schachstudien sind meiner Meinung nach heute das Einzige, um die Grenzen der Engines auszuloten.
Und darum geht es mir.
Einen Test mit 100 Stellungen, der so schwer ist, daß innerhalb von 5 Minuten maximal 60 oder 70 gelöst werden können.
Dann ist nämlich für die Engines noch "genug Luft nach oben" für die kommenden Jahre!
Ein Test, bei dem 90 oder 95% der Aufgaben gelöst werden können, taugt nicht, um eine vernünftige Rangfolge der besten Engines zu erstellen.
Daher analysiere ich zur Zeit fast nur noch Studien.
Deine 256p.epd hab ich jetzt nochmal runtergeladen und schau mir die Stellungen genauer an.
Frage:. Die neuen 128 Stellungen von Dan Corbitt, sind das die ersten 128 oder die zweiten 128 in der Liste?
Liebe Grüße vom Torsten, und nochmals vielen Dank!
Parent - By Peter Martan Date 2023-11-04 14:17 Edited 2023-11-04 14:20
Torsten Cuber schrieb:

Frage:. Die neuen 128 Stellungen von Dan Corbitt, sind das die ersten 128 oder die zweiten 128 in der Liste?

Leider die zweiten, also beginnend mit Zeile 129, der Miloseski- Studie, ab da sind sie dann auch noch eigens mit "pure 01" bis "pure138" durchnummeriert (Ausnahmen bestätigen die Regel, ich sehe gerade, in der 2. Stellung hab' ich das nicht dabei) in den .epd- strings, damit man sie denen in Dann's "pure"- Suite der 138 leichter zuordnen kann.

Für Alle, die's nicht mit meinen 128 alten gemeinsam runterladen wollen, hier nochmals der Link zu dem Talkchess- Posting, wo ich die 128 für mich besten neuen im Scroll- Fenster eingefügt habe, dort kann man sie mit Select All- Copy leicht gemeinsam in die Zwischenablage bekommen.

https://talkchess.com/forum3/viewtopic.php?p=953928#p953928
Parent - - By Torsten Cuber Date 2023-11-04 14:25
Lieber Peter, nur ein kleines Beispiel:
Aus deiner neuen 256p.epd Testsuite habe ich die letzte Aufgabe (Nr.256) schnell Mal angeschaut, von Van Essen.1 Te6! Matt in 5 findet Crystal 5 auf dem Smartphone XIAOMI 11 in weniger als 1 Sekunde, also solche Stellungen sind es dann, die in meinem Test (obwohl sie sehr schön sind!) keine Verwendung mehr finden, weil sie für Top-Engines Kinderkram sind.
Mal schauen, welche Perlen ich entdecke!
Liebe Grüße, Torsten
Parent - - By Peter Martan Date 2023-11-04 15:04 Edited 2023-11-04 15:29
Du hast völlig recht, die ist für Crystal zu leicht, ich hab' sie drin gelassen, weil z.B. Stockfish dev. hat in einem Run mit 8 Threads besagter CPU zumindest einmal über 15" gebraucht, also nicht gelöst, SMP- Pech offensichtlich.

Hier mit leerem Hash (2G) und 30 Threads neu gestartet:

    138: pure.138 Line 0.0, pure-ana
rnbqkbnr/pppppppp/8/1Q2R2B/4N1N1/8/8/5K2 w kq - 0 1

Analysis by Stockfish dev-20231008-7a4de961:

1.Dd5 e6 2.Lxf7+ Ke7 3.Sg5 c6 4.De4 d6 5.Txe6+ Kd7 6.Te8 Dxg5 7.Txf8
  Schwarz steht klar auf Gewinn: -+ (-4.87)  Tiefe: 10/13   00:00:00
...
1.Dd5 e6 2.Lxf7+ Ke7 3.Sg5 c6 4.Dc4 Db6 5.Lxg8 Txg8 6.De4 d6 7.Txe6+ Kd8
  Schwarz steht klar auf Gewinn: -+ (-6.10)  Tiefe: 15/24   00:00:00  1991kN
1.Tf5 Sf6 2.De5 Sxh5 3.Txh5 f6 4.Sexf6+ gxf6 5.Sxf6+ Kf7 6.Sxh7 Lg7 7.Sg5+ Kg8 8.Dd5+ e6 9.Sxe6 Df6+ 10.Sf4+ Kf8 11.Tf5
  Schwarz steht klar auf Gewinn: -+ (-5.18)  Tiefe: 16/30   00:00:00  4340kN
1.Te6 b6 2.Df5 La6+ 3.Kg1 d6 4.Lxf7+ Kd7 5.Txd6#
  Weiß setzt Matt: +- (#5)  Tiefe: 17/32   00:00:00  8209kN, tb=3
...
1.Te6 b6 2.Df5 La6+ 3.Kg1 d6 4.Lxf7+ Kd7 5.Txd6#
  Weiß setzt Matt: +- (#5)  Tiefe: 245/10   00:00:03  405MN, tb=3

Hier also auch innerhalb der ersten Sekunde, noch ein Versuch, diesmal mit 8 Threads und 1G Hash:

rnbqkbnr/pppppppp/8/1Q2R2B/4N1N1/8/8/5K2 w kq - 0 1

Analysis by Stockfish dev-20231008-7a4de961:

1.Dd5 e6 2.Lxf7+ Kxf7 3.Txe6 Se7 4.Txe7+ Kxe7 5.Dg5+ Ke8
  Schwarz steht klar auf Gewinn: -+ (-5.32)  Tiefe: 10/11   00:00:00
...
1.Tf5 Sf6 2.De5 Sxh5 3.Txh5 f6 4.Sexf6+ gxf6 5.Sxf6+ Kf7 6.Th2 c5 7.Sg4 Lg7 8.Df5+ Lf6 9.Te2 e6 10.Dh5+ Ke7 11.Sxf6
  Schwarz steht klar auf Gewinn: -+ (-5.57)  Tiefe: 21/39   00:00:01  12846kN, tb=518
1.Te6 Sc6 2.Df5 Se5 3.Sxe5 Sh6 4.Lxf7+ Sxf7 5.Dxf7#
  Weiß setzt Matt: +- (#5)  Tiefe: 22/39   00:00:02  23030kN, tb=668
...
  Weiß setzt Matt: +- (#5)  Tiefe: 244/10   00:00:07  329MN, tb=683
1.Te6 Sc6 2.Df5 Se5 3.Sxe5 Sh6 4.Lxf7+ Sxf7 5.Dxf7#
  Weiß setzt Matt: +- (#5)  Tiefe: 245/10   00:00:07  331MN, tb=683

Immerhin schon 2 Sekunden

Single thread (wäre mit etwas längerer TC sowieso auch immer ein guter Weg, wollte man SMP- Glück wirklich ausschließen, mit GPU- basierten Engines halt schon wieder Essig, die sind auch mit einem einzelnen CPU- Thread nicht deterministisch):

rnbqkbnr/pppppppp/8/1Q2R2B/4N1N1/8/8/5K2 w kq - 0 1

Analysis by Stockfish dev-20231008-7a4de961:

1.Tf5 Sf6 2.Sgxf6+ exf6 3.Db3
  Schwarz steht klar auf Gewinn: -+ (-5.81)  Tiefe: 10/8   00:00:00
...
1.Te6
  Weiß steht klar auf Gewinn: +- (5.01 ++)  Tiefe: 27/42   00:00:08  9363kN, tb=12
1.Te6 Sc6 2.Df5 d6 3.Dxf7+ Kd7 4.Df5 g6 5.Txg6+ e6 6.Dxe6#
  Weiß setzt Matt: +- (#6)  Tiefe: 27/42   00:00:08  9366kN, tb=12
...
1.Te6 Sc6 2.Df5 Se5 3.Txe5 g6 4.Sef6+ Sxf6 5.Sxf6#
  Weiß setzt Matt: +- (#5)  Tiefe: 76/10   00:00:13  42436kN, tb=12

8 Sekunden, da kann's am Handy ev. schon knapp werden mit einer Engine, die nicht ganz so stark ist wie SF, Crystal hat auch mal seine Schwächen bei anderen Stellungen.

Wie auch immer, die Stellung ist für eine reine "taktisch sehr schwer- Sammlung" zu leicht, du hast recht, aber wie gesagt, zuviele von zuvielen Engines nicht gelöste schaden statistisch noch mehr, als zuviele von zuvielen gelöste, vor allem wenn man die Eng-Eng- Matches pro Stellung hernimmt, je mehr solche Matches mit nur einseitiger Lösung auftreten, desto valider ist sie in Summe, und dann vielleicht noch die genauen Lösezeiten zur Auswertung, wie's EloStatTS macht, dann gibt's kaum noch "1:1- Paare".

Ich hoffe, du findest für deine Lieblingssammlung auch ein paar, die besser reinpassen.
Wieviele löst deine Crystal- Installation denn mit 15"/Stellung von den 256 insgesamt?
(Von den 128 neuen war's mit Crystal 6PMT bei mir, wie im Talkchess- Thread mit Tabelle gepostet, mit 28 Threads (weil ich gleichzeitig auch Lc0 laufen hatte) 110/128).

Von den 256 mit 8 Threads (wieder mehrere Shredder- Instanzen gleichzeitig):

Crystal 6 PMT

Bisher gelöst: 183 von 256  ;  27:55m

         1   2   3   4   5   6   7   8   9  10  11  12  13  14  15  16  17  18  19  20
-------------------------------------------------------------------------------------
   0 |   1   -   -   8   8  12   0   -   8   -   0   3   0   0   0   8   -   3   -   8
  20 |   1   6   6   -   4   0   9   -   0   7   1  11   3   -   3   -   -   -   -   5
  40 |   -   3   0   0   -   -   8   -   -   -   -   7   3   -   -   -  15   1   4   0
  60 |   4   0   -   -   -   -   -   -   3   0   0   3   0   3   0   -   0   5   0   0
  80 |   3   0   0   1   3   2   3   0   -   0   2  10   0  15   -   0   -   -   1   1
100  |   -   -   -   0   -   -   0   3   1   0   -   -   2   0   -   -   -  11   -   -
120  |   -   -   -   -   -   -  14   0   -   0  15   0   0   0   1   0   -   0   0   0
140  |   7   1   0   0   0   -   0   0   0   2   6   0   0   7   -   0   0   3   0   -
160  |   3   -   9  14   0   1   1   -   3   0   3   7   0   0   -   -   2   1   0   7
180  |   0   -   -   0   0   4  15   0   0   -   0   0  15  13   -   4   -   9   0   2
200  |   0   -  10  11   -   2   5   3   0   -   0   0   3   0  13   0  15  15   0   4
220  |   6   -   1   2   4   0   0   0   0   -   0   1   2   0   -   1   0   1   2   0
240  |   0   2   6   0   2   0   0   0   0   -   1   0   0   0   0   0

  K/s: 10.546.361 
  TotTime: 38:22m    SolTime: 27:55m


Es sind bei den neuen, was Crystal angeht, mehr zu leichte dabei als  bei den alten, wie gesagt, es kommt auch stark auf die Hardware- TC an. Und die alte 128(4)- Suite, die du eh schon hattest, war ja auch dazu gedacht, mit möglichst wenigen Stellungen, die überhaupt noch sowohl Sensitivität als auch Selektivität für eine gemeinsame Hardware- TC hatten, möglichst viel Aussage zu bekommen. Je größer die Suiten insgesamt sind, umso mehr muss man mischen, besonders wenn's nicht nur um einzelne Engines oder deren Versionen und Branches geht, sondern um ein breiteres Teilnehmerfeld, damit die schwächeren überhaupt noch Punkte machen und auch etwas zum Gesamtscore der anderen beitragen. (Siehe Zahl an "Matches" bei EloStatTS).
Oder ansonsten muss man halt die Bewertung durch EloStatTS oder MEA verfeinern, da gibt's dann eigentlich für die Größe der Suiten kaum ein Grenze nach oben, da kann man ja auch mit Millisekunden- TC laufen lassen, dafür müssen halt die Punkte, die man den einzelnen Stellungen und ihren oft multiplen Lösungszügen vergibt, zusammenpassen und stimmen.
Parent - - By Torsten Cuber Date 2023-11-04 23:27
Ein weiteres Beispiel möchte ich anbringen.
Stellung 128 (Studie von Ganguly):
Für mich eigentlich sehr schön, Crystal 5 findet den Gewinn praktisch sofort: 1.Kd2!, um dem Springer das Feld e2 freizumachen, mit der strategischen Gewinnidee Se2-g1-h3-f2-d1-b2-a4-b6 usw.
Das Problem an der Stellung ist aber ihre Nicht-Eindeutigkeit: Weiß gewinnt genauso mit den Zügen 1.Ke1 oder 1.Kf1.
Entscheidend ist nur, das der König das Feld e2 freimacht und das Feld f2 frei bleibt.
Daher würde ich diese Stellung ebenso nicht in meinen Test aufnehmen!
Parent - - By Peter Martan Date 2023-11-05 00:26 Edited 2023-11-05 00:54
Ja, die muss ich allerdings ersetzen, zu leicht ist Ansichtssache und Frage der Relationen (zu den anderen Stellungen, den Engines und der Hardwarezeit), aber  fehlende Eindeutigkeit macht sie als Teststellung in einer nur mit gelöst oder nicht gelöst beurteilten automatisch ablaufenden Suite unbrauchbar. Danke für den Fund, man kann sie trotzdem als Teststellung für sich allein verwenden, muss aber die Output- Lines der Engines gesondert betrachten, ob die Evals zu den Zügen passen. Und theoretisch kann man in der Suite auch alle gleichwertigen Lösungen als best moves eintragen, im .epd- String können ja beleibig viele hinter bm stehen, im Fritz kann man zusätzlich das vorangestellte = verwenden, sinnvoll ist das in dem Zusammenhang mit dieser Stellung aber auch nicht.

So ist die Studie übrigens in der HHdbVI:

[Event "Twitter"]
[Site "?"]
[Date "2017.09.13"]
[Round "?"]
[White "Ganguly=S"]
[Black "(+0001.77e2h8) (c) U2"]
[Result "1-0"]
[SetUp "1"]
[FEN "7k/8/7p/2p1p1pP/1pPpPpP1/1P1P1P2/4K3/2N5 w - - 0 1"]
[PlyCount "37"]
[EventDate "2017.09.13"]

{correction: Rusz=A Internet 2017. (U2): Polasek=J Ceskoslovensky Sach/7 2018.} 1. Kd2 $1 (1. Na2 $2 Kg7 2. Nxb4 cxb4) (1. Kd1 $2 Kg7 2. Ne2 Kf7 3. Ng1 Kf6 4. Nh3 Ke6 5. Nf2 Kf6) 1... Kg7 2. Ne2 Kf7 3. Ng1 Kf6 4. Nh3 Ke6 5. Nf2 (5. Nxg5+ $2 hxg5) 5... Kf6 6. Nd1 $1 Ke6 7. Nb2 Kd6 8. Na4 Kc6 9. Kc1 $1 (9. Kc2 Kd6 10. Nb6 Ke7 11. Nd5+ Ke6 12. Nc7+ Kd7 13. Nb5 Kc6 14. Na3 Kd6 15. Kd2 $1 {<minor_dual JP>}) (9. Kd1 $1 {<minor_dual JP>} Kd6 10. Nb6 Ke7 11. Nd5+ Ke6 12. Nc7+ Kd7 13. Nb5 Kc6 14. Kd2 $1) 9... Kd6 10. Nb6 Ke7 11. Nd5+ (11. Nc8+ {<or>} Ke6 12. Na7 Kd7 13. Nb5) 11... Ke6 12. Nc7+ Kd7 13. Nb5 Kc6 14. Na3 $1 Kd6 15. Nc2 $1 Ke6 16. Ne1 Kf6 17. Ng2 Ke6 18. Kd1 (18. Kd2 {<or>}) 18... Kf6 19. Nh4 1-0

Nach Forward- Backward mit Huntsman und MultiPV=6 in Tiefe 104:



Analysis by The Huntsman 1:

1. +- (#44): 1.Ke1 Kg7 2.Se2 Kf7 3.Sg1 Ke7 4.Sh3 Ke6 5.Sf2 Kd7 6.Sd1 Ke6 7.Sb2 Kd7 8.Sa4 Kc6 9.Kd1 Kd6 10.Sb6 Ke7 11.Sd5+ Ke6 12.Kd2 Kf7 13.Sc7 Ke7 14.Sb5 Ke6 15.Sa3 Kf7 16.Sc2 Ke7 17.Ke2 Kf7 18.Kf2 Ke8 19.Se1 Kf8 20.Kg2 Kf7 21.Kh3 Kg7 22.Sg2 Kf7 23.Sh4 gxh4 24.Kxh4 Kf6 25.g5+ hxg5+ 26.Kg4 Kf7 27.Kxg5 Kg7 28.Kf5 Kh6 29.Kxe5 Kxh5 30.Kxf4 Kh6 31.Kf5 Kg7 32.e5 Kf7 33.f4 Ke7 34.e6 Ke8 35.Kf6 Kf8 36.f5 Ke8 37.e7 Kd7 38.Kf7 Kc8 39.e8D+ Kb7 40.Db5+ Ka7 41.Ke7 Ka8 42.Kd7 Ka7 43.Kc7 Ka8 44.Db7#

2. +- (#44): 1.Kd2 Kg7 2.Se2 Kf6 3.Sg1 Ke6 4.Sh3 Ke7 5.Sf2 Kd7 6.Sd1 Kc6 7.Sb2 Kc7 8.Sa4 Kc6 9.Kd1 Kd6 10.Sb6 Ke7 11.Sd5+ Ke6 12.Kd2 Kf7 13.Sc7 Ke7 14.Sb5 Ke6 15.Sa3 Kf7 16.Sc2 Ke7 17.Ke2 Kf7 18.Kf2 Ke8 19.Se1 Kf8 20.Kg2 Kf7 21.Kh3 Kg7 22.Sg2 Kf7 23.Sh4 gxh4 24.Kxh4 Kf6 25.g5+ hxg5+ 26.Kg4 Kf7 27.Kxg5 Kg7 28.Kf5 Kh6 29.Kxe5 Kxh5 30.Kxf4 Kh6 31.Kf5 Kg7 32.e5 Kf7 33.f4 Ke7 34.e6 Ke8 35.Kf6 Kf8 36.f5 Ke8 37.e7 Kd7 38.Kf7 Kc8 39.e8D+ Kb7 40.Db5+ Ka7 41.Ke7 Ka8 42.Kd7 Ka7 43.Kc7 Ka8 44.Db7#

3. +- (#45): 1.Kf2 Kg8 2.Se2 Kg7 3.Sg1 Kf8 4.Ke1 Ke7 5.Sh3 Ke6 6.Sf2 Kd7 7.Sd1 Ke6 8.Sb2 Kd7 9.Sa4 Kc6 10.Kd1 Kd6 11.Sb6 Ke7 12.Sd5+ Ke6 13.Kd2 Kf7 14.Sc7 Ke7 15.Sb5 Ke6 16.Sa3 Kf7 17.Sc2 Ke7 18.Ke2 Kf7 19.Kf2 Ke8 20.Kg2 Kd7 21.Kh3 Kd6 22.Se1 Ke7 23.Sg2 Kf6 24.Sh4 gxh4 25.Kxh4 Kg7 26.g5 Kh7 27.gxh6 Kxh6 28.Kg4 Kh7 29.Kf5 Kh6 30.Kxe5 Kxh5 31.Kxf4 Kh6 32.Kf5 Kg7 33.e5 Kf7 34.f4 Ke7 35.e6 Ke8 36.Kf6 Kf8 37.f5 Ke8 38.e7 Kd7 39.Kf7 Kc8 40.e8D+ Kb7 41.Db5+ Ka7 42.Ke7 Ka8 43.Kd7 Ka7 44.Kc7 Ka8 45.Db7#

4. +- (#45): 1.Kd1 Kg7 2.Se2 Kf6 3.Sg1 Ke7 4.Sh3 Ke6 5.Kd2 Ke7 6.Sf2 Kd7 7.Sd1 Kc6 8.Sb2 Kd7 9.Sa4 Kc6 10.Kd1 Kd6 11.Sb6 Ke7 12.Sd5+ Ke6 13.Kd2 Kf7 14.Sc7 Ke7 15.Sb5 Ke6 16.Sa3 Kf7 17.Sc2 Ke7 18.Ke2 Kf7 19.Kf2 Ke8 20.Kg2 Kd7 21.Kh3 Kd6 22.Se1 Ke7 23.Sg2 Kf6 24.Sh4 gxh4 25.Kxh4 Kg7 26.g5 Kh7 27.gxh6 Kxh6 28.Kg4 Kh7 29.Kf5 Kh6 30.Kxe5 Kxh5 31.Kxf4 Kh6 32.Kf5 Kg7 33.e5 Kf7 34.f4 Ke7 35.e6 Ke8 36.Kf6 Kf8 37.f5 Ke8 38.e7 Kd7 39.Kf7 Kc8 40.e8D+ Kb7 41.Db5+ Ka7 42.Ke7 Ka8 43.Kd7 Ka7 44.Kc7 Ka8 45.Db7#

5. +- (#45): 1.Kf1 Kg7 2.Se2 Kf6 3.Sg1 Kf7 4.Sh3 Ke6 5.Ke1 Ke7 6.Sf2 Ke6 7.Sd1 Ke7 8.Sb2 Kd7 9.Sa4 Kc6 10.Kd1 Kd6 11.Sb6 Ke7 12.Sd5+ Ke6 13.Kd2 Kf7 14.Sc7 Ke7 15.Sb5 Ke6 16.Sa3 Kf7 17.Sc2 Ke7 18.Ke2 Kf7 19.Kf2 Ke8 20.Kg2 Kd7 21.Kh3 Kd6 22.Se1 Ke7 23.Sg2 Kf6 24.Sh4 gxh4 25.Kxh4 Kg7 26.g5 Kh7 27.gxh6 Kxh6 28.Kg4 Kh7 29.Kf5 Kh6 30.Kxe5 Kxh5 31.Kxf4 Kh6 32.Kf5 Kg7 33.e5 Kf7 34.f4 Ke7 35.e6 Ke8 36.Kf6 Kf8 37.f5 Ke8 38.e7 Kd7 39.Kf7 Kc8 40.e8D+ Kb7 41.Db5+ Ka7 42.Ke7 Ka8 43.Kd7 Ka7 44.Kc7 Ka8 45.Db7#

6. +- (#46): 1.Sa2 Kg8 2.Ke1 Kf7 3.Sc1 Ke7 4.Se2 Kd6 5.Sg1 Ke7 6.Sh3 Ke6 7.Sf2 Kd7 8.Sd1 Ke7 9.Sb2 Kd7 10.Sa4 Kc6 11.Kd1 Kd6 12.Sb6 Ke7 13.Sd5+ Ke6 14.Kd2 Kf7 15.Sc7 Ke7 16.Sb5 Ke6 17.Sa3 Kf7 18.Sc2 Ke7 19.Ke2 Kf7 20.Kf2 Kf8 21.Se1 Ke8 22.Kg2 Kd7 23.Kh3 Ke8 24.Sg2 Ke7 25.Sh4 gxh4 26.Kxh4 Kf6 27.g5+ hxg5+ 28.Kg4 Kf7 29.Kxg5 Kg7 30.Kf5 Kh6 31.Kxe5 Kxh5 32.Kxf4 Kg6 33.e5 Kg7 34.Kf5 Kf7 35.f4 Ke7 36.e6 Ke8 37.Kf6 Kf8 38.f5 Ke8 39.e7 Kd7 40.Kf7 Kc8 41.Ke6 Kb7 42.e8D Ka7 43.Db5 Ka8 44.Kd7 Ka7 45.Kc7 Ka8 46.Db7#
Weiß setzt Matt

Also ich persönlich würde zumindest das 1.Sa2 schon auch ein Major Dual nennen, weil's ja eigentlich schon auch eine Lösung neben dem eigentlichen Thema ist. Ich werd's Harold van der Heijden schreiben, vielleicht will er das in der nächsten Ausgabe doch auch erwähnen. Die 2 Fragezeichen bei den beiden angegeben Sidelines sind schachlich nicht verständlich, entsprechen nicht der allgemein üblichen Bedeutung dieser Kommentarsymbole und sind höchstens eine Frage von Autorenlösung und Nebenlösung.

Edit: als erster Ersatz fiele mir der Popov- Mehrzüger ein, den Roland Riener im anderen Thread gebracht hat, was meinst du zu dem, Torsten?

https://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=166699#pid166699

Würde meiner Meinung nach ganz gut zu den alten 128 passen, die ja noch eher die schwereren im Schnitt relativ zu den neuen 128 sind.
In moderater Hardware- Zeit lösbar aber auch nicht soo leicht, wenn man's nicht gerade mit Crystal 5 testet und Crystal 6 nicht seinen besten Tag an SMP- Glück hat
Parent - - By Torsten Cuber Date 2023-11-05 09:06 Edited 2023-11-05 09:17
Zum Popov- Mehrzüger:
Meiner Meinung nach zu leicht!
Crystal 5 findet 1.Le4 mit MA9 in 7 Sekunden, SugaR AI ICCF 1.80 braucht dafür nur 2 Sekunden!!
Auf meinem Smartphone XIAOMI 11 mit 8 Kernen und jeweils 1024 MB HT.
Bei einem zweiten Versuch benötigt Crystal 5 nun schon 224 Sekunden, SugaR AI ICCF 1.80 braucht 9 Sekunden.
Parent - - By Peter Martan Date 2023-11-05 10:04 Edited 2023-11-05 10:59
Torsten, wir haben verschiedene Absichten, die wir mit den Suiten verfolgen, bzw. hast du nur ein bestimmte solche, wie's scheint, ich hätte gern verschiedene für verschiedene Zwecke.
Wenn du nur Stellungen reinnimmst, die immer nur eine bestimmte Engine (weitaus am besten) lösen kann in moderater Hardware- Zeit, bringt das so richtig nur Erkenntnis für (z.B. Crystal-) Versionsvergleiche dieser Engine, für andere (selbst für die anderen eigens zur Analyse programmierten und vor alle auch für deren Settings, von denen sie meistens viele bieten, um sie an derartige Stellungen anpassen zu können) wär mir das zu selektiv. Da immer wieder solche mitspielen zu lassen, die in jeder neuen Version immer noch weit zurückbleiben, wäre mir zu Hardware- Zeit- aufwändig.
Und 5 Minuten ist schon wirklich viel heutzutage, selbst wenn's nur 100 Stellungen sind, hast du für einen Run schon über 8 Stunden Rechnerzeit, vor allem wenn die Stellungen großteils nicht gelöst werden und also auch bei Extrahalbzügen unter dem Maximum, das du eingeben kannst, die Vorgabe immer wieder ganz abläuft, das ist mir zuviel für eine einzelne Suite, deren Stellungen dann ja doch auch alle ziemlich weit von der normalen Spielpraxis entfernt sind, da beschäftige ich mich lieber beliebig lange interaktiv mit jeder einzelnen von ihr.
Aber nur weil ich lieber schneller breiter gestreute Ergebnisse durch größere Sammlungen und trotzdem und erst recht noch einen großen Strauß von einzelnen Suiten verwende, heißt das natürlich nicht, dass du das auch so machen sollst oder gar musst, wenn's dich auf deine Art mehr freut.
Ich find's jedenfalls gut, wie du an die Sache (an die Stellungen) als solche herangehst und dass du's mit uns teilst.

Edit: ich hab' übrigens in einer meiner Problem- Datenbanken am Rechner die Ganguly- Studie mit Kommentaren und Varianten gefunden, in denen ich das eine Major Dual auch schon drin hatte, sogar auch mit Durchrechnung zum Matt. Je länger ich darüber nachdenke, desto bekannter kommt sie mir vor, kann sogar sein, dass ich sie anno dazumal in die 256 schon deshalb nicht mehr reingenommen hatte, aber das weiß ich einfach nicht mehr, ja, das Alter
Parent - By Torsten Cuber Date 2023-11-05 10:54
Lieber Peter, nur zur Info:
Ich bin jetzt dabei, deine neue Testsuite 256p.epd mit den 128 neuen Stellungen von Dan Corbit auf meinem Smartphone zu analysieren, und mir die Lösezeiten zu notieren (Timelimit 5 Minuten pro Stellung!)
Das dauert dann zwar sehr lange, aber ich hoffe, auf diese Weise ein paar sehr schwere Stellungen für meinen PC-ULTRA-3-TEST zu finden!
Gruß vom Schachfreund Torsten
Parent - - By Peter Martan Date 2023-11-06 13:15 Edited 2023-11-06 13:34
Zu dieser Stellung nach einmal zurück, Torsten, ich persönlich finde die "schwerer" im Engine- Test- Sinn als z.B. das Plaskett- Puzzle, das auch in diesem Thread im Gespräch war, ein alter Klassiker auch in den Suiten ist (bei den "alten" 256(2), die ich auch immer noch und eigentlich am meisten von den single best move- Suiten fürs allgemeine Screening mit einer SMP- TC von 5"/Stellunge verwende, ist sie auch immer noch dabei, bei den alten 128 war sie's nicht, weil sie eben bei 15" heutzutage von mehr starken Engines gelöst als nicht gelöst wird, die neueren Lc0- Versionen und -Netze haben das z.B. blitzschnell), und das man ja z.B. auch als Ersatz für die Ganguly- Studie nehmen könnte.

Den Popov-9-Züger hab' ich jetzt noch einmal mit Lc0, SF dev., CorChess dev. (vom vorigen Monat) und Crystal 6 PM laufen lassen, um mehrere Instanzen gleichzeitig zu haben, die A-B-Engines mit je 8 threads der 16x3.5GHz- CPU, Lc0 mit der 3070ti- GPU, alle mindestens 5 Minuten lang.
Die einzige Engine außer Crystal, die das halbwegs in der Zeit geschafft hat, war CorChess, so schaut der Output aus:

8/2p1N3/2p5/2p5/P1kb2R1/4p3/P3p1P1/1B2B2K w - - 0 1

Analysis by CorChess 4 dev-20231015-cf91ba90:

1.Le4 Lc3 2.Lg6+ Ld4 3.Te4 Kd3 4.Te6+ Kc4 5.g3 Lc3 6.Te4+ Ld4 7.Kg2 Kd3 8.Txe3+ Kxe3 9.Lc2 Lc3 10.Sf5#
+- (#10)   Tiefe: 47/20   00:05:53  1688MN, tb=544454
Weiß setzt Matt

Worauf's beim single best move- Test ja nur ankommt, ist die richtige Zugwahl, aber selbst hier hat CorChess noch ein bisschen Glück bei deser single primary- Wahl, ein Matt in 10 gibt's auch mit z.B. 1.Sc6?!, er hätte also aus den Gründen, aus denen er den Zug gewählt hat (der DTM der Kandidaten), genau so gut den anderen nehmen können, so lange er nicht das #9 durchgerechnet hat.
Das ist etwas sophisticated, aber was man halt immer, gerade auch bei den #in x- Aufgaben bedenken muss, wenn ein Matt in 10 einem Matt in 9 vorgezogen wird, ist das einfach ein weniger schwerer Fehler, als wenn ein single best move, der mit Abstand der beste ist (ein Zug von 9 bis zum Matt ist wenig Abstand) nicht gefunden wird.
Aus allen diesen Gründen finde ich die Popov- Studie als Suite- Stellung schwerer für die Engines als das Plaskett- Puzzle von Gijs van Breukelen.

Übrigens hat's jetzt SF dev. auch endlich:

8/2p1N3/2p5/2p5/P1kb2R1/4p3/P3p1P1/1B2B2K w - - 0 1

Analysis by Stockfish dev-20231008-7a4de961:

1.Sf5
  Weiß steht klar auf Gewinn: +- (5.28)  Tiefe: 1/1   00:00:01  285Knoten
1.a5
  Weiß steht klar auf Gewinn: +- (6.14)  Tiefe: 2/2   00:00:01  798Knoten
1.a5 Kb5 2.Ld3+ Ka4 3.Lxe2
  Weiß steht klar auf Gewinn: +- (7.61)  Tiefe: 3/3   00:00:01  1011Knoten
...
1.a5 Kb5 2.Ld3+ c4 3.Lxe2 c5 4.Tg8 Ka4 5.a6 c3 6.a7 c4 7.a8D+ Kb4 8.Db7+ Kc5 9.Dc6+ Kb4 10.Dxc4+ Ka3 11.Db3#
  Weiß setzt Matt: +- (#11)  Tiefe: 58/22   00:09:18  3210MN, tb=1087672
1.Le4 Lc3 2.Lh7+ Ld4 3.Te4 Kd3 4.Th4+ Kc4 5.g4 Lc3 6.g5+ Ld4 7.g6 Kd3 8.g7+ Kc4 9.g8D#
  Weiß setzt Matt: +- (#9)  Tiefe: 59/22   00:09:57  3538MN, tb=1126569
...
1.Le4 Lc3 2.Lh7+ Ld4 3.Te4 Kd3 4.Th4+ Kc4 5.g4 Lc3 6.g5+ Ld4 7.g6 Kd3 8.g7+ Kc4 9.g8D#
  Weiß setzt Matt: +- (#9)  Tiefe: 77/18   00:13:26  5577MN, tb=1278457

Wie gesagt, "nur" 8 threads, und mit etwas SMP- Glück mag das in einzelnen Versuchen auch wesentlich schneller gehen, aber das mag dann wie oben bei CorChess auch ein bisschen Glück bei der Sortierung der Züge mit ähnlicher DTM sein.
Also ob ich auf die Dauer bei der Popov- Studie in den 128 bleiben werde, weiß ich auch noch nicht, aber wenn ich sie wieder austausche, dann eher weil sie mir für 15" zu schwer vorkommt für die Engines, die halt jetzt gerade aktuell und interessant sind, nicht zu leicht.
Das wäre jedenfalls, wenn's jemand nicht selbst editieren will, der Suite- fähige .epd- String, wenn man ihn an der Stelle einfügen will, wo bisher die Ganguly- Studie war, als Nr.128:

8/2p1N3/2p5/2p5/P1kb2R1/4p3/P3p1P1/1B2B2K w - - bm Be4; hmvc 0; id "Popov, G._#9_Der Standard 2006, 128";
Parent - - By Torsten Cuber Date 2023-11-06 13:58 Edited 2023-11-06 14:05
Danke für deine ausführliche Antwort, auch wenn ich, wie gesagt, nicht alle Fachbegriffe verstehe.
Nur soviel:.
Ich habe SugaR AI ICCF 1.80 auf meinem Smartphone, leider sind spätere Versionen nicht mehr auf dem Google Play Store zu finden.
Auch Droidfish gibt's dort nicht mehr!!
Und SugaR findet das Matt in 9 tatsächlich in 0:02, also in 2 Sekunden.
Crystal 5 zeigt das Matt in 9 in 0:10, also in 10 Sekunden.
Wohlgemerkt auf einem Smartphone, das zwar sehr schnell, aber eben doch weit entfernt ist von der Rechenpower eines aktuellen Top-PC.
Also ich halte SugaR (wohlgemerkt die ICCF- VERSION) heute noch für eine tolle Analyse-Engine.
Parent - - By Peter Martan Date 2023-11-06 14:12 Edited 2023-11-06 14:20
Torsten Cuber schrieb:

Und SugaR findet das Matt in 9 tatsächlich in 0:02, also in 2 Sekunden.
Crystal 5 zeigt das Matt in 9 in 0:10, also in 10 Sekunden.
Wohlgemerkt auf einem Smartphone, das zwar sehr schnell, aber eben doch weit entfernt ist von der Rechenpower eines aktuellen Top-PC.
Also ich halte SugaR (wohlgemerkt die ICCF- VERSION) heute noch für eine tolle Analyse-Engine.

Ist sie zweifellos.
Aber auch der jüngste SugaR Iccf, den ich habe, braucht da (single primary, also ohne den internen MultiPV- Modus zu aktivieren) ein bisschen länger als z.B. noch der 2.50 gebraucht hat, der's auch sofort hat.

8/2p1N3/2p5/2p5/P1kb2R1/4p3/P3p1P1/1B2B2K w - - 0 1

Analysis by SugaR XPrO Iccf 040823:

1.Sg6 Kd5 2.Sf4+ Kd6 3.Sxe2 Le5 4.Lh4 Kd7 5.Lf5+ Ke8 6.a5
  Weiß steht klar auf Gewinn: +- (11.45)  Tiefe: 10/19   00:00:00
...
1.Sxc6 Kd5 2.Le4+ Ke6 3.a5 c4 4.Sxd4+ Ke7 5.Sf5+ Kf7 6.Tg7+ Ke6 7.Te7+ Kf6 8.Lh4+ Kg6 9.Tg7+ Kh5 10.Lf3#
  Weiß setzt Matt: +- (#10)  Tiefe: 31/19   00:00:37  2477MN
1.Le4 Lc3 2.Lh7+ Ld4 3.Te4 Kd3 4.Th4+ Kc4 5.g4 Lc3 6.g5+ Ld4 7.g6 Kd3 8.g7+ Kc4 9.g8D#
  Weiß setzt Matt: +- (#9)  Tiefe: 32/19   00:00:50  3525MN

Und das waren jetzt doch immerhin 30 threads und weder innerhalb von 15" noch innerhalb von 30" wäre das (wahrscheinlich, je nach SMP- Glück oder -Pech) bei den Engines gewesen, die's gelöst hätten.
Wie gesagt, alles immer eine Frage des Teilnehmerfeldes und der Hardware- TC.

Edit: Droidfish ist ein Lizenz- Problem mit Google Playstore, soviel ich weiß, da gab's einen Workaround, wenn ich mich nicht irre, hat ihn Peter Österlund auch mal im Talkchess beschrieben, dort funktioniert nur gerade wieder die Suche nicht.
Das ist jedenfalls die github- Site, nur für den Fall, dass du sie noch nicht kennst:

https://github.com/peterosterlund2/droidfish
Parent - - By Torsten Cuber Date 2023-11-06 14:32
Danke Peter, ehrlich gesagt, Droidfish ist für mich immer erste Wahl gewesen bei Schach auf dem Smartphone, und ich möchte mich für den Hinweis auf diese Seite bedanken.
Schade, dass Droidfish im Google Play Store nicht mehr erhältlich ist.
Hab diese Seite von Österlund auch gleich gespeichert.
Man sollte als Schachfan auch Mal dankbar sein für die immense Arbeit, die die Entwickler von Stockfish leisten... für uns!. Ohne daran zu verdienen, alles kostenlos!!
Peter Österlund macht sich soviel Arbeit und Mühe mit der App, und trotzdem wird von vielen Seiten gejammert und gemeckert!
Wir haben heute eine Schach-App, die (abgesehen von der Suche nach Stellungen und Partien in Datenbanken) fast alles bietet, was man sich wünschen kann.
Dazu Engines, die auf dem Niveau von Weltmeister spielen, und das alles auf dem Handy.
Eigentlich sollten wir vor Glück und Dankbarkeit auf die Knie fallen..
Wer hätte sich vor dreißig, vierzig Jahren sowas träumen lassen.
Parent - By Peter Martan Date 2023-11-06 14:58 Edited 2023-11-06 15:04
Mittlerweile funktioniert die Talkchess- Suche wieder, das Erste, was ich fand, war das:

https://talkchess.com/forum3/viewtopic.php?p=935113#p935113

Weiß allerdings nicht, was das ist, was man sich bei dem Link, der darin enthalten ist, runterladen kann. apk- Dateien kann wohl nur Android direkt verarbeiten, für Windows (10) braucht man einen Emulator?
Aber der Name des Links hat mich auf die Idee gebracht, auf dieser Site zu suchen:

https://f-droid.org/packages/org.petero.droidfish/

Vielleicht hast du da ja was davon.

Hier

https://talkchess.com/forum3/viewtopic.php?p=923134&sid=49d570fae24f8da964452de8a2e6aeb2#p923134

sind noch ein paar Erläuterungen über das Problem als solches.

Die Suche mit droidfish bringt auf Talkchess dann noch andere Threads, in denen's z.B. um Chess for Android geht, aber das ist ja nicht das, was du suchst.
Parent - - By Torsten Cuber Date 2023-11-04 23:33 Edited 2023-11-05 00:04
Noch ein Beispiel:
Stellung 130, Studie von Krosny.
Weiß gewinnt mit 1.d7!, dies findet Crystal 5 auf dem Smartphone sofort, nach zwei Sekunden mit Mattanzeige MA 11!
Also solche Stellungen werde ich dann nicht bei mir aufnehmen, weil für die absolute Spitze der Engines zu einfach.
Liebe Grüße vom Torsten
Parent - - By Lothar Jung Date 2023-11-05 07:08
Dies ist auch nicht schlecht:

https://en.wikipedia.org/wiki/Plaskett%27s_Puzzle
FEN: 8/3P3k/n2K3p/2p3n1/1b4N1/2p1p1P1/8/3B4 w - - 0 1
2700X|RTX 3080  BT3 vanilla instant, old T78 2 mins., Sf_23103006 8 mins. still 1.Nxe3??
Parent - - By Torsten Cuber Date 2023-11-05 08:00
Lieber Lothar, die Breukelen-Studie ist schon lange Teil meines PC-ULTRA--TEST, wird wahrscheinlich aber bei der nächsten Revision nicht mehr drin bleiben. Warum?
Weil zum Beispiel Crystal 5 auf meinem Smartphone XIAOMI 11 die Lösung 1.Sf6+! in 3 Sekunden findet! Selbst die schon etwas ältere SugaR AI ICCF Engine 1.80 findet ihn auf dem XIAOMI in 11 Sekunden.
Parent - - By Andreas Matthies Date 2023-11-05 09:46
Wieder mal ein schönes Beispiel dafür, warum diese Stellungstests so sinnlos sind, die Spielstärke von Engines objektiv zu messen.
Stellung X wird in die Testsuite aufgenommen, weil Engine A Schwierigkeiten hat, den richtigen Zug zu finden.
Stellung Y (in diesem Fall X=Y, aber ich verallgemeinere mal) fliegt aus der Suite raus, weil Engine B den Zug zu schnell findet.
Was nützt es einer Engine, wenn sie in 100 knackigen Positionen den besten Zug findet, der in diesen Testsuites ja häufig auch untypisch ist im Sinne, dass er gegen übliche Strategien verstößt, wenn dieselbe Engine in 100.000 "normalen" Positionen den richtigen Zug zu spät findet, weil sie noch damit beschäftigt ist, auch die ungewöhnlichen Strategien zu verfolgen?
Die besten Stellungstests schreibt doch immer noch das wahre Leben, also echte Spiele.
Parent - - By Torsten Cuber Date 2023-11-05 10:26 Edited 2023-11-05 10:45 Upvotes 1
Das sehe ich nicht so!
ERSTENS: Meine Stellungstests haben nicht den Zweck, eine "objektive Spielstärke" zu messen.
Erstens ist dies kaum möglich, jede Rangliste im Internet bietet hier andere Rangfolgen!
Bei jedem Engine-Turnier landet eine andere Engine vorne. Elozahlen sind Schall und Rauch!
Wie bitte wollen wir beurteilen, welche Engine objektiv die stärkste ist?
Wie wollen wir Menschen einen Unterschied erkennen zwischen 3400 und 3450 ELO? (nur Mal als Beispiel!)
Wir starren auf die Elozahlen und glauben, dass uns das weiterhilft.
Meine Testreihen sollen keine wie auch immer geartete "objektive Spielstärke" ermitteln, sondern sie erfüllen einen anderen Zweck: Ich erkenne, welche Unterschiede zwischen den einzelnen Programmversionen bestehen!.
Wenn Crystal 3 z.B. 60 Stellungen von 100 lösen konnte, und Crystal 5 schafft 70, und Crystal 6 findet 75 Lösungen, dann sagt mir mein Test ziemlich eindeutig und mit ziemlicher Sicherheit, daß hier ein klarer Zuwachs an (taktischer) Spielstärke stattgefunden hat!
Und darum geht es mir.
ZU ERKENNEN, WIE DIE PROGRAMME IM LAUFE DER JAHRE IMMER STÄRKER WERDEN UND TAKTISCH BESSER WERDEN.
Und man erkennt die RELATIVE TAKTISCHE SPIELSTÄRKE der Programme untereinander!
Das genügt mir vollkommen.
Ich erkenne, daß Stockfish eben nicht taktisch alles überragend ist, auch wenn er " absolut" betrachtet die beste Schachengine ist.
ZWEITENS: Ich habe immer wieder betont, dass es mir vor allem darum geht, welche Engine für die TAKTISCHE ANALYSE am besten geeignet ist.
Ich benutze die Schachprogramme nicht für Engine-Engine Matches, sondern für die Analyse der Partien der großen Schachmeister, von Morphy angefangen bis Carlsen heute.
Das und die Beschäftigung mit der Schachgeschichte bereitet mir die größte Freude, und ich lerne dabei jede Menge über Schach!
Was lerne ich über Schach, wenn Engines 1000 Bulletpartien gegeneinander spielen und ich am Ende nur auf das Ergebnis schaue?
Was bringt mir das?
Gar nichts!
Ich analysiere mit den Engines, und finde jedesmal wieder neue, verblüffende Varianten, die ein paar Jahre zuvor noch nicht gefunden wurden.
Mein PC-Test bezweckt nicht mehr und nicht weniger, als herauszufinden, welche Engines FÜR DIE ANALYSE am besten geeignet sind.
Und diesen Zweck erfüllt er sehr zuverlässig!
Vielleicht konnte ich jetzt ein paar Dinge klarstellen.
Liebe Grüße vom Schachfreund Torsten!
Parent - By Kurt Utzinger Date 2023-11-05 14:02
Torsten Cuber schrieb:

[...]ich benutze die Schachprogramme nicht für Engine-Engine Matches, sondern für die Analyse der Partien der großen Schachmeister, von Morphy angefangen bis Carlsen heute. Das und die Beschäftigung mit der Schachgeschichte bereitet mir die größte Freude, und ich lerne dabei jede Menge über Schach! Was lerne ich über Schach, wenn Engines 1000 Bulletpartien gegeneinander spielen und ich am Ende nur auf das Ergebnis schaue? Was bringt mir das? Gar nichts!

Das sehe ich (für mich) genau so.
Zitat:

Ich analysiere mit den Engines, und finde jedesmal wieder neue, verblüffende Varianten, die ein paar Jahre zuvor noch nicht gefunden wurden. Mein PC-Test bezweckt nicht mehr und nicht weniger, als herauszufinden, welche Engines FÜR DIE ANALYSE am besten geeignet sind. Und diesen Zweck erfüllt er sehr zuverlässig! Vielleicht konnte ich jetzt ein paar Dinge klarstellen.
Liebe Grüße vom Schachfreund Torsten!

Diese Klarstellung hier ist/war sicher aufschlussreich. Da die Präferenzen natürlich aber sehr unterschiedlich sind, möchte ich aber auch jenen die Freude am Computerschach nicht vergällen, denen (einzig) die Produktion von Engine-Ranglisten anhand einer Unmenge von Partien wichtig sind. Die unterschiedlichen Ranglisten möchte ich nicht missen, können doch daraus ebenfalls Rückschlüsse zur allgemeinen Stärke von Engines gezogen werden.

Mfg
Kurt
Parent - - By Andreas Matthies Date 2023-11-05 14:02
Okay, dann sind wir ja gar nicht weit auseinander.
Meine Befürchtung ist halt, dass es "Entwickler" gibt, die "ihre" Engine dahingehend tunen, dass sie in gängigen Testsuites wie z.B. der heiligen HTC114 besser abschneiden.
Das hat dann nach meiner Meinung nicht viel mit taktischer Stärke zu tun.

Insofern ist es sogar gut, dass du deine Testsuite privat hältst... ist sie doch, oder?

Liebe Grüße vom Hobbyprogrammierer und Stümperschachspieler Andreas
Parent - By Torsten Cuber Date 2023-11-05 16:31 Edited 2023-11-05 16:35
Lieber Andreas, genau so ist es.
Solange eine Testsuite privat bleibt, kann kein Entwickler/Programmierer seine Engines darauf "tunen".
Wenn sie in meinem Test, der über viele Jahre zusammen getragen und immer wieder "renoviert" wurde, mit Stellungen, die in keinem anderen Test enthalten sind ( z.b. eine Endspielstellung von mir selbst!), kann ich davon ausgehen, dass die Ergebnisse der Engines ihre realen analytischen Fähigkeiten widerspiegeln.
Absolute Elozahlen erwarte ich davon nicht.
Mir geht's um die Beschäftigung mit Schach und den jeweiligen Stellungen.
Deshalb führe ich jeden Test von Hand durch.
Nichts läuft automatisch ab.
Ich sitze am PC und lasse die Engines die Stellungen analysieren, und sobald ich etwas entdecke, das mir gefällt, probiere ich neue Abspiele aus ( natürlich erst nach Ablauf der 5 Minuten, solange lass ich das Programm in Ruhe rechnen!).
Und dabei entdeckt man auch immer wieder Mal Widerlegungen bzw. Nebenlösungen bekannter Stellungen und Studien.
Parent - - By Peter Martan Date 2023-11-05 13:58 Edited 2023-11-05 14:23 Upvotes 1
Andreas Matthies schrieb:

Die besten Stellungstests schreibt doch immer noch das wahre Leben, also echte Spiele.

Das gefällt mir, weil's ja impliziert, dass Spiele auch Stellungstests sind. Die Stellungen, die den Engines zum Ausspielen vorgegeben werden, sind Teststellungen, wie groß der Vorteil einer Seite sein darf und soll, damit's nicht mehr nur Remis werden, wird immer mehr eine Sache der Selektion dieser Stellungen, damit's dann, wenn der Vorteil für die Spielstärke der Teilnehmer zu groß wird, nicht lauter 1:1- Paare statt der Remis werden, was die Statistik noch mehr ad absurdum führt, weil's noch mehr Partien braucht zur Signifikanz als die gleich große Remiszahl bei gleicher Performance bräuchte.

Die Stellungen, die die Engines selbst beim Match aufs Brett bringen, meinst du vermutlich, sind die besten für den ausgespielten Stellungstest, mag sein, wenn man genau das wissen will, wie die Engines mit diesen Stellungen gegeneinander beim Ausspielen abschneiden, dass das aber alle Stellungen sind, die Menschen am Schach interessieren können, beweist eben gerade die Beschäftigung mit Stellungen, die nicht so in dieses Beuteschema der Engines passen und in denen sie schon beim nicht ausgespielten Stellungstest schwerer zurecht kommen.
Jetzt die Stellungen, die die Engines beim Match gegeneinander nicht selbst aufs Brett bringen, von der Spielstärkemessung auszublenden, das ist genau so Selektion (und damit Bias, wenn man's von der rein Zufalls- gesteuerten Randomisierung her sieht) wie sie umgekehrt absichtlich in den Fokus zu rücken.

Dass du sogar mal ein RubiChess- NNUE mit den Stellungen von Eduard Nemeths Suite trainiert hast, um dann zu sehen, dass es tatsächlich danach ein paar Stellungen mehr in der Zeit gelöst hat, das hat mir gut gefallen, aber vermutlich aus genau den entgegengesetzten Gründen wie dir. Gibt's einen schöneren Beweis als den, dass sogar das Training neuronaler Netze die Engine dazu bringen kann, mit einer selektierten Sammlung von Stellungen besser abzuschneiden, dass diese Stellungen also soo weit von dem, was Engines spielen und was jedenfalls auch etwas mit Schach zu tun hat, nicht alle soo weit weg sein werden?

Eduards Suite (soweit ich sie aktuell kenne) ist nicht meine Lieblingssuite, es ist eine der Vielen, die mit derartigen taktischen single best move Stellungen bestückt sind, diese Suiten und diese Stellungen geistern seit Jahrzehnten durchs Netz und immer wieder wundert man sich, wie immer wieder spätere, neuere, im Eng-Eng-Match erfolgreichere Versionen von Engines plötzlich viel besser aber auch immer wieder mal von Version zu Version schlechter damit umgehen.
Und nein, weil das mit einer bestimmten Stellung und einer bestimmten Engine so ist, heißt just absolut gar nix außer, dass sie mit der einen Stellung genau so und so viel kürzer oder länger brauchen an time to solution, time to best line, time to best eval, um ihren output dazu zu liefern, das hat aber Leute wie Torsten und mich (und da gibt's schon noch ein paar Andere, die ich jetzt nicht alle zu Hilfstruppen heranziehen will und kann, dazu gibt's zuviele namhafte Namen) noch nie davon abgehalten, dass sie diese Stellungen halt auch immer wieder interessiert haben, dieses Interesse kriegst du nicht aus den Köpfen der Schachspieler, auch wenn du ihnen noch so lang erzählt, dass das Menschen nicht zu interessieren braucht, wenn's die Engines von sich aus nicht so super finden.

Wer sagt, dass du nur taktisch knifflige single best move- Stellungen zum Testen nehmen sollst, kannst, darfst, aber wer sagt, dass die anderen Teststellungen, die Eröffnungen, die die Engine nicht von selbst spielen würde, und die Mittel- und Endspielstellungen, die sie nicht selbst im Match aufs Brett bringt, weil sie nicht ihn ihr Win or Safe Draw- Konzept passen und in ihr HCE oder NN- basiertes Eval- Konzept, dass die alle nicht auch des Testens wert wären?

Das sagen Diejenigen, die das Testen nicht noch komplizierter machen wollen und nicht noch Hardware- Zeit- aufwändiger, weil sonst müssten sie, gerade wenn sie nur das Ausspielenlassen gelten lassen, auch x-beliebige handverlesene Mittel- und Endspielstellungen zum Eng-Eng-Match verwenden und schwupps hätten wir zu den beliebig vielen verschiedenen Elo- und Celo- Arten noch beliebig viele mehr.
Haben wir auch, wenn wir verschiedene einzelne Stellungen nehmen, die etwas aus der Eng-Eng-Spielpraxis ausreiten, und sie den Engines vorsetzen, natürlich auch zeitweise in der bösen Absicht, genau solche Stellungen zu wählen, mit denen die Engines ihre Schwierigkeiten haben, vielleicht sogar eigens solche Stellungen, die Menschen dazu komponiert haben, nicht nur um Engines, aber auch um menschliche Spieler damit zu überfordern.
Hätte man nie gezielt nach Schwächen bei den Engines gesucht, hätten sie viele von denen, die sie (so) jetzt nicht mehr haben, immer noch (mehr), sag' ich mals so, früher waren die Programmierer eigentlich immer ganz froh, wenn sie auf blinde Flecken in der Suche aufmerksam gemacht wurden.

Ich bin beileibe auch nicht (wie auch Torsten nicht, der das auch geade geschrieben hat) dahingehend unterwegs, das Eng-Eng-Match zur Spielstärkemessung konkurrenzieren zu wollen durch Stellungstests, die vielen Stellungen und die vielen Suiten, die ich gerne verwende, sollen alle zusätzliche Infos liefern zum game playing (und vor allem zu einem, wie es heutzutage, um überhaupt noch auf signifikante Ergebnisse zu kommen, gemacht werden muss, mit Unmengen von Partien, mit reduzierter bis stark reduzierter Hardware- TC und mit unausgeglichenen Eröffnungsstellungen) und je mehr verschiedene Stellungen und je mehr verschiedene Suiten dazu, umso besser für mich.
Mein Interesse gilt in den letzten Monaten und Jahren immer mehr auch den Stellungen, die ihren best move oder ihre best moves nicht forciert beweisbar haben, gerade auch in Suiten, (im Spiel, z.B. im Fernschach sowieso) weil man von diesen Stellungen ja viel schneller viel mehr verwendbare hat, die MEA- Ansätze von Schröder und Mosca haben wieder einen Schritt weitergebracht damit, wobei das Prinzip der multiplen Lösungsvorgaben mit Ranking und Rating der einzelnen Lösungen pro Stellung ja auch schon bei Swaminathan und Corbit recht erfolgreich war, also neu ist das auch nicht gerade.
Ich selbst habe aus 1001 UHO- Stellungen eine MEA- Suite gebastelt, ich kombiniere gern "leichte" taktische mit unforcierten Eröffnungs- Mittel- und Endspielstellungen, meine größte derartige Suite enthält 2345 Stellungen in MEA- Syntax, (Schröder hat mit Temere, dem Nachfolger von MEA ganze Datenbanken auf diese Art zuerst eine oder zwei Engines evaluieren und die multiplen Abspiele sortieren lassen und verwendet solche über 40.000 Stellungen große Suiten, wenn's noch in absehbarer Hardware- Zeit mit Millisekunden- TC laufen soll)  ich würde mir das alles nicht antun, wenn ich nichts anderes wollte, als Ergebnisse zu bekommen, die dem STC und dem VSTC- game playing einfach gleich wären, wozu? Das Eng-Eng-Match erspart man sich ja doch nicht, mir persönlich hilft's schon viele Eng-Eng-Matches einzusparen, die ich für ähnlich singuläre (intransitive, nicht auf andere übertragbare) Ergebnisse sonst noch viel mehr spielen lassen müsste, aber gut, ich habe auch die öffentlichen großen Ranglisten, was viel eigene Arbeit erspart, schon von dort zu wissen, welche Engine man gegen welche andere nicht direkt ausspielen lassen muss, um sie dennoch irgendwie einzuordnen. Es sind ja auch selbst unter den ganz Starken schon so viele, die immer schwerer von einander zu unterscheiden sind, wenn's nicht nur auf ein einzelnes Head to Head Match mit einer einzelnen Hardware- TC und einem einzelnen Eröffnungsset ankommt.

Wie auch immer, ich lese Argumente gegen "Stellungstests" seit ich in Computerschachforen mitlese und nicht viel kürzer schreibe ich dann auch immer wieder mal meine Sicht dazu, tut mir leid für dich, dass es diesmal dich getroffen hat (falls du es dir tatsächlich antust, das alles von mir zu lesen, obwohl ich's schon oft genug so ähnlich geschrieben habe) aber irgendwie kam ich wieder mal nicht drum rum
Parent - - By Andreas Matthies Date 2023-11-05 15:35
Erst habe ich gedacht "oh, wieder mal viel Text von Peter", bin dann direkt ans Ende gesprungen und sofort war klar, das tue ich mir an.

Peter Martan schrieb:

Andreas Matthies schrieb:

Die besten Stellungstests schreibt doch immer noch das wahre Leben, also echte Spiele.

Das gefällt mir, weil's ja impliziert, dass Spiele auch Stellungstests sind. Die Stellungen, die den Engines zum Ausspielen vorgegeben werden, sind Teststellungen, wie groß der Vorteil einer Seite sein darf und soll, damit's nicht mehr nur Remis werden, wird immer mehr eine Sache der Selektion dieser Stellungen, damit's dann, wenn der Vorteil für die Spielstärke der Teilnehmer zu groß wird, nicht lauter 1:1- Paare statt der Remis werden, was die Statistik noch mehr ad absurdum führt, weil's noch mehr Partien braucht zur Signifikanz als die gleich große Remiszahl bei gleicher Performance bräuchte.

Du hast Recht, natürlich sind auch die heute gängigen Eröffnungsbücher mit Vorteil für eine Seite schon eine Art Stellungstest, das ist halt ein Kompromiss gegen den Remistot. Aber es geht halt immer noch darum, nicht den einzigen besten Zug zu finden, sondern ein Spiel zu gewinnen. Und solange diese Eröffnungsbücher sich einigermaßen am "echten" Schach orientieren, wie es ja z.B. bei Stefans UHO der Fall ist, finde ich diesen Kompromiss auch okay.

Peter Martan schrieb:

Die Stellungen, die die Engines selbst beim Match aufs Brett bringen, meinst du vermutlich, sind die besten für den ausgespielten Stellungstest, mag sein, wenn man genau das wissen will, wie die Engines mit diesen Stellungen gegeneinander beim Ausspielen abschneiden, dass das aber alle Stellungen sind, die Menschen am Schach interessieren können, beweist eben gerade die Beschäftigung mit Stellungen, die nicht so in dieses Beuteschema der Engines passen und in denen sie schon beim nicht ausgespielten Stellungstest schwerer zurecht kommen.
Jetzt die Stellungen, die die Engines beim Match gegeneinander nicht selbst aufs Brett bringen, von der Spielstärkemessung auszublenden, das ist genau so Selektion (und damit Bias, wenn man's von der rein Zufalls- gesteuerten Randomisierung her sieht) wie sie umgekehrt absichtlich in den Fokus zu rücken.

Hmm, weiß nicht genau, ob ich das richtig verstehe. Nach meiner Wahrnehmung wandern Positionen nur deshalb in die Testsuites, weil sie dadurch aufgefallen sind, dass eines oder mehrere der Engine-Schlachtschiffe mit dieser Position Probleme haben. Stellungen, die grundsätzlich zwar "interessant für Menschen" sind (weil beispielsweise in dieser Stellung Bobby Fischer seinerzeit die Schach-WM entschieden hat), aber gleichzeitig auch problemlos von allen Engines gelöst werden, fliegen aus der Suite raus, weil sie zu leicht sind. Insofern besteht das Interesse der Menschen an den Stellungen der Suite doch einzig und alleine daran, eine oder mehrere Engine scheitern zu sehen, richtig?

Peter Martan schrieb:

Dass du sogar mal ein RubiChess- NNUE mit den Stellungen von Eduard Nemeths Suite trainiert hast, um dann zu sehen, dass es tatsächlich danach ein paar Stellungen mehr in der Zeit gelöst hat, das hat mir gut gefallen, aber vermutlich aus genau den entgegengesetzten Gründen wie dir. Gibt's einen schöneren Beweis als den, dass sogar das Training neuronaler Netze die Engine dazu bringen kann, mit einer selektierten Sammlung von Stellungen besser abzuschneiden, dass diese Stellungen also soo weit von dem, was Engines spielen und was jedenfalls auch etwas mit Schach zu tun hat, nicht weg sein werden?

Hmm, das verstehe ich schon wieder nicht so richtig bzw. sehe ich es ganz anders und ich habe fast den Verdacht, dass du diesen Test mit dem für die EN-Testsuite angelernte neuronale Netz von RubiChess nicht bis zum Ende gelesen hast.
Dieses Netz war ein kompletter "Fachidiot", konnte die Rate der gelösten Positionen in der Suite zwar von vorher 45% auf stolze 85% erhöhen, hatte das normale Schachspielen aber komplett verlernt.
Natürlich war die Methode, wie ich dieses Netz trainiert habe, auch gezielt darauf ausgerichtet, ohne Rücksicht auf Verluste (der allgemeinen Spielstärke) genau die Positionen der Suite zu lernen.
Und das Ergebnis zeigt mehr als deutlich, dass das Lösen dieser Suite aber auch überhaupt keine Rückschlüsse auf die allgemeine Spielstärke liefert. Genau das war die Absicht dieses Tests.
Das Netz wäre noch nicht einmal in der Lage, eine andere Testsuite mit ähnlich gelagerten aber eben zur EN-Suite unterschiedlichen Stellungen zu lösen, geschweige denn allgemein schwierige Taktikaufgaben zu lösen. Ein kompletter Fachidiot halt. Und ich würde mich nicht wundern, wenn das in stark abgemildeter Form auch für anderen Engines gilt, die sich z.B. die HTC114 als meßbares Ziel für das Tuning der Parameter nehmen.
Dass ich ein Netz zum Lösen von Problem A mit denselben Mechanismen trainieren kann wie ein Netz zum Lösen von Problem B, heißt noch lange nicht, dass A und B miteinander verwandt sind.

Peter Martan schrieb:

..., das hat aber Leute wie Torsten und mich (und da gibt's schon noch ein paar Andere, die ich jetzt nicht alle zu Hilfstruppen heranziehen will und kann, dazu gibt's zuviele namhafte Namen) noch nie davon abgehalten, dass sie diese Stellungen halt auch immer wieder interessiert haben, dieses Interesse kriegst du nicht aus den Köpfen der Schachspieler, auch wenn du ihnen noch so lang erzählt, dass das Menschen nicht zu interessieren braucht, wenn's die Engines von sich aus nicht so super finden.


Geht mir ja genauso, ist wie ein Unfall, an dem man nicht vorbei schauen kann, wenn Stockfish mal wieder an einer Stellung scheitert
Wenn eine neue entsprechende Stellung auftaucht, wird schnell die Analyse angeschmissen in der Hoffung, dass Rubi das ev. besser/schneller löst, selten allerdings wird diese Hoffnung erfüllt.

Peter Martan schrieb:

Das sagen Diejenigen, die das Testen nicht noch komplizierter machen wollen und nicht noch Hardware- Zeit- aufwändiger, weil sonst müssten sie, gerade wenn sie nur das Ausspielenlassen gelten lassen, auch x-beliebige handverlesene Mittel- und Endspielstellungen zum Eng-Eng-Match verwenden und schwupps hätten wir zu den beliebig vielen verschiedenen Elo- und Celo- Arten noch beliebig viele mehr.
Haben wir auch, wenn wir verschiedene einzelne Stellungen nehmen, die etwas aus der Eng-Eng-Spielpraxis ausreiten, und sie den Engines vorsetzen, natürlich auch zeitweise in der bösen Absicht, genau solche Stellungen zu wählen, mit denen die Engines ihre Schwierigkeiten haben, vielleicht sogar eigens solche Stellungen, die Menschen dazu komponiert haben, nicht nur um Engines, aber auch um menschliche Spieler damit zu überfordern.

Zustimmung bzw. volles Verständnis.

Peter Martan schrieb:

Hätte man nie gezielt nach Schwächen bei den Engines gesucht, hätten sie viele von denen, die sie (so) jetzt nicht mehr haben, immer noch (mehr), sag' ich mals so, früher waren die Programmierer eigentlich immer ganz froh, wenn sie auf blinde Flecken in der Suche aufmerksam gemacht wurden.

Das stimmt aus meiner Sicht bedingt. Sagen wir mal so, mir haben in seltenen Fällen Teststellungen geholfen zu verstehen, wo man an einer Schraube drehen könnte, damit ein Zug (schneller) gefunden wird. Das waren i.d.R aber keine Stellungen aus den Suits sondern echte Spiele z.B. beim TCEC, in denen Rubi verlor/den Sieg verspielte, weil es einen Zug verpasst hat, den der Gegner und die Kibitzer gesehen haben.
Und in häufigeren Fällen hat sämtliches Schrauben an einzelnen Testpositionen eher zu einer Verschlechterung der allgemeinen Spielstärke geführt.

Peter Martan schrieb:

Ich bin beileibe auch nicht (wie auch Torsten nicht, der das auch geade geschrieben hat) dahingehend unterwegs, das Eng-Eng-Match zur Spielstärkemessung konkurrenzieren zu wollen durch Stellungstests, die vielen Stellungen und die vielen Suiten, die ich gerne verwende, sollen alle zusätzliche Infos liefern zum game playing (und vor allem zu einem, wie es heutzutage, um überhaupt noch auf signifikante Ergebnisse zu kommen, gemacht werden muss, mit Unmengen von Partien, mit reduzierter bis stark reduzierter Hardware- TC und mit unausgeglichenen Eröffnungsstellungen) und je mehr verschiedene Stellungen und je mehr verschiedene Suite dazu, umso besser für mich.

Okay, ich mache jetzt und hier Frieden mit den Stellungstests und ihren Jüngern. Indianerehrenwort. 

Danke für den konstruktiven Austausch, ist keine Selbstverständlichkeit hier und führt leider auch bei mir zunehmend zu gereizter Stimmung und teilweise bissigen Beiträgen, die ich mir im Nachhinein lieber erspart hätte.
Parent - - By Peter Martan Date 2023-11-05 17:59 Edited 2023-11-05 18:07
Andreas Matthies schrieb:

Hmm, weiß nicht genau, ob ich das richtig verstehe. Nach meiner Wahrnehmung wandern Positionen nur deshalb in die Testsuites, weil sie dadurch aufgefallen sind, dass eines oder mehrere der Engine-Schlachtschiffe mit dieser Position Probleme haben. Stellungen, die grundsätzlich zwar "interessant für Menschen" sind (weil beispielsweise in dieser Stellung Bobby Fischer seinerzeit die Schach-WM entschieden hat), aber gleichzeitig auch problemlos von allen Engines gelöst werden, fliegen aus der Suite raus, weil sie zu leicht sind. Insofern besteht das Interesse der Menschen an den Stellungen der Suite doch einzig und alleine daran, eine oder mehrere Engine scheitern zu sehen, richtig?

Wie gesagt, es kommt auf den Zweck der Suite an, ich persönlich hab' eben schon auch gern solche, die ein bisschen Ausnahmsstellungen mit ein bisschen "leichter" lösbaren kombinieren, dafür eine etwas größere Anzahl, um mehr Engines Gelegenheit für mehr Punkte zu geben, und dafür kürzere Hardware- TC. Aber im Wesentlichen sind die klassischen taktisch schweren single best moves suites schon in böser Absicht zusammengetragen, es den Engines nicht zu leicht zu machen. Und funktionieren tut das Ganze dann statistisch am besten, wenn die Teilnehmer relativ zu den anderen in der entsprechenden Zeitvorgabe entsprechend große Unterschiede in der Performance zeigen.
Andreas Matthies schrieb:

Hmm, das verstehe ich schon wieder nicht so richtig bzw. sehe ich es ganz anders und ich habe fast den Verdacht, dass du diesen Test mit dem für die EN-Testsuite angelernte neuronale Netz von RubiChess nicht bis zum Ende gelesen hast.
Dieses Netz war ein kompletter "Fachidiot", konnte die Rate der gelösten Positionen in der Suite zwar von vorher 45% auf stolze 85% erhöhen, hatte das normale Schachspielen aber komplett verlernt.
Natürlich war die Methode, wie ich dieses Netz trainiert habe, auch gezielt darauf ausgerichtet, ohne Rücksicht auf Verluste (der allgemeinen Spielstärke) genau die Positionen der Suite zu lernen.

Tatsächlich kannte ich den Teil mit dem Misserfolg im game playing noch nicht, irgendwie war meine letzter Stand, dass du das dann erst noch ausprobieren wolltest, und den großen Partieaufwand, es zu testen, erst noch irgendwann in Angriff zu nehmen plantest,  und jetzt finde ich den Beitrag, den ich damals, wie mir scheint, auf github las, nicht mehr, hast du da noch einen Link dazu?
Wenn's so war, dass das Netz durchs Training mit den Stellungstest- Stellungen ein Fachidiot im game playing geworden ist, spricht das aber auch irgendwie dafür, dass es vorher (war das ein schon bestehendes NNUE oder ein de novo trainiertes?) wenig mit solchen Stellungen "am Hut hatte", vielleicht hat sich das Bestehende mit dem Neuen aus so einem Grund so schlecht vertragen?
Andreas Matthies schrieb:

Okay, ich mache jetzt und hier Frieden mit den Stellungstests und ihren Jüngern. Indianerehrenwort. 

Das zu lesen, freut mich wirklich sehr
Parent - - By Andreas Matthies Date 2023-11-05 18:51
Peter Martan schrieb:

Tatsächlich kannte ich den Teil mit dem Misserfolg im game playing noch nicht, irgendwie war meine letzter Stand, dass du das dann erst noch ausprobieren wolltest, und den großen Partieaufwand, es zu testen, erst noch irgendwann in Angriff zu nehmen plantest,  und jetzt finde ich den Beitrag, den ich damals, wie mir scheint, auf github las, nicht mehr, hast du da noch einen Link dazu?
Wenn's so war, dass das Netz durchs Training mit den Stellungstest- Stellungen ein Fachidiot im game playing geworden ist, spricht das aber auch irgendwie dafür, dass es vorher (war das ein schon bestehendes NNUE oder ein de novo trainiertes?) wenig mit solchen Stellungen "am Hut hatte", vielleicht hat sich das Bestehende mit dem Neuen aus so einem Grund so schlecht vertragen?

https://github.com/Matthies/RubiChess/wiki/Madness-in-computer-chess
Ein schnelles Trainingsmatch des "Fachidioten" gegen den Master endete 0-400, deswegen konnte ich in der Conclusion keine Elo-Abschätzung machen und habe es danach auch nicht mehr als sinnvoll empfunden, das gegen schwächere Gegner nachzuholen.
Startpunkt für das Training war tatsächlich das damalige Master-Netz, aber da ich als Trainingsdaten ausschließlich die Testsuite-Positionen verwendet habe, ist das allgemeine Wissen komplett verloren gegangen.
Hätte ich diese Daten gemischt mit "richtigen" Trainingsdaten, so wäre vermutlich ein Netz herausgepurzelt, dass ein wenig besser in der Suite und ein wenig schlechter im allgemeinen Spiel ist, aber auch das habe ich nicht nachvollzogen. Mein Ziel war es nur zu zeigen, dass man die Evaluierung einer Engine sehr leicht in Richtung einer Suite trimmen kann, ohne deren Lösungszüge hart zu verdrahten.

Grüße, Andreas
Parent - By Peter Martan Date 2023-11-05 19:07
Andreas Matthies schrieb:

Hätte ich diese Daten gemischt mit "richtigen" Trainingsdaten, so wäre vermutlich ein Netz herausgepurzelt, dass ein wenig besser in der Suite und ein wenig schlechter im allgemeinen Spiel ist, aber auch das habe ich nicht nachvollzogen.

Naja, dann könnte es aber halt auch sein, dass es ein wenig besser in der Suite und ein wenig besser oder wenigstens nicht wesentlich schlechter im allgemeinen Spiel gewesen wäre

Aber danke jedenfalls für den Versuch und den Link zur Dokumentation.
Parent - - By Torsten Cuber Date 2023-11-14 01:26
Lieber Peter, hier eine kleine Zwischenmeldung.
Bin bei der Analyse deiner 256p Testsuite gerade bei Stellung Nr. 42, Ree-Hort, Wijk aan Zee 1986.
Die von dir angegebene Lösung wäre 1.-Txh4, wonach die Partie remis endet. Soweit korrekt.
Allerdings analysiert Crystal 5  die Alternative 1.-Lf2+!, was ebenso zum Remis führt: 2.Kxf2 Txh4 , zum Beispiel 3.Dg7 Txf4+ 4.Ke3 Te4+ 5.Kd3 Te7! 6.Df6 Td7!, und Schwarz hat eine Festung errichtet, die Weiß nicht überwinden kann.
Also muss auch 1.-Lf2+! als Lösung akzeptiert werden!
Parent - - By Peter Martan Date 2023-11-14 08:56 Edited 2023-11-14 09:14
Danke, Torsten!

Wie wär's, desselben Lösungszuges halber (was den angeht, den du gefunden hast), mit dieser?



War laut Dann Corbit mal Problem of the Week

https://talkchess.com/forum3/viewtopic.php?p=951940#p951940

In dieser Sammlung als Nr.38, leider weiß ich nicht, in welcher Zeitschrift diese Puzzles veröffentlicht wurden, vielleicht findet ja jemand eine weitere Quelle, HHdb und Yacpdb haben sie nicht gespeichert.

Der Lösungszug 1...Bf2! (ohne Schach, also leider doch nicht genau dieselbe Lösung wie das Dual der zu ersetzenden Stellung) ist ein (-) Matt in 14, mit dem aber aus dem Stand auch Huntsman nicht blitzschnell ist (nämlich auch mit dem Finden vom bm nicht), Lc0 findet den Lösungszug (mit 3070ti manchmal innerhalb und manchmal knapp außerhalb von 15") und für Crystal wird sie dir wieder zu leicht sein, aber ich will ja nach wie vor 15"/Stellung beibehalten und da ist z.B. SF dev. nicht unter denen, die's bei drei einzelnen Versuchen in dieser TC gefunden hätten.

Edit: .epd- String:

8/p7/8/8/7P/1pk4P/P1P5/1K1Qbq1N b - - bm Bf2; hmvc 0; id "Unknown, Author_?_POW.38, 42";
Parent - - By Torsten Cuber Date 2023-11-14 09:55
Lieber Peter, Crystal 5 findet das Matt in 14 auf meinem Smartphone (!) in 0:03, also in 3 Sekunden.
Diese Stellung ist im übrigen genau so schon in anderen Testsuiten enthalten, auch in meinem PC-ULTRA-2-TEST ist sie drin, nur mit vertauschten Farben.
Weiß am Zug gewinnt mit 1.Lc7!!
Hier die Position als fen:
n1QBq1k1/5p1p/5KP1/p7/8/8/8/8 w - - 0 1
In der Stockfish-2021-Testsuite ist dies Aufgabe 207, im
Hard-Talk-2020 Test ist es die Stellung 135.
Hier zeigt Crystal 5 das Matt in 12 in 2 Sekunden!
Parent - - By Peter Martan Date 2023-11-14 10:01 Edited 2023-11-14 10:18
Torsten Cuber schrieb:

Lieber Peter, Crystal 5 findet das Matt in 14 auf meinem Smartphone (!) in 0:03, also in 3 Sekunden.
Diese Stellung ist im übrigen genau so schon in anderen Testsuiten enthalten, auch in meinem PC-ULTRA-2-TEST ist sie drin, nur mit vertauschten Farben.
Weiß am Zug gewinnt mit 1.Lc7!!
Hier die Position als fen:
n1QBq1k1/5p1p/5KP1/p7/8/8/8/8 w - - 0 1

Du bist sehr nützlich, Torsten, danke neuerlich!
Das hat jetzt auch stark bei der Suche nach der originären Quelle geholfen, das ist ein Matous- Studie, von der der erste Zug abgeschnitten ist:

[Event "1.hm Szachy#0645"]
[Site "?"]
[Date "1975.??.??"]
[Round "?"]
[White "Matous=M"]
[Black "(+4013.13f6f8) (v)"]
[Result "1-0"]
[SetUp "1"]
[FEN "n2Bqk2/5p1p/5KP1/p7/6Q1/8/8/8 w - - 0 1"]
[PlyCount "25"]
[EventDate "1975.??.??"]

{Szachy=12(348) Szachy/12.} 1. Qc8 $1 (1. g7+ $2 Kg8) 1... Kg8 (1... Qe6+ 2. Qxe6 fxe6 3. gxh7) (1... Nc7 2. Be7+ Kg8 3. gxf7+) 2. Bc7 $1 Qxc8 (2... Nxc7 3. gxf7+) 3. gxf7+ Kh8 (3... Kf8 4. Bd6#) 4. Be5 $1 Qc5 $1 5. Bb2 $1 (5. Ba1 $2 Nc7 6. Bb2 a4 7. Ba1 a3) 5... Nc7 $1 6. Ba1 a4 7. Bb2 a3 8. Ba1 a2 9. Bb2 a1=Q 10. Bxa1 Nb5 11. Ke6+ Nc3 12. Bxc3+ Qxc3 13. f8=Q# 1-0

So könnte man bei der jetzt in den 256p ersetzten den .epd- String z.B. derartig editieren:

8/p7/8/8/7P/1pk4P/P1P5/1K1Qbq1N b - - bm Bf2; hmvc 0; id "Matous_Derived, Exch._Colours_POW.38, 42";
Parent - - By Torsten Cuber Date 2023-11-14 10:40
Lieber Peter, die Original-Studie von Matous hab ich ebenfalls in meinem PC-ULTRA-2-TEST, den Zug 1.Dc8!! findet Crystal 5 in 0:02 mit Mattanzeige MA 13.
Übrigens hier ein gutes Beispiel für die Suche auf der Online Datenbank https://yacpdb.org/#search/bjJCcWsyNXAxcFE0S1AxcDc4ODg4Ly8vLy8vLy8vLy8vLy8xLzEvMS8w/1
Auf der Seite rechts im Fenster die gesuchte Stellung als fen eingeben, dann Search anklicken, dann findet die Datenbank die Studie mit Quellenangabe und Du kannst dir die Lösung anzeigen lassen.
Klappt nicht bei allen Studien, ab bei so mancher Stellung konnte ich doch die Quelle ausfindig machen.
Parent - By Peter Martan Date 2023-11-14 10:47 Edited 2023-11-14 10:50
Danke, Torsten, Yacpdb kenn' ich, wenn du das eine oder andere (z.B. das, auf das du als vor-vorletztes geantwortet hast ) Posting von mir duchblätterst, wirst du sehen, dass ich auch immer wieder mal drauf verweise, sehr praktische Suche mit dem Fen-String und sehr große Datenbank.
Funktioniert halt natürlich nur mit genau der richtigen Stellung, nicht mit solchen, die erst später im Lösungsbaum einsteigen und erst recht nicht mit vertauschten Farben, daher ja auch mein Dank an dich, dass du das geklärt hast. Die Original- Studie ist ja auch in der HHdb, bei einer Suche in der (.pgn- Datenbank) findet ein gutes GUI auch Stellungen, die Züge am Anfang abgeschnitten haben.
Parent - - By Torsten Cuber Date 2023-11-14 10:21
Lieber Peter, hier aus meinem PC-ULTRA-2-TEST eine sehr schöne Stellung zum Thema "Rettung ins Remis" bzw "Bau einer Festung".
Es ist eine Endspielstudie von Joseph Hasek aus dem Jahr 1956. Hier die Stellung als fen:
8/1p6/1Pp2N1q/p1Ppk2p/P3p3/3PPpPp/3K1P1P/2R5 w - - 0 1
Crystal 5 benötigt auf meinem Smartphone XIAOMI 11 ca 7 Sekunden (0:07) für den fantastischen Zug 1.Sg4+!!, es folgt 1.-hxg4 2.d5+ Kf5 und nun brillant 3.Th1!! und anschließend wandert der weiße König nach g1 und stellt sich ins Patt!
Stockfish hatte bisher größte Probleme damit, aber Stockfish 16 findet dies auf meinem Smartphone mittlerweile auch in 0:02!
Parent - - By Peter Martan Date 2023-11-14 10:35 Edited 2023-11-14 10:49
Ja, die ist fein, ich hab' sie als eine Änderung der Hasek- Studie (1951) von Emil Sutovsky gespeichert, vermutlich eh aus einem der auch hier im Forum schon vorgekommenen Postings darüber.
Eins davon:

https://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=101697#pid101697
Parent - - By Torsten Cuber Date 2023-11-14 10:49
Man beachte, dass Kurt Utzinger die Stellung 2016 für die Computer als unlösbar hielt.
An solchen Stellungen erkennt man sehr schön die großen Fortschritte im Computerschach!
Solche "unlösbaren" Stellungen nehm ich gerne in meinen PC-Test auf, weil man in ein paar Jahren erkennen kann, wieviel stärker die Engines geworden sind!
Parent - - By Peter Martan Date 2023-11-14 10:55 Edited 2023-11-14 10:57
Ja, aber wenn du nach heutigen Maßstäben gehst, ist sie für deine Kritierien auch zu "leicht", nein?
(Crystal 5 sofort, z.B. Berserk 12 sogar auch single thread praktisch sofort, nicht mit korrekter Eval, aber die geht ja in eine Suite beim automatischen Lösen nicht ein, CorChess single thread knapp an der Grenze der 15", aber auch das single thread).
Parent - - By Torsten Cuber Date 2023-11-14 11:04 Upvotes 1
Genau das ist auch der Grund, warum ich regelmäßig meinen PC-Test überarbeite . Regelmäßig geh ich die Stellungen durch und sortiere diejenigen aus, die sich als zu leicht herausstellen. Zumindest wenn mehrere Engines die Lösung sehr schnell finden!
Solange nur ein oder zwei Engines die Lösung sehr schnell finden (z.b .Crystal und SugaR AI ICCF), und die meisten anderen im Dunkeln tappen, bleibt sie weiter drin.
Gerade Stockfish hat oft noch große Probleme mit "Festungen" bzw "Zugzwang".
Parent - - By Torsten Cuber Date 2023-11-14 12:58
Lieber Peter, wir können auch gerne per WhatsApp schreiben wenn Du möchtest.
Vielleicht sind unsere Posts nicht für alle im Forum interessant.
Und wenn wir länger zu einem Thema schreiben, dann wird es im Forum doch schnell unübersichtlich, und bequemer ist es per WhatsApp allemal.
Liebe Grüße vom Torsten
Parent - By Peter Martan Date 2023-11-14 13:47
Ja, oder per Email.
Ich schreib' hier ohnehin nur mehr Sachen, von denen ich annehme, dass sie außer mir vielleicht zumindest noch eine zweite Person interessieren könnten, und das ist dann für hiesige Verhältnisse ohnehin schon ein relativ breites Interesse

Im Ernst, ich finde, das hat alles recht gut ins allgemeine Forum gepasst, und es ist ja dein Thread, Diejenigen, die dieser nicht interessiert, lesen eh nicht mehr mit vermutlich, aber wie gesagt, auch gern über andere Medien.
Parent - - By Jörg Oster Date 2023-11-14 11:23 Upvotes 1
Hier zeigt sich wieder die Stärke der ProofNumberSearch:

Code:
position fen 8/p7/8/8/7P/1pk4P/P1P5/1K1Qbq1N b - - 0 1
setoption name ProofNumberSearch value true
setoption name Hash value 1024
go mate 14
info string Starting Proof-Number Search ...
info time 204 multipv 1 depth 27 seldepth 27 nodes 909883 nps 4460210 tbhits 0 score cp 0 pv f1g1
info time 404 multipv 1 depth 27 seldepth 27 nodes 1812997 nps 4487616 tbhits 0 score cp 0 pv f1g1
info time 604 multipv 1 depth 27 seldepth 27 nodes 2712499 nps 4490892 tbhits 0 score cp 0 pv f1g1
info time 804 multipv 1 depth 27 seldepth 27 nodes 3610569 nps 4490757 tbhits 0 score cp 0 pv f1g1
info time 1004 multipv 1 depth 27 seldepth 27 nodes 4508293 nps 4490331 tbhits 0 score cp 0 pv f1g1
info time 1204 multipv 1 depth 27 seldepth 27 nodes 5402262 nps 4486928 tbhits 0 score cp 0 pv f1g1
info time 1404 multipv 1 depth 27 seldepth 27 nodes 6301240 nps 4488062 tbhits 0 score cp 0 pv f1g1
info time 1604 multipv 1 depth 27 seldepth 27 nodes 7196804 nps 4486785 tbhits 0 score cp 0 pv f1g1
info time 1804 multipv 1 depth 27 seldepth 27 nodes 8096368 nps 4488008 tbhits 0 score cp 0 pv f1g1
info string Success! Mate in 14 found!
info time 1981 multipv 1 depth 27 seldepth 27 nodes 8892720 nps 4489005 tbhits 0 score mate 14 pv e1f2 d1f1 b3c2 b1a1 f2d4 f1f4 d4g7 h1f2 a7a6 h4h5 a6a5 h5h6 g7h8 h6h7 a5a4 h3h4 a4a3 h4h5 c2c1q f4c1 c3b4 c1c3 b4c3 f2e4 c3c2 e4f6 h8f6
bestmove e1f2 ponder d1f1

Selbst tiefere Matts können relativ flott gefunden werden.
The Huntsman versagt hier völlig.
Parent - By Torsten Cuber Date 2023-11-14 13:03
Also mein Crystal 5 findet das Matt in 14 mit 1.-Lf2 !! in 0:11, d.h. 11 Sekunden, auf meinem Smartphone XIAOMI 11.
Parent - - By Tommy Tulpe Date 2023-11-04 11:30
Bloß ne kleine Anfängerfrage: Ist deine getestete ShashChessVersion identisch mit ShashChess 34.1 , das ich im Internet zum Download fand?
Parent - - By Peter Martan Date 2023-11-04 12:09 Edited 2023-11-04 12:44
Wenn ich mich da auch ungefragt einmischen darf, ShashChessGZ (Ground Zero), von dem Torsten auch schreibt,

https://github.com/amchess/ShashChess/releases/tag/GZ

, war ein Highlight, das bei mir (in den taktischen Suiten) nie mehr so erreicht wurde von späteren Versionen.

34.1 von meinem letzten Download von github jetzt (vor einer Woche) war überhaupt ein bisschen ein Wackelkandidat, was die Stabilität im Laufen angeht, sowohl in der Suite im Fritz, als auch im game playing in Cutechess hatte er bei mir immer wieder mal Abstürze produziert, vor allem, wenn man die MCTS- GoldDigger 6- Einstellung gewählt hat und im MultiPV- Modus.
Ich bin aber mit Andrea Manzo auf der Suche nach dev.- Versionen, die das nicht mehr machen. Und welche Version jetzt gerade auf github zum Download steht, kann ich nicht sicher sagen, weil ich nicht weiß, wann Andrea den Link das letzte Mal genau erneuert hat. Zu lesen ist last week, aber da gab's damals für mich schon recht verschiedene Compiles, manche waren stabiler, andere nicht.
Up Topic Hauptforen / CSS-Forum / Top-3 Engines für die taktische Analyse
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill