Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Warum halten 4 - 8 Kerner bei SF gegen starke Hardware immer remis
1 2 Previous Next  
- - By Lothar Jung Date 2021-12-06 10:55 Edited 2021-12-06 10:58
Über das Phänomen wurde im Forum schon oft gepostet.

Hier nun meine Meinung dazu:

1. Die Engines greifen auf die exakt gleiche Bewertung zu (NNUE).

2. Die verwendete Suche ist identisch.

3. Deshalb kommt es bei der schwächeren Hardware öfter zu Ponder Hits.

Eingeschränktes Gegenmittel:

1. Verwendung eines alternativen NNUE (würde nur begrenzt helfen).

2. Klassische Bewertung.

3. Veränderung der Suchparameter (ziemlich schwierig) oder MCTS (falls verfügbar).

Lothar
Parent - By Benno Hartwig Date 2021-12-06 15:33

> 1. Die Engines greifen auf die exakt gleiche Bewertung zu (NNUE).
> 2. Die verwendete Suche ist identisch.
> 3. Deshalb kommt es bei der schwächeren Hardware öfter zu Ponder Hits.


Aber die starke Hardware sollte dann ja trotzdem zu mehr Tiefe kommen.
Ich finde schon interessant und mir ist das Warum nicht klar, warum diese Mehrtiefe so selten zu Siegen führt.
Ich denke, SF auf der stärkeren Hardware sollte doch noch häufiger zu Ponderhits kommen als auf der schwächeren Hardware, weil die Schätzung des Gegenzugs ja nur auf einer um 1 reduzierten Suchtiefe beruht. Das ist auf der starken Hardware dann ja prima kompensierbar.

Kann es ggf. auch einfach sein, dass die NNUE-Bewertung generell eher defensive Stellungen vorteilhaft bewertet?
Und dann bedarf es dann schon eines sehr guten Angriffs, um da durchzukommen, eines so guten Angriffs, wie ihn NNUE eben dann einfach nicht unterstützt?
Gegen schwächere Gegner, ja da sieht SF-NNUE dann die Lücken, aber eben nur dort?
Parent - - By Kurt Utzinger Date 2021-12-06 19:25
Hallo Lothar
Simpel ausgedrückt einfach deshalb, weil bei Verwendung von NNUE
die (schnellere) Hardware fast keine Rolle mehr spielt. Dazu liegen
jetzt genügend Partien/Beweise vor.
Gruss
Kurt
Parent - - By Benno Hartwig Date 2021-12-06 20:05

>... weil bei Verwendung von NNUE die (schnellere) Hardware fast keine Rolle mehr spielt.


Mir ist das zu simpel.
Jahrzehnte haben wir beobachtet, dass ein mehr an Geschwindigkeit ein mehr an Siegen bringt.
Auch heute noch führt ein Mehr an Geschwindigkeit zu einem Mehr an Tiefe.
Welche logisch fassbaren Gründe gibt es, dass das jetzt kaum noch zu einem Mehr an Siegen führt?
Parent - - By Kurt Utzinger Date 2021-12-06 20:37 Upvotes 1
Benno Hartwig schrieb:

Mir ist das zu simpel.
Jahrzehnte haben wir beobachtet, dass ein mehr an Geschwindigkeit ein mehr an Siegen bringt.
Auch heute noch führt ein Mehr an Geschwindigkeit zu einem Mehr an Tiefe.
Welche logisch fassbaren Gründe gibt es, dass das jetzt kaum noch zu einem Mehr an Siegen führt?


Hallo Benno
Wenn das Netz bei tieferer oder höherer Geschwindigkeit zum gleichen
Schluss gelangt und dieselben Züge spielt, dann hat eben die Hardware
ihre wichtige Rolle verloren.
Gruss
Kurt
Parent - - By Frank Quisinsky Date 2021-12-06 21:48 Edited 2021-12-06 21:52
Hi Kurt,

dennoch bleibt eine starke Hardware interessant.
Mit mehr Cores können gleichzeitig mehr Engines laufen, mehr Testmöglichkeiten wie z. B. mehr gleichzeitige Analysen mit einem Core.
Mehr als 8 Cores (wirklich schon das max. der Gefühle) macht keinen Sinn mehr.

- Ressourcenverschwendung
- Zeitverschwendung
- Stromverschwendung

Erst Recht in NN-Zeiten!

Daher verstehe ich ja auch nicht warum bei diesen TCEC Zufallsturnieren das Interesse so hoch ist.
Aus so vielen logischen Gründen für mich nach wie vor nicht nachvollziehbar.

Der Unterschied bei Stockfish NN von 16 Cores auf 128 Cores sind sehr "wahrscheinlich", nach Auswertungen die ich vor ca. 6 Moanten erhalten habe, 20 Elo.
Und das war ein Test mit wenigen Engines. Wahrscheinlich keine 10 Elo wenn dann in einem Turnier wo mehrere "schwächere Engines" teilnehmen verglichen wird.

Eine harte Nummer für Hardware-Freaks.
Die müssen sehr hart mit sich ins Gericht gehen.



Eisige Zeiten werden kommen ...

Gruß
Frank

Dennoch, 64-Cores ... da könnten 8 Engines gleichzeitig 8 Cores für Analysen nutzen.
Das ist natürlich MEGA ... minimal schlechtere Ergebnisse mit etwas mehr Zeit geht aber auch mit einem 8-Kerner.
Parent - - By Andreas Mader Date 2021-12-06 23:18
Frank Quisinsky schrieb:

Daher verstehe ich ja auch nicht warum bei diesen TCEC Zufallsturnieren das Interesse so hoch ist.


Das ist einfach zu beantworten: Es hat jeder andere Prioritäten und Vorstellungen.

Schöne Grüße
Andreas
Parent - By Frank Quisinsky Date 2021-12-07 06:25
Guten Morgen Andreas,

am frühen Morgen in bester Laune.
Junge, Junge, Junge ...

Wer schaft die meisten Remis bei Stockfish - Stockfish auf Schachservern.
Wird hier in 5 Jahren, in deutschen Schachforen, zum Hauptthema.

Pisa in Deutschland ist das Thema.

Anstatt sich Gedanken zu machen wie kann man "Remis" neu bewerten!??

Remis ist noch lange nicht Remis?!
Statistisch gesehen, gegen jede Grundannahme, nicht im Computerschach auf diesem Niveau.

Und schon ist auf den Schachservern wieder der Teufel los, wenn man sich ärgert das dann
wirklich mal eine Partie mit 1:0, 0:1 endet.

Gruß
Frank
Parent - - By Dieter Brandhorst Date 2021-12-16 11:49
Das alles lässt für mich eigentlich nur einen logischen Schluß zu: Wenn bessere Hardware keine nenneswerte Leistungssteigerung mehr bei Einzelengines erbringt, muss man es mit Hybrid- bzw. Multiengineprogrammen und der besseren Hardware versuchen. Die Teilung der Ressourcen durch die Multiengine sollte dann ja keine Spielstärkeeinbußen mehr für die enthaltenen einzelnen Engines bedeuten, so dass Synergieeffekte bzw. Emergenzen erst so richtig zur Geltung kommen könnten. Übrigens m.E. einer der Hauptgründe warum z.B. damals (so um ca.2004) Projekte wie TripleBrain nicht erfolgreich waren. Die Hardwareressourcen reichten für Hybrid-Engines einfach noch nicht aus. Wie gut TripleBrain mit modernerer Hardware funktioniert, habe ich ja schon einmal hier https://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=147621  zeigen können.

VG Dieter
Parent - - By Lothar Jung Date 2021-12-16 12:10 Edited 2021-12-16 12:15
Hallo Dieter!

Du sprichst mir aus der Seele.

Dein Ansatz macht besonders auf Notebook-Hardware Sinn.

Mein Notebook hat einen Ryzen 5800h und eine 3060m GPU.

Bei den Testsuites, insbesondere bei Arasan und HTC, ist festzustellen, daß die CPU unter Stockfish und die GPU unter Lc0 0.28.2 andere Lösungsergebnisse bzw. -Zeiten aufweisen.
Eigentlich kann man die Engines parallel laufen lassen. 2 Threads für Lc0, 14 Threads für Stockfish bzw. SmashChess.
Danach die Ergebnisse vereinen. Damit holt man aus einem PC/Notebook das Optimum heraus.

Diese Ansatz existiert auch schon im Lc0 Bereich. Aber viel grundsätzlicher. Lc0 wird im Bereich der Suche einen A/B-Helper zur Seite gestellt (in Form einer A/B-Engine), der bei der Suche eine tiefere Suche ermöglicht.
Die Engine von Hanse steht auf Discord zur Verfügung.

Viele Grüße

Lothar
Parent - - By Dieter Brandhorst Date 2021-12-17 11:48
Hallo Lothar,

vielen Dank für den Hinweis.

Code:
Diese Ansatz existiert auch schon im Lc0 Bereich. Aber viel grundsätzlicher. Lc0 wird im Bereich der Suche einen A/B-Helper zur Seite gestellt (in Form einer A/B-Engine), der bei der Suche eine tiefere Suche ermöglicht.
Die Engine von Hanse steht auf Discord zur Verfügung


Ich habe mir die Engine von Hanse mal heruntergeladen. Sie erinnert mich sehr an Leelafish, mit dem ich früher schon ganz erfolgreich auf dem Chessbaseserver gespielt habe. Leider ist die Hanse-Engine bei mir noch zu buggy, stürzt relativ schnell ab unter der Fritz- oder Shredder GUI, konnte jedenfalls noch keine Testsuite durchgehend lösen. Halte den Ansatz aber für vielversprechend.

VG Dieter
Parent - By Lothar Jung Date 2021-12-17 12:10
Läuft nur unter Arena stabil.

LG Lothar
Parent - - By Andreas Mader Date 2021-12-16 13:12
Dieter Brandhorst schrieb:

Das alles lässt für mich eigentlich nur einen logischen Schluß zu: Wenn bessere Hardware keine nenneswerte Leistungssteigerung mehr bei Einzelengines erbringt, muss man es mit Hybrid- bzw. Multiengineprogrammen und der besseren Hardware versuchen. Die Teilung der Ressourcen durch die Multiengine sollte dann ja keine Spielstärkeeinbußen mehr für die enthaltenen einzelnen Engines bedeuten, so dass Synergieeffekte bzw. Emergenzen erst so richtig zur Geltung kommen könnten. Übrigens m.E. einer der Hauptgründe warum z.B. damals (so um ca.2004) Projekte wie TripleBrain nicht erfolgreich waren. Die Hardwareressourcen reichten für Hybrid-Engines einfach noch nicht aus. Wie gut TripleBrain mit modernerer Hardware funktioniert, habe ich ja schon einmal hier <a class='ura' href='https://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=147621'>https://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=147621</a>  zeigen können.

VG Dieter


Meines Wissens wurde das Dreihirn damals nicht mehr weiterentwickelt, weil es ein Programm gab, das deutlich besser war als alle anderen (ich weiß nicht mehr, welches das war) und es nur wenig Sinn hatte, auf bessere Züge des zweitbesten Programms zu hoffen. Zumindest habe ich mein damaliges Gespräch mit Helmut Weigel so in Erinnerung.

Schöne Grüße
Andreas
Parent - - By Dieter Brandhorst Date 2021-12-16 16:49
Das mag ja für die damals vorhandene Software und Hardware zutreffen, aber heute ist die Situation anders. Obwohl z.B. Ceres oder Lc0 weniger Lösungen (HTC114,60s) als Stockfish, Sugar oder Shashchess liefern, ergänzen sich diese Programme durchaus zu einem besseren Lösungsergebnis als es eines der Einzelprogramme kann.

VG Dieter
Parent - - By Frank Quisinsky Date 2021-12-16 19:33
Hallo Dieter,

es fehlte seinerzeit schlicht und ergreifend die "Entscheidungs-Engine".

Negativ:
- durch NN steigen die Remisquoten
- durch NN steigt der Zügedurchschnitt
- durch NN wird das Endspiel, welches ohnehin schon vorher übermächtig bei den TOP-Engines war, nochmal deutlicher stärker.

Postiiv:
- Programme rücken auf Dauer näher zusammen
- die Rolle der Hardware schrumpft

Wenn denn der Vorsprung von Stockfish auf die Konkurrenz immer weiter schrumpft stehen wir mit der Entscheidungs-Engine beim 3-Hirn genau da
wo wir einst standen, es sei denn die Entscheidungs-Engine setzt sich selbst aus verschiedenen Programmen zusammen.

Die Frage, die immer noch interessant ist:
Kann der Verbund von mehreren Engines, mit Stärken zu den jeweiligen Partiephasen, der Nummer 1 trotzen.

Sehe immer noch sehr viele interessante Möglichkeiten in einer GUI 3-Hirn Ideen umzusetzen.
z. B. hätte ein Engine Match: Stockfish vs. Revenge / Slow / Ethereal ... Stockfish meines Erachtens noch nicht gewonnen!!

Viele spannende Experimente wären möglich, zu sehr vielen verschiedenen Spielphasenbereichen!

Viele Grüße
Frank
Parent - - By Dieter Brandhorst Date 2021-12-17 00:12 Upvotes 1
Hallo Frank,

sicher spielt die Entscheidungsengine eine wesentliche Rolle. Die war bei meinen TripleBrain-Versuchen aber gar nicht mal schlecht. Theoretisch, also bei optimaler Zugentscheidung für Ceres oder Sugar, hätten 109/111 Aufgaben gelöst werden müssen (HTC114,60s). Heraus kamen 105/111.

Grundsätzlich wollte ich aber mit meinem Multiengine-Versuch prüfen, ob trotz NNUE und starker Hardware bei Stockfish (oder seinen Abkömmlingen) noch nennenswerte Leistungssteigerungen möglich sind. Es kam heraus, dass zumindest beim Lösen von Testsuites  Multiengines (noch) besser abschneiden können.

Das von dir vorgeschlagene Engine-Match finde ich auch sehr interessant. Müsste man m.E. doch unter der Banksia-GUI durchführen können, oder?

VG Dieter
Parent - By Max Siegfried Date 2021-12-17 08:29
Dieter Brandhorst schrieb:

Hallo Frank,

sicher spielt die Entscheidungsengine eine wesentliche Rolle. Die war bei meinen TripleBrain-Versuchen aber gar nicht mal schlecht. Theoretisch, also bei optimaler Zugentscheidung für Ceres oder Sugar, hätten 109/111 Aufgaben gelöst werden müssen (HTC114,60s). Heraus kamen 105/111.

Grundsätzlich wollte ich aber mit meinem Multiengine-Versuch prüfen, ob trotz NNUE und starker Hardware bei Stockfish (oder seinen Abkömmlingen) noch nennenswerte Leistungssteigerungen möglich sind. Es kam heraus, dass zumindest beim Lösen von Testsuites  Multiengines (noch) besser abschneiden können.

Das von dir vorgeschlagene Engine-Match finde ich auch sehr interessant. Müsste man m.E. doch unter der Banksia-GUI durchführen können, oder?

VG Dieter


Klar. Unter BanksiaGUI geht alles und demnächst sogar noch mehr.
Parent - By Benno Hartwig Date 2021-12-07 15:27

> Wenn das Netz bei tieferer oder höherer Geschwindigkeit zum gleichen Schluss gelangt...


Stimmt, das hatte ich immer schon mal anhand der Engine-Ausgaben analysieren wollen, auch schon bei den alten AB-Engines:
Mit welcher Wahrscheinlichkeit wechselt ein "bester Zug" wenn ein Ply mehr erreicht wird?
Und wie entwickelt sich diese Wahrscheinlichkeit über die verschiedenen Tiefen?

Aus dem Bauch heraus:
Bei kleinen Ply-Zahlen wechselt der beste Zug noch sehr häufig, bei größeren Tiefen immer seltener.
Parent - By dkappe Date 2021-12-06 20:53 Edited 2021-12-06 20:56 Upvotes 1
Benno Hartwig schrieb:

Mir ist das zu simpel.
Jahrzehnte haben wir beobachtet, dass ein mehr an Geschwindigkeit ein mehr an Siegen bringt.
Auch heute noch führt ein Mehr an Geschwindigkeit zu einem Mehr an Tiefe.
Welche logisch fassbaren Gründe gibt es, dass das jetzt kaum noch zu einem Mehr an Siegen führt?


Bein den großen und starken Netzen ist die remis Quote einfach sehr hoch. Bei Dragon müssen wir selbst mit uho Eröffnung, so wie der Stefan Pohl sie benutzt, gut über 20,000 Partien gegen SF14.1 spielen um ein brauchbares Resultat zu erzeugen. Ich kann mir vorstellen das bei einem guten Eröffnungsbuch die remis Quote noch viel höher ist.
Parent - - By Olaf Jenkner Date 2021-12-06 22:29
Benno Hartwig schrieb:

Auch heute noch führt ein Mehr an Geschwindigkeit zu einem Mehr an Tiefe.
Welche logisch fassbaren Gründe gibt es, dass das jetzt kaum noch zu einem Mehr an Siegen führt?

Die Partieanfangsstellung ist wahrscheinlich Remis, d.h. bei beidseitig fehlerfreiem Spiel ist das Ergebnis Remis.
Wenn man nun ein Programm hat, welches es auch auf schwacher Hardware schafft, die Stellung niemals in eine Verluststellung
zu transformieren, dann wird eben nur noch Remis gespielt. Da hilft auch keine millionenfach schnellere Hardware mehr.
Dazu kommt, daß gute Eröffnungsbücher sämtliche für schwache Hardware gefährlichen Stolpersteine beseitigen.
Wahrscheinlich sind wir jetzt an diesem Punkt angekommen.

Damit wird Computerschach langweilig.

Ein Spiel mit fast perfekten Programmen aus der Ausgangsstellung heraus erzeugt nur einen Strauß von Positionen in einem
bestimmten Korridor, die erstens Remis sind und zweitens nur einen extrem kleinen Bereich aller möglichen Schachstellungen
abbilden. Ich kann mir vorstellen, daß in Zukunft verrückte Stellungen ausgekämpft werden, wo kein Mensch weiß, ob sie
gewonnen, remis oder verloren sind. Die müssen nicht mal verückt aussehen (mit 5 Damen und 7 Springern), sondern können
ziemlich gewöhnlich aussehen, aber sie kommen beim üblichen Spiel niemals zustande.
Parent - By Chess Player Date 2021-12-07 10:04
Klingt so als würde es stimmen...
Parent - By Lothar Jung Date 2021-12-07 11:08
Bei TCEC wählen sie Eröffnungen mit einem größeren Nachteil, die teilweise sehr bizarr anmuten.
Natürlich sieht man dann, wer mit schwarz ein Remis halten kann oder mit weiß gewinnt.
Das sind Nachteilspartien, die mit Tunierschach sehr wenig gemein haben.

Lothar
Parent - - By Benno Hartwig Date 2021-12-07 15:23

> Wenn man nun ein Programm hat, welches es auch auf schwacher Hardware schafft, die Stellung niemals in eine Verluststellung zu transformieren, dann wird eben nur noch Remis gespielt. Da hilft auch keine millionenfach schnellere Hardware mehr.


Meinst du, das wir schon so weit sind?
Dass beim Gros der Remispartien der heutigen Top-Engines keine Stellungen mehr durchlaufen werden, die bei bester Ausnutzung nicht doch ein "Matt in 100"  oder so böten?
Vermeiden die Engines heute solche tatsächlichen und dabei nur eben schwer auszunutzenden Verluststellungen schon dermaßen gut?
Parent - - By Olaf Jenkner Date 2021-12-07 18:43 Upvotes 1
Benno Hartwig schrieb:

Meinst du, das wir schon so weit sind?

Ich weiß es nicht, aber die Ergebnisse der starken Programme auf starker Hardware lassen das vermuten.
Man kann das experimentell überprüfen:
Eine Partie aus ausgeglichener Stellung mit einem starken Programme auf mittelmäßiger Hardware spielt
mit einer Bedenkzeit von einer Minute pro Zug ohne Pondern gegen ein starkes Programm auf starker Hardware
mit einer Bedenkzeit von 1000 Minuten pro Zug. Damit schafft man in drei Wochen 30 Züge und kann vielleicht
schon eine Überlegenheit feststellen oder eben einen Remiswert. Interessant ist dann, wie viele Züge das
starke Programm anders spielt als es das mit gewöhnlicher Bedenkzeit getan hätte.
Parent - - By Peter Martan Date 2021-12-07 19:58 Edited 2021-12-07 20:00
Klingt gut, Olaf.
Glaubst du, wenn's eh nur bei der Vorteils- Seite auf die Ponder- Hits ankommt, könnte man den Zeitaufwand nicht auch stark vermindern, indem man die eine Seite auf single thread spielen lässt und die andere auf vielleicht 30?
Auf die Art ließe sich die  ungefähr 1000fache Bedenkzeit auf eine ca. 30fache reduzieren?
Also z.B. 1'/Zug single thread gegen eine halbe Stunde mit 30 threads?
Dann wäre man vielleicht schon in anderthalb Tagen mit 60 Zügen fertig.
Muss ich mal buchlos probieren, wenn ich gerade viel Hardware- Zeit frei habe, plant
Parent - - By Olaf Jenkner Date 2021-12-07 20:47
Ich habe von sowas keine Ahnung, wollte nur einen Denkanstoß geben.
Ich finde es aber wichtig, daß man ein superstarkes Ungleichgewicht erzeugen sollte und dem schwächeren Part
auch noch genügend Zeit für ordentliches Spiel lassen muß. Wenn du das aufweichen willst, dann probiere das.
Ich befürchte aber, daß dann nichts Verwendbares rauskommt. Es gibt ja Stimmen, die meinen, daß mittelstarke
Hardware schon heute immer Remis halten kann. Deshalb war meine Idee, eine riesige Unwucht einzubauen.
Daß das viel Geduld braucht, ist schon klar. Aber vielleicht gibt es jemanden, der ein paar Kerne seines Servers
für solch ein Experiment zur Verfügung stellt.
Parent - - By Peter Martan Date 2021-12-07 21:14 Edited 2021-12-07 21:21
Meine Frage ging nur dahin, ob du meinst, dass das Ungleichgewicht von reiner Zeitvorgabe 1:1000 durch Zeitvorgabe 1:30 und nochmal 1:30, was die Thread- Anzahl angeht, ungefähr gleich groß wäre.
1 Minute/Zug ist für single core mit guter Hardware- Software- Kombi auch schon recht stark, die alte Frage wäre halt, ob die Threadanzahl zu multipilizieren, wenigstens annähernd soviel bringt, wie die Zeit bei gleicher Threadzahl zu multiplizieren, zwischen 1 und 30 Threads wird das aber natürlich nicht so sein, vielleicht zwischen 1 und 8 aber noch eher und wäre auch schon nur mehr 120 fache oder vielleicht 300fache Zeit, die man für die Vorteilsseite hätte, je nachdem, wie stark man die Parallelisierung des Programms einschätzt, berechnete Knotenzahl pro Zug ist ja nicht gleich time to depth, geschweige denn time to "solution" pro Zug, mutmaßt
Parent - - By Olaf Jenkner Date 2021-12-07 21:24
Frag mich nicht, ich habe noch nie ein Schachprogramm benutzt.
Parent - By Peter Martan Date 2021-12-07 21:25
Parent - By Patrick Götz Date 2021-12-07 23:34
Ja, das ist so.
Vor einiger Zeit galt noch verdoppelte Kernzahl entspricht Faktor 1,7 der Bedenkzeit.
Heutzutage sind wir bei guter Parallel-Programmierung möglicherweise bei Faktor 1,8.
Das gilt aber tatsächlich nur für die ersten Verdoppelungen, bis vielleicht 8 oder 16, danach flacht die Kurve immer weiter ab.
Parent - - By Benno Hartwig Date 2021-12-07 21:34
Faktor 1000 ist ungefähr 10 mal Verdopplung.
So ganz ungefähr mag dies einem Plus von 10 Plys entsprechen.
Ob 10 oder 20 Play mag ja noch einen wesentlichen Unterschied machen.
Aber der Übergang von 30 auf 40 oder gar von 40 auf 50 Plys? Dass der wirklich grundsätzliche Dinge klären kann, mag ich nicht wirklich glauben.
Parent - By Olaf Jenkner Date 2021-12-07 21:38
Man kann es ja mal ausprobieren.
Parent - By Lothar Jung Date 2021-12-07 22:08
Hier ein guter Artikel von Thomas Zipproth:

https://computerschach.de/Files/2000/Suchet,%20so%20werdet%20ihr%20finden.pdf

Exponentielles Wachstum des Suchbaums.

Lothar
Parent - - By Dieter Brandhorst Date 2021-12-17 10:58
Code:
Die Partieanfangsstellung ist wahrscheinlich Remis, d.h. bei beidseitig fehlerfreiem Spiel ist das Ergebnis Remis.


Ist das so? Bei der Auswertung menschlicher Partien gibt es bekanntlich ein Verhältnis von ca. 55% für Weiß und 45% für Schwarz. Wurde das Verhältnis für aktuelle Enginepartien schon einmal ausgewertet und kommt man dort zu anderen Ergebnissen? Theoretisch könnte es doch sein, dass bei absoluter Spielweise (also mit 32er Tablebases), Weiß bzw. der Anziehende immer gewinnen muss. Bei weit weniger komplexen Spielen (zB Mühle) ist das durchaus der Fall. Solange die Spieltheorie diese Fragen nicht eindeutig geklärt hat, bleibt m.E. jede Aussage über den Spielausgang reine Spekulation.  

VG Dieter
Parent - - By Walter Eigenmann Date 2021-12-17 11:50
Lange vor der NN-Zeit habe ich mal anhand der sog. COMP2007-Datenbank...
https://glarean-magazin.ch/2007/10/05/die-grosse-computer-schach-datenbank-comp2007-mit-676000-partien-ranking-of-engine-games/
insgesamt über 676'000 Engine-Partien untersucht.

Davon waren
- 266624 Weiss-Siege
- 207436 Schwarz-Siege
- Remis: 202098


Also eine doch klare Mehrheit zugunsten des Anzugs, leicht höher als beim "humanen" Verhältnis (55:45)

Gruss: Walter

.
Parent - - By Olaf Jenkner Date 2021-12-17 12:06
Lange vor der NN-Zeit hat man es nicht besser gewußt.
Die Erfahrungen der Spieler auf den Schachservern mit Superhardware legen den Schluß nahe, daß Schach immer Remis sein könnte.
Genau weiß das natürlich keiner und es läßt sich nicht mathematisch beweisen, daß das Schachspiel nicht auch für Schwarz gewonnen ist.
Parent - By Dieter Brandhorst Date 2021-12-17 15:13
Wenn man sich anschaut welche der NN-Engines auf den Schachservern die Remispartien produzieren, sieht man sehr schnell, dass es sich überwiegend um Stockfish und seine Abkömmlinge, Lc0 und Dragon handelt. Das sind in ihrer Spielstärke schon  immer sehr nah beieinander liegende Programme und wen wundert es, wenn so überwiegend Remispartien produziert werden  (Treffen Carlsen, Karjakin und Caruana aufeinander, kommt auch überwiegend Remis heraus). Daraus zu schließen, dass Schach auch theoretisch immer nur remis ausgehen muss scheint zwar naheliegend , aber nicht unbedingt richtig zu sein. Der beobachtete Effekt, das die Hardwareleistung keine nennenswerte Rolle mehr für das Spielergebnis hat, zeigt m.E. nur, dass ein optimales NN im Zusammenspiel mit einem optimalen Programm aktuell die ausschlaggebenden Komponenten sind.

VG Dieter
Parent - - By Max Siegfried Date 2021-12-07 08:29
Benno Hartwig schrieb:

Mir ist das zu simpel.
Jahrzehnte haben wir beobachtet, dass ein mehr an Geschwindigkeit ein mehr an Siegen bringt.
Auch heute noch führt ein Mehr an Geschwindigkeit zu einem Mehr an Tiefe.
Welche logisch fassbaren Gründe gibt es, dass das jetzt kaum noch zu einem Mehr an Siegen führt?

Weil Stockfish inzwischen in der Grundstellung TB Hits anzeigt, wenn ausreichend Hardwarepower und 7-Steiner vorhanden sind. Siehe TCEC.
Das gab es vor Jahrzehnten nicht.
Parent - By Chess Player Date 2021-12-07 10:05
Ist das wirklich so? Bitte zeigen.
Parent - - By Patrick Götz Date 2021-12-07 04:24
Lothar Jung schrieb:

Über das Phänomen wurde im Forum schon oft gepostet.
Hier nun meine Meinung dazu:
1. Die Engines greifen auf die exakt gleiche Bewertung zu (NNUE).
2. Die verwendete Suche ist identisch.

Das wäre umgekehrt eigentlich ein Grund für eine niedrige Remisquote und viele Siege.
Ein Programm mit extra Kernen profitiert normalerweise besonders wenn es gegen sich selbst spielt.
Das ist ja auch der Grund warum die Enginetester die neue Versionen einer Engine nicht gegen die alte Version testen sondern gegen andere Engines, da die Elogewinne dann realistischer ausfallen.

Ich könnte mir auch vorstellen, das sich das "immer remis" gegen stärkere Hardware  lediglich auf die Serverspiele bezieht, bei denen Eröffnungsbücher genutzt werden die bis zum Endspiel gehen.
Ohne Bücher oder mit Büchern die  z.B. auf max. 4 Züge reduziert sind könnte es eventuell noch viele Siege für die stärkere Hardware geben.
Parent - - By Frank Quisinsky Date 2021-12-07 06:47 Edited 2021-12-07 07:10 Upvotes 1
Hallo Patrick,

bedingt ist das so.
Schließen wir die ca. 40 ECO-Codes aus, die schnell ins Endspiel laufen (grob gesagt).

Weitere 110 ECO-Codes, die meist auch zu schnell ins Remis laufen (unabhänig von der Länge der Varianten, spielt eigentlich kaum noch eine Rolle).

Das war 2016 ein großes Thema bei FEOBOS.
So ausgeglichen wie möglich, von A00-E99, bei Vermeidung von schnellen Remisen!!

Heute liegen zu dem ganzen FEOBOS Zeug mehr nützliche Resultate vor.
Da kann ich sicher sagen, dass z. B. A80-A99 für -12% Remisquote auf höchsten Niveau sorgt als der A00-E99 Durchschnitt ... immer in Anbetracht bei
ausgeglichenen Startstellungen. Nehmen wir nun bei den Hollänidschen Vorgaben auch die Remisträchtrigen raus sinkt die Remisquote gar auf 16%.

Würde man also die bewährten komplizierteren Grundstellungen aus A00-E99 sammeln, würde das sicherlich zu niedrigeren Remisquoten führen als unregelmäßigen
Eröffnungensvarianten oder Eröffnungsvorgaben, die auf purer Gewalt beruhen. Lassen wir mit zu großen Vor- und Nachteilen starten (z. B. Gambit-Varianten)
ist die Messung der Grundspielstärke zu stark beeinflusst. Eignet sich eher für "Fun-Zwecke".

Über kurz oder lang muss A00-E99 eh aufgebrochen werden.
Einzelne Codes die kaum noch gespielt werden, unbeliebt aus verschiedenen Gründen sind, und eine ganze Code-Nummer beanspruchen.
Andere ECO-Codes, aus denen alleine 50 neue entstehen könnten.

Heute macht die Grundaufteilung A00-E99 kaum noch Sinn.
Auch eine Folge von ... wir sind heute im Computerschach Software-basierend 500 Elo weiter als zu Rybka-Zeiten.

Wissen besser nutzen und da stehen nicht mehr unbedingt die GMs vorne, sondern heute eher die künstliche Intelligenz ...

Würde man ein Schachprogramm interviewen ... könnten die mit uns sprechen ...
Sag mal, was denkt ihr euch eigentlich zu A00-E99?

Die Antwort wäre:
Was für ein Unsinn, hätten da bessere Ideen weil wir wollen nicht mehr die unsäglich langweiligen 150-Züge-Partien schieben.
Menschen müssen auch mal akzeptieren was eine von uns produzierte höhere Intelligenz mitteilen möchte.

Gruß
Frank
Parent - By Frank Quisinsky Date 2021-12-07 07:41 Upvotes 1
https://www.amateurschach.de/t2022/common/fcp-tourney-2022-graphic-1.jpg

Was beeinflussbar ist (wenn alles genommen wird, A00-E99).
Schaue mal auf die Remisquoten der TOP-41 im Spiel gegeneinander.
Die schnellen Remisen gehen gar runter!!!

Trotz ausgeglichener Eröffnungs-Vorgaben ...

Wenn dann immer mehr im frühen Endspiel Remis wird ...
Steigerung der Remisquote bei durchschnittlich 100 Elo mehr innerhalb der TOP-41 in 10-11 Monaten = 3%.
Und die 3% kommen zunächst mal nicht von unseren Eröffnungssystemen.

Ist also nur sehr bedingt ein Ausläufer der Eröffnungen.
Geht dann sehr tief ins Detail.

Eher wird die Endspielstärke durch NN aufgeplustert.

Egal ...

Viele Grüße
Frank
Parent - - By Andreas Mader Date 2021-12-07 12:47
Jede Generation von Schachprogrammen hatte ein Limit, ab dem schnellere Hardware / mehr Bedenkzeit fast nichts mehr gebracht hat. Einen Mephisto von Richard Lang einen Tag an einem Zug rechnen zu lassen brachte nur sehr sehr selten ein anderes Ergebnis als ihn eine Stunde rechnen zu lassen. Und trotzdem würde ein Spitzenprogramm von heute locker gegen das damalige Programm gewinnen, selbst wenn es einen eklatanten Geschwindikeitsnachteil hätte. Genauso scheint es ein Limit bei den modernsten und besten Programmen zu geben. Das liegt nicht bei wenigen Sekunden (wie viele zu glauben scheinen) sondern bei guter Hardware ebenfalls im zweistelligen Minutenbereich. Wenn da keine großartigen taktischen Verwicklungen im Suchbaum auftauchen, ändert sich danach kaum noch etwas am besten Zug. Extra für solche Zwecke ausgesuchte Teststellungen sind da natürlich ausgenommen, aber wie oft kommen die in Partien tatsächlich vor?

Meine Schlussfolgerung: Schnellere Hardware ist nur bis zu einem gewissen Punkt ein Vorteil und das vor allem im Blitzschach, um taktische Fehler zu vermeiden. Geht es um vernünftige Bedenkzeiten ist die bessere Stellungsbewertung klar im Vorteil. Sollte es einen Sprung durch eine neue Technologie geben oder auch nur die bisherige Technologie der NNUEs durch einen neuen "Kniff" merkbar effizienter werden, dann werden plötzlich die jetzt als unschlagbar geltenden Engines gegen die neue Generation keine 50 Prozent mehr schaffen. Das gab es in der Vergangenheit schon mehrmals und ich sehe keinen Grund, warum ausgerechnet jetzt der Plafond erreicht sein sollte.

Schöne Grüße
Andreas
Parent - - By Lothar Jung Date 2021-12-07 14:21
Hallo Andreas,

nach meiner Erinnerung wird das pondering mit Bewertung mit großen Tiefen ungenauer.
Auch unterlaufen dem Prozessor, gerade mit HT, Sycronisierungsfehler. Die Skalierung geht ohnehin bei einer großen Zahl von Kernen immer weiter zurück.

Viele Grüße

Lothar
Parent - - By Andreas Mader Date 2021-12-07 14:45
Lothar Jung schrieb:

Die Skalierung geht ohnehin bei einer großen Zahl von Kernen immer weiter zurück.


Genau. Ich habe seinerzeit noch gelernt, dass irgendwann eine Grenze erreicht wird, an der das System nur noch damit beschäftigt ist, sich selbst zu verwalten und gar nichts mehr berechnet wird. 

Schöne Grüße
Andreas
Parent - - By Horst Sikorsky Date 2021-12-08 00:30 Edited 2021-12-08 00:36
22 Threads gegen 1 Threads gewinnen trotz Eröffnung Nachteil, die Gewinnpartie mit Weiß dauerte mit 75 Züge gar Länger.
Event:
Ort:
Datum:

Weiss:
Schwarz:

Ergebnis
Board
Parent - - By Patrick Götz Date 2021-12-08 02:41
Interessant.
Aber hier ist ja die allgemeine Aussage, das  Stockfish mit 4 Kernen kaum noch verliert.
Entscheidend wäre dabei auch noch die Frage der Bedenkzeit. Falls 5m+1s Blitzpartien gemeint sind würde es bedeuten das der 1 Thread Stockfish die ca. dreifache Bedenkzeit benötigen würde, also 15m+3s.
Wäre daher interessant wenn du das Experiment mit  15m+3s noch einmal wiederholen könntest.
Parent - - By Horst Sikorsky Date 2021-12-08 09:56
Blitz 2min+2sek steht doch da. mit  15m+3s und besser Ausgangsstellung Schaft 1 Thread gegen 22 Thread natürlich Remis.
Parent - - By Patrick Götz Date 2021-12-08 15:34
Ich wußte nicht das 1 Thread gegen 22 Threads mit mehr Zeit natürlich Remis wird.
Ich dachte das ist eine Behauptung deren Wahrheitsgehalt es herauszufinden gilt.'
Ich kann mir auch immer noch nicht vorstellen, dass das dann immer Remis wird, ich schätze vielleicht in 90-95% der Fälle, aber eben nicht immer.
Parent - - By Frank Quisinsky Date 2021-12-11 10:49 Upvotes 1
Allerdings ist das ja auch alles kein großes Geheimnis.

Lc0 DNN Version erreicht mit nur ganz wenigen Stellungen pro Sekunde über 3200 Elo.
Das muss man in Realition setzen.

Hardware spielt zwar immer noch eine große Rolle aber in vielerlei Hinsicht wurde durch Neural Network eine neue Generation eingeleitet.

Das ist auch ein ganz wesentlicher Grund warum ich selbst denke, dass Stockfish nicht für alle Ewigkeiten oben stehen wird.
Die Stockfish-Leistung ist während der letzten 10 Monate kaum höher gegangen, alle anderen TOP-40 haben kräftig aufgeholt.

Das Feld rückt in sehr großen Schritten wieder näher zusammen und nach wie vor ...
Mehr als 1 Core ist zum Testen für Schach-Engines pure Ressourcenverschwendung.
Die Elo auf einem Core liegt maximal bei ca. 3500.
Das sollte für Alle nun wirklich ausreichen.
Um diese dann mit Gewalt noch höher zu drehen ist sinnentfremdet ... kann eh niemand mehr nachvollziehen.

NIEMAND!!
Up Topic Hauptforen / CSS-Forum / Warum halten 4 - 8 Kerner bei SF gegen starke Hardware immer remis
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill