Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / asmFish 8 released
- - By Stefan Pohl Date 2016-11-04 19:12
https://github.com/tthsqe12/asm/tree/master/Windows

Frischer Fisch auf dem Tisch! asmFish wurde soeben neu released. Basierend auf Stockfish 8.
Da es sich um den Stockfish 8 Code handelt, der aber komplett in Assembler umgeschrieben wurde, handelt es sich um den schnellsten und damit stärksten Stockfish 8.
Parent - - By Michael Scheidl Date 2016-11-04 23:10
Sehr schön, danke! Das kommt gerade rechtzeitig um die Weltmeisterschaft ab nächster Woche zu kibitzen. Hochgenuß!

Kasparov hat vor vielen Jahren schon gesagt, Computer haben das Schach demokratisiert. Womit er, etwas monarchisch, meinte dank Computeranalysen können auch Dummköpfe Dinge verstehen die sonst nur Meisterspieler durchschauen. Nun, im 21. Jahrhundert ist das normaler Alltag geworden. Dennoch: Eigenhirn ist und bleibt von Vorteil, gerade beim Enginekibitzen.
Parent - - By Frank Brenner Date 2016-11-04 23:23
Hallo Michael,

ja da hast du recht.

Was mir aber auffällt: Wenn ich eine GM Partie mit einer Engine live verfolge und plötzlich ein Spieler einen kleinen Fehler macht und die Engine daraufhin (statt 0,0) aufeinmal +0,97 anzeigt ... dann ist die Enttäuschung immer groß wenn der menschliche Gegner   den Vorteil nicht sieht und einen langweiligen Zug macht der wieder zurück ins Remis schwenkt.

Wenn sowas dann mehrmals in der Partie passiert dann gewinnt man automatisch das Gefühl dass hier zwei Patzer spielen.

Früher, also in der Prä Rybka Zeit, spielten Großmeister noch (für mich vom Gefühl her) mit göttlicher Spielstärke.

Der Zauber ist nun vorbei, wenn selbst ein Anfänger mit seinem kleinen  Handy in wenigen Sekunden bessere Analysen vom Schachprogramm bekommt als früher alle GM-Kommentatoren zusammen nach einem Tag.

Grüße
Frank
Parent - By Michael Scheidl Date 2016-11-04 23:53
Zitat:
Der Zauber ist nun vorbei, wenn selbst ein Anfänger mit seinem kleinen  Handy in wenigen Sekunden bessere Analysen vom Schachprogramm bekommt als früher alle GM-Kommentatoren zusammen nach einem Tag.

So ist es, aber wir Schachfans können damit kreativ umgehen. Der Zauber des Schachs hat sich verlagert, er ist nun näher an uns, die Kibitze, herangerückt. Mit den modernen Mitteln der Software unserer Zeit haben wir es in der Hand, uns größtmöglichen Schachgenuß zu verschaffen, wie er füher gar nicht möglich war. Live & präzise!
Parent - - By Thomas Plaschke Date 2016-11-05 18:46
Ich finde diese Übertragung in Assembler auch sehr spannend und habe eine gewaltige Hochachtung von dem Autoren dieser Stockfish-Version. Er scheint das ja nach wie vor allein zu machen. Und die verschiendenen Versionen asmFish und PedantFish mit ihren jeweiligen Prozessorversionen erlauben jedem, sich einen Eindruck von dem zu verschaffen, was in Assembler/Maschinensprache möglich ist. - Ich meine damit auch Programmgröße/schlanker Code.

Mir ist bei der Beschäftigung mit pedantFish aber eins aufgefallen. Obwohl der Benchmark-Test das gleiche Ergebnis im Hinblick auf die Knotenzahl zeigt wie die C++-Version, zeigt sich aber in Teststellungen ein abweichendes Suchverhalten. Das hätte ich von asmFish erwartet, aber nicht von pedantFish.

Umgebung: Arena 3.51, alle 256 MB-Hash und 1 Thread, keine Endspieltabellen. Alle drei Engines laufen simultan.
Code:
FEN: 2b1B3/6p1/7p/p1k2p2/5P2/2K3P1/7P/8 w - - 2 58
StockfishPedantFishAsm 8:
  8/9  00:00   6k  1.018k  -0,81
  9/12 00:00   11k  1.082k  -0,98
10/15  00:00   22k  1.156k  -1,03
11/16  00:00   26k  1.133k  -1,08
12/20  00:00   36k  1.099k  -1,04
13/20  00:00   49k  1.134k  -0,96
14/20  00:00   80k  1.426k  -1,06
15/23  00:00   122k  1.739k  -1,01
16/24  00:00   221k  2.163k  -1,13
17/25  00:00   565k  2.666k  -1,20
18/26  00:00   1.039k  2.877k  -1,35
19/28  00:00   1.098k  2.906k  -1,40
20/33  00:00   1.800k  3.010k  -1,66
21/33  00:00   2.160k  3.034k  -1,62
22/33  00:01   3.138k  3.085k  -1,55
23/39  00:01   4.096k  3.132k  -1,72
24/39  00:01   4.380k  3.144k  -1,72
25/39  00:01   5.225k  3.168k  -1,82
26/39  00:02   9.632k  3.239k  -1,95
27/39+  00:03   10.765k  3.246k  -1,87

StockfishCFish 8:
8/9  00:00   6k  6.107k  -0,81
9/12  00:00   11k  10.823k  -0,98
10/15  00:00   22k  1.292k  -1,03
11/16  00:00   26k  1.533k  -1,08
12/20  00:00   36k  1.133k  -1,04
13/20  00:00   49k  1.524k  -0,96
14/20  00:00   80k  1.664k  -1,06
15/23  00:00   122k  1.902k  -1,01
16/24  00:00   221k  2.163k  -1,13
17/25  00:00   565k  2.593k  -1,20
18/26  00:00   1.038k  2.676k  -1,35
19/28  00:00   1.098k  2.698k  -1,40
20/32  00:00   1.599k  2.786k  -1,58
21/32  00:00   1.773k  2.806k  -1,61
22/32  00:00   2.497k  2.874k  -1,80
23/36  00:01   4.660k  2.911k  -1,69
24/40  00:02   6.468k  2.940k  -1,77
25/48-  00:03   9.173k  2.962k  -1,95
25/59+  00:03   10.462k  2.962k  -1,79
25/59  00:03   11.584k  2.973k  -1,99

Stockfish 8:
8/9  00:00   6k  611k  -0,81
9/12  00:00   11k  773k  -0,98
10/15  00:00   22k  879k  -1,03
11/16  00:00   26k  899k  -1,08
12/20  00:00   36k  907k  -1,04
13/20  00:00   49k  976k  -0,96
14/20  00:00   80k  1.268k  -1,06
15/23  00:00   122k  1.541k  -1,01
16/24  00:00   221k  1.869k  -1,13
17/25  00:00   565k  2.326k  -1,20
18/26  00:00   1.038k  2.508k  -1,35
19/28  00:00   1.098k  2.536k  -1,40
20/32  00:00   1.599k  2.630k  -1,58
21/32  00:00   1.773k  2.643k  -1,61
22/32  00:00   2.497k  2.709k  -1,80
23/36  00:01   4.660k  2.735k  -1,69
24/40  00:02   6.468k  2.767k  -1,77
25/48-  00:03   9.173k  2.785k  -1,95
25/59+  00:03   10.462k  2.782k  -1,79
25/59  00:04   11.584k  2.790k  -1,99
Der Pedantfish entwickelt anscheinend ein Eigenleben, wo er, anders als sein Geschwisterchen asmFish, keins haben sollte.

Aus der Grundstellung ist dagegen auch nach 3 Minuten keine Abweichung der 3 Engine-Versionen zu bemerken. In anderen Endspielstellungen dagegen schon. Eigenartig, dass Pedantfish in den Benchmarkstellungen unauffällig bleibt.

Viele Grüße
Th. Plaschke
Parent - - By Stefan Pohl Date 2016-11-05 19:21 Upvotes 1
Hallo Thomas,

Probier das Ganze mal in einer anderen GUI, würde ich sagen. Bei seltsamen Effekten, die in der ArenaGUI auftreten, tippe ich immer erst mal auf die GUI als Ursache. Besonders bei parallel laufenden Engines. Hauke Lutz hat vor dem Release von Brainfish auch Tests mit Brainfish gemacht. Mit Arena. Die Ergebnisse waren völlig Banane. Konnten wir alles wegschmeissen.
Arena ist so verbuggt, das Teil fasse ich nicht mehr an.

Gruß - Stefan
Parent - - By Thomas Plaschke Date 2016-11-05 21:16
Meine geschilderte Beobachtung kann ich mit der CB14-GUI und und Deep Shredder 13-GUI wiederholen. Cfish 8 und Stockfish 8 identische Ausgaben. Pedantfish hat sehr schnell andere Hauptvarianten.

I.Ü. kann ich über Arena 3.5.1 nichts schlechtes sagen. Für meine Zwecke arbeitet das Programm unauffällig und mit den Bedienungsoptionen die ich mir wünsche. Vielleicht nicht immer ergonomisch, aber so ziemlich vollständig.
Für Engine-Engine-Wettkämpfe gibt's anderes. Eigene Partien bearbeite ich mit noch einem anderen Programm. Die Eier legende Wollmilchsau gibt's noch nicht.

Jedenfalls sind die beiden anderen genannten GUIs für diese Art Vergleiche praktisch nicht zu gebrauchen, wie ich eben leider wieder merken musste. Das CB-GUI erlaubt nicht den Simultanbetrieb von Engines und verbrät zusätzlich die Leistung eines Cores ... für was eigentlich? Das Shredder GUI kann zwar Engines gleichzeitig laufen lassen und hat m.E. die bessere Analyseausgabe, aber die Parameter für alle Engines gleichzeitig einzustellen - im Wesentlichen besonders Thread-Anzahl und Hash-Größe - geht nicht. Die Hashgröße soll zwar für alle Engines zugleich eingestellt werden können. In den Engine-Fenster fehlen aber generell Rückmeldungen über nachträgliche Einstellungsänderungen. Alles Sachen die bei Arena funktionieren und obendrauf hat es die bessere Anbindung von Xboard-Engines. Also "seltsame Effekte" finde ich bei Arena seltener. Vermutlich haben wir aber zu unterschiedliche Benutzerprofile.

Um noch Mal auf die Pedantfish-Ausgaben zurückzukommen: Hast Du das auf dem/den GUI/s Deiner Wahl versucht nachzuvollziehen? Mit welchem Ergebnis?

Viele Grüße
Th. Plaschke
Parent - - By Stefan Pohl Date 2016-11-06 05:11 Upvotes 1
Leider hab ich im Moment keine Hardware frei, um das selber auszuprobieren, es ist so viel Neues released worden und meine Ressourcen sind leider sehr begrenzt.
Wird schon stimmen, wenn du das so mißt. Merkwürdig ist es allerdings.
Warum müssen denn die Engines überhaupt parallel laufen? Wäre es nicht sicherer, jeden Testlauf einzeln, nacheinander durchzuführen und die Ergebnisse erst anschliessend zu vergleichen?! Das würde ich interessant finden.

Gruß - Stefan
Parent - - By Stefan Pohl Date 2016-11-06 09:14
Hab mir mal auf meinem Uralt-PC die x64_base-Versionen angeschaut. Du hast wohl Recht. Merkwürdig außerdem, daß PedantFish meist (nicht immer) sogar minimal höhere Knotenzahlen erreicht als asmFish. Und beide zeigen teilweise deutlich abweichende Hauptvarianten und Bewertungen im Vergleich zu Stockfish 8.



Gruß- Stefan
Parent - - By Stefan Pohl Date 2016-11-06 15:12
Noch eine Merkwürdigkeit gibt es beim Contempt.

Bei Stockfish 8 ist der Remiswert (z.B. bei anstehender 3fach-Wiederholung) immer 0.01 weniger, als der Contempt eingestellt ist, also bei Contempt=10 ist die Remis-Stellungsbewertung -0.09, bei Contempt=20 ist sie -0.19, bei Contempt=30 ist sie -0.29. (immer vorausgesetzt, Stocki hat Weiß) So weit, so logisch.

Bei asmFish 8 und auch PedantFish 8 ist es NICHT so. Hier ist bei Contempt=10 die Stellungsbewertung für Remis -0.04, bei Contempt=20 ist sie -0.08 und bei Contempt=30 ist sie -0.12 usw...also bewirkt der gleiche Contempt deutlich weniger, als bei Stockfish 8...
Parent - - By Thomas Plaschke Date 2016-11-06 19:28
Da muss ich passen.
Diese Passagen habe ich im Quellcode auf die Schnelle nicht finden können.
Erstaunlich, dass dieser Unterschied nicht dazu führt, dass im Benchmark auch nur eine Position mehr oder weniger berechnet wird. -Zufall (exakt die gleiche Anzahl berechneter Knoten) mag ich nicht annehmen.
Ich werde die Benchmarks mit größerer Tiefe wiederholen...

Interessant finde ich, dass Pedantfish anfangs scheinbar das Gleiche anzeigte. In der Teststellung gings dann ab ply 21 (glaub ich) unterschiedlich weiter.
Ich hatte über Nacht noch kurz getestet, ob vielleicht ein "kaputter" Download dahinter steckt. Im Spießrutenlauf gegen Cfish und Stockfish war Pedantfish erwartungsgemäß minimal stärker - mit entsprechend großer Fehlermarge bei 400 Partien. Eine defekte Engine-Datei hätte das nicht gebracht.

Viele Grüße
Th. Plaschke
Parent - By Stefan Pohl Date 2016-11-07 07:40
Thomas Plaschke schrieb:

Da muss ich passen.
Diese Passagen habe ich im Quellcode auf die Schnelle nicht finden können.
Erstaunlich, dass dieser Unterschied nicht dazu führt, dass im Benchmark auch nur eine Position mehr oder weniger berechnet wird. -Zufall (exakt die gleiche Anzahl berechneter Knoten) mag ich nicht annehmen.
Ich werde die Benchmarks mit größerer Tiefe wiederholen...


Nicht unbedingt. Das würde nur zu Unterschieden führen, wenn im Suchbaum ein forciertes Remis nach Schachregeln nicht nur auftaucht, sondern an dieser Stelle die minimal andere Bewertung (wir reden von nur einigen hundersteln Bauerneinheiten) auch zu anderen Alpha/Beta-Abschneidungen führt. Beides ist nicht sooo wahrscheinlich und passiert daher in den paar Benchstellungen wahrscheinlich einfach nicht.
Nehme ich an.

Gruß - Stefan
Parent - By Thomas Plaschke Date 2016-11-06 20:57
Ich habe die Engines mit bench 256 1 25 getestet. (256 MB Hash, weil das die Größe war, bei der mir das andere Suchverhalten auffiel.)
Der Zeitverbrauch im Einzelnen:
Stockfish .....: 283,753 s
Cfish .........: 267,561 s = 94,3 %
Pedantfish ....: 242,422 s = 85,4 %

Dabei ist zu bedenken, dass Pedantfish sich die Bildschirmausgaben während des Benchmarktests spart. Leitet man die Engineausgaben nach NUL um, liegt der Zeitverbrauchs eher bei 88-89% gegenüber dem von Stockfish (letzter und Cfish legen dann scheinbar zu). Aber das war ja nicht gefragt.

Alle drei Durchläufe zeigten als Ergebnis Nodes searched: 546.372.741.
Was immer im Algorithmus von Pedantfish (sonst noch) anders ist, auf den Benchmarktest hat es bis zur Tiefe 25 keinen Einfluss.  Rätselhaft.

Viele Grüße
Th. Plaschke
Parent - - By Thomas Plaschke Date 2016-11-06 19:17
Konkret hatte ich hatte die drei 8er (Stockfish, Cfish, pedantfish) zwecks Experimenten mit den Endspieltabellen simultan laufen. Wegen der (vermeintlich) identischen Suchbäume hätte ich den Zeitverbrauch für TB-Zugriffe, wenn kurz hintereinander auf dieselben Stellungen zugegriffen wird ( ->Cachezugriffe des PC-Dateisystems), einschätzen zu können erwartet.

Nachdem die Anzeige für pedantfish etwas anderes zeigte als für die beiden anderen Engines, habe ich das ganze auch im "Einzellauf" wiederholt.
Neugierige Gegenfrage: Das GUI außer Acht gelassen, wie kann der gleichzeitige Lauf der Engines im allgemein als deterministisch angesehenen 1-Thread-Betrieb Einfluss auf den Engine-Output haben? Ein paar Hinweise auf so eine, zu vermeidende "Betriebsumgebung" wären nett.

Viele Grüße
Th. Plaschke
Parent - By Stefan Pohl Date 2016-11-07 07:30
Thomas Plaschke schrieb:

Neugierige Gegenfrage: Das GUI außer Acht gelassen, wie kann der gleichzeitige Lauf der Engines im allgemein als deterministisch angesehenen 1-Thread-Betrieb Einfluss auf den Engine-Output haben? Ein paar Hinweise auf so eine, zu vermeidende "Betriebsumgebung" wären nett.

Viele Grüße
Th. Plaschke


Eigentlich gar nicht, klar. Nur, haben wir es ja immer mit zwei Systemen zu tun, was die Betriebsumgebung der Engines angeht, nämlich die GUI und Windoofs. Letzerem traue ich noch weniger, als Arena. Und die Engines nutzen ja auch Hashtables, ergo den Speicher des PCs und da kommt Windows und seine Speicherverwaltubg ins Spiel. Insofern denke ich einfach, es ist sicherer, man testet Engines einzeln, nacheinander, als simultan. Insbesondere, wenn man solche Nuancen betrachtet, wie in diesem konkreten Fall...

Gruß - Stefan
Parent - - By Benno Hartwig Date 2016-11-06 21:21
Was soll denn dieser Pedantfish eigentlich sein?
asmfish ist im Wesentlichen eine Übertragung des aktuellen SF in Assembler.
Und Pedantfish? Dasselbe Vorhaben noch einmal irgendwie anders verwirklicht? Von jemandem anderen?
Oder steckt dahinter auch eine ganz andere Zielrichtigung?
Benno
Parent - - By Thomas Plaschke Date 2016-11-06 23:16
Der Autor erklärt dazu sinngemäß: Indem Pedantfish den Benchmark genauso absolviere wie Stockfish, helfe ihm das beim Debuggen.

Demgegenüber ist der Asmfish insofern keine 1:1 Übersetzung von Stockfish. Wegen der Unterschiede von Assembler zu C++ fand es der Autor mitunter sinnvoll, die Stockfish-Algorithmen in Assembler anders umzusetzen. Blödes Beispiel: Wenn Asmfish (aus welchem guten Grund auch immer) eine Zugliste vom letzten zum ersten generierten Zug anstatt wie das C++-Programm in der anderen Reihenfolge durchgeht, spielt das für den Suchbaum bei mehreren gleich bewerten besten Zügen eine Rolle, obwohl die Stellungsbewertung von Asmfish eine Stellung genauso wie Stockfish mit den gleichen Termen bewertet (bewerten müsste - ich hab's nicht ausprobiert).

Viele Grüße
Th. Plaschke
Parent - By Benno Hartwig Date 2016-11-07 14:38 Edited 2016-11-07 14:49
Um mal einen allerersten Eindruck von diesen Engines zu gewinnen, habe ich mal ein Aufeinandertreffen mit sehr kleiner Bedenkzeit initiiert:

Games Completed = 1921 of 5000 (Avg game length = 67.235 sec)
Settings = RR/32MB/20000ms+300ms/M 450cp for 4 moves, D 110 moves/EPD:C:\Schach\LittleBlitzer-2.74\10moves_SALC_500.epd(500)
Time = 65238 sec elapsed, 104564 sec remaining
1.  asmFishW_2016-11-04_popcnt     694.0/1281 333-226-722 (L: m=0 t=1 i=0 a=225) (D: r=555 i=69 f=18 s=8 a=72)  (tpm=644.8 d=19.27 nps=914503)
2.  pedantFishW_2016-11-04_popcnt  666.0/1281 292-241-748 (L: m=0 t=0 i=0 a=241) (D: r=560 i=90 f=24 s=7 a=67)  (tpm=644.0 d=19.20 nps=905761)
3.  stockfish_8_x64_popcnt.exe     561.0/1280 200-358-722 (L: m=1 t=0 i=0 a=357) (D: r=539 i=75 f=22 s=11 a=75) (tpm=623.1 d=18.46 nps=721319)


Die Engines erreichten also die Quoten:
asmFishW    54,18%
pedantFishW 51,99%
stockfish8  43,83%


der c++-Stockfish ist also schon ein Stück weit abgeschlagen. Der Grund ist klar, das Ausmaß woltle ich gern mal sehen.
Aber auch der Knotendurchsatz ist bei SF8 schon ziemlich deutlich schlechter.

Ich finde aber auch, dass der pedantFishW recht deutlich gegenüber asmfish zurückliegt. (Ok, 1281 Partien sind noch nicht sooo viel...)

Benno
- - By Lothar Jung Date 2016-12-28 18:11 Edited 2016-12-28 19:09
Liebe Computerschachfreunde,

zur Zeit teste ich Brainfish im Verhältnis zu asmfish (jeweils letzte Version).
Auf relativ schneller Hardware (i7 6700 4 Kerne) sieht Brainfish besser aus (8:2 Punkte bei Blitzschach 5 Minuten, Ponder On).
Auf schwachder Hardware (Atom x8500 4 Kerne) schneidet asmfish mit 8:2 besser ab.
Habt ihr vielleicht schon asmfish mit dem Cerebellum light book for BrainFish eingebunden?
Falls ja, wie geht das? Über UCI-Befehl in asmfish?

Für Hilfe und Eure Erfahrungen wäre ich dankbar.

Viele Grüße

Lothar
Parent - - By Benno Hartwig Date 2016-12-28 21:43 Edited 2016-12-28 22:07
So extreme Anfänge sind verblüffend, OK,
Aber lass bitte kräftig weiterspielen.
Ein paarhundert Partien sollten es jeweils unbedingt schon sein!

Ich erwarte, dass beide Resultate dann bei weitem(!) nicht so deutlich bleiben.
Und ich erwarte, so mein Test vor einiger Zeit, dass Brainfish bei allen Gegebenheiten dann am Ende leicht vorn liegt.

Benno
Parent - - By Lothar Jung Date 2017-01-02 09:30
Hallo,

gerade wurde ein 100 Partien Blitztunier (5 Minuten, 6 Sekunden) zwischen den Derivaten von Stockfish mit einem i7-6700 hq notebook (16 GB RAM) beendet.
Der Ausgang (mit jeweils 4 Kernen und Ponder on) war: AsmFishW_2016-11-04_popcnt (mit Perfektbuch unter Arena)  -  BrainFish_161205_x64_modern 12:3:85=+28.
Ein doch deutlicher Sieg von AsmFish. Brainfish büßt in der Eröffnungphase regelmäßig zwischen 1-2 Minuten ein.
Ich werde alsbald ein Tunier unter Einbeziehung von der letzten Stockfish-Version starten.
Soll ich die Rahmenbedingungen verändern?

Viele Grüße

Lothar
Parent - - By Benno Hartwig Date 2017-01-02 09:47 Edited 2017-01-02 10:47
Thanx für die Infos.

> Brainfish büßt in der Eröffnungphase regelmäßig zwischen 1-2 Minuten ein.


Was meinst du denn damit?
Gerade in der Eröffnungsphase sollte Brainfisch sehr fix aus seinem ganz speziellen Buch spielen und keinerlei Zeit "einbüßen".
Kann es sein, dass er sein Buch bei dir gar nicht findet?? (Sorry, man muss ja auch mal solche Fragen stellen.)
Benno
Parent - - By Lothar Jung Date 2017-01-02 10:49
Ist denn das Buch nicht in der Engine eingearbeitet? Die Größe der Engine läßt den Schluß zu!?
Falls man das spezielle Buch doch noch ausdrücklich unter Arena laden muss, müßte ich das Tunier noch mal wiederholen.
Bitte um Nachsicht.

Lothar
Parent - By Thomas Müller Date 2017-01-02 11:56
Hallo Lothar,

du musst das buch bzw den pfad in den settings von brainfish mit angeben, sonst wird das nicht genutzt.
Cerebellum_Light.bin eintragen bzw auch die Datei (also das buch) in den ordner wo die  .exe von brainfish liegt kopieren

gruß
thomas
Parent - - By Thomas Zipproth Date 2017-01-02 12:05
Das Buch ist nicht in der Engine enthalten, das war nur in der allerersten Version der Fall, die ca. 31 MB groß war.
Die aktuellen Brainfish Versionen unterscheiden sich in der Größe eigentlich nicht besonders von Stockfish (ca. 1.2 MB).

Der Pfad auf das Buch muss in dem UCI Parameter BookPath konfiguriert werden, wie auf der Download Seite auf Englisch beschrieben:

Der Parameter muss den vollen Pfad mit dem Filenamen von Cerebellum_light.bin enthalten, zum Beispiel:
d:\Cerebellum_light_160731\Cerebellum_Light.bin
Parent - - By Lothar Jung Date 2017-01-03 11:48 Edited 2017-01-03 11:56
Vielen Dank Herr Zipproth und meine Hochachtung für Ihre Weiterentwicklung von Stockfish.

Ich hatte vergessen die Eröffnungsbibliothek einzubinden.
Mit Einbindung sehen die Ergebnisse deutlich anderes aus (Blitz 4 Minuten) auf i7  6700 hq mit jeweils 4 Kernen und PonderOn: 10 Partien, 3 Siege für Brainfish, 7 Remis.
Wie sieht nach Ihren Erkenntnissen der ELO-Unterschied zwischen Stockfish, Asmfish und Brainfish aus?
Lohnt sich die Einbeziehung von Tablebases in brainfish überhaupt?
Ich finde Brainfish ist gerade bei normaler oder netbook Hardware oder bei geringeren Bedenkzeiten eine Bereicherung.

Viele Grüße

Lothar Jung
Parent - By Benno Hartwig Date 2017-01-03 13:06 Edited 2017-01-03 13:10
Thanx, und lasse es gern noch mal so mindestens(!) bis 100 weiterlaufen.

Natürlich beginnt man dann davon zu träumen, dass Cerebellum auch für andere Engines genutzt werden kann,
z.B. auch für asmfish genutzt werden kann.

Benno
Parent - - By Thomas Zipproth Date 2017-01-03 18:36
Danke, ich versuche mal die Fragen zu beantworten:

Stockfish, AsmFish und Brainfish unterscheiden sich vom Spiel her nur in der Geschwindigkeit, wenn man von allen 3 denselben Release Stand nimmt.
AsmFish ist deutlich schneller da in Assembler realisiert und mit Large Pages. Macht meines Wissens nach ca. +20 Elo.
Brainfish ist etwas schneller aufgrund eines besseren Compiles sowie Large Pages, kann zusammen 4-6 Elo ausmachen.

Der Hauptvorteil von Brainfish ist die Benutzung des Cerebellum (light) Buches.
Mit diesem Buch spielt Brainfish (so lange er im Buch ist) ungefähr so wie Stockfish mit wesentlich längerer Bedenkzeit spielen würde.
Je nach der Position im Buch kommt man auf eine zusätzliche Tiefe von bis zu 40 Halbzügen.

In Cerebellum_light sind nur die reinen Züge verfügbar, die genauen Daten werden dann erst in der kommerziellen Version angezeigt.

Viele Grüße,
Thoma Zipproth
Parent - - By Benno Hartwig Date 2017-01-04 08:10
vielen Dank noch mal für die Erklärung zu deinem wirklich faszinierenden Projekt.

Ich habe aber immer noch nicht verstanden, ob es wirklich einen guten Grund dafür gibt, das von dir generierte (und vermutlich laufend fortentwickelte) Cerebellum-Buch nur in eine spezielle Engine (Brainfish) einzubinden und es nicht einfach in irgendeinem (oder auch mehreren) der gängigen Buchformate auch für andere Engines nutzbar zu machen?
Auch dies kann dann ja gern kommerziell geschehen.

Benno
Parent - - By Stefan Pohl Date 2017-01-04 13:56
Benno Hartwig schrieb:

vielen Dank noch mal für die Erklärung zu deinem wirklich faszinierenden Projekt.

Ich habe aber immer noch nicht verstanden, ob es wirklich einen guten Grund dafür gibt, das von dir generierte (und vermutlich laufend fortentwickelte) Cerebellum-Buch nur in eine spezielle Engine (Brainfish) einzubinden und es nicht einfach in irgendeinem (oder auch mehreren) der gängigen Buchformate auch für andere Engines nutzbar zu machen?
Auch dies kann dann ja gern kommerziell geschehen.

Benno


Der kommerzielle Release wird einen Adapter enthalten, der es möglich macht, eine andere UCI-Engine mit der Cerebellum Library zu "verkoppeln", indem man diesen Adapter dazwischenschaltet. Zumindest ist das der Plan, soweit ich ihn kenne. Angabe daher ohne Gewähr.

Generell ist nur die Frage, inwieweit das wirklich Sinn macht. Die Idee der Library ist ja, Stockfish Vorabkalkulationen (mit Rückwärtsoptimierung der Bewertungen) der Stockfishengine in Form der Library zur Verfügung zu stellen. Und so Stockfish eben mit Stockfish zu verstärken. Das ist ja gerade das, was die Library und ihre Idee so grundlegend von einem "normalen" Eröffnungsbuch unterscheidet.
Läßt man eine andere Engine die Library nutzen, so kann es passieren, daß die Library sie in Stellungen manövriert, die Stockfish gut versteht und gut spielt, die andere Engine aber nicht. Das widerspricht also eigentlich dem Ansatz, der mit der Library verfolgt wird. Ausnahme wäre natürlich asmFish, welcher ja im Prinzip Stockfish ist. Nur eben als rewrite in Assembler. Hier würde die Benutzung Sinn machen.
Parent - - By Benno Hartwig Date 2017-01-04 14:42

> Läßt man eine andere Engine die Library nutzen, so kann es passieren, daß die Library sie in Stellungen manövriert, die Stockfish gut versteht und gut spielt, die andere Engine aber nicht.


Das kann passieren. Klar.
Ggf. zeigt sich aber auch, dass auch andere Engines von diesem Buch gut profitieren. (so meine aus-dem-Bauch-Vermutung)
Dass dieses Buch eben auch andere Engines besser unterstützt, als andere frei verfügbare Bücher.

Hier wurden doch auch mehrfach liebevoll gepflegte Privat-Versionen von Büchern erwähnt,
die im Maschinenraum dann mit einer guten Engines besonders erfolgreich waren. Aus gutem Grund nicht veröffentlichte Bücher.
Gibt es schon Erfahrungen von Besitzern solcher Bücher, wie die in der Begegnung mit Brainfish-Cerebellum abschneiden?
Gilt ein "Liebevolles per-Hand-Tunen ist erfolgreicher als Generieren-lassen!"?

Ich finde, das ergäbe eine sehr interessante Spielwiese für Interessierte.

Benno
Parent - - By Thomas Zipproth Date 2017-01-04 22:46
Zur Frage mit den Buchformaten:

Davon gibt es ja einige, und meines Wissens nach hat keines dieser Buchformate eine Schnittstelle um ein Buch aus Fremddaten zu erzeugen.
Man müßte also eine Konvertierung für jedes Buchformat schreiben, womit man mal locker mehrere Monate verbringen könnte.
Man könnte über einen Trick aus Cerebellum eine PGN erzeugen und damit dann die Bücher generieren, aber das ist auch sehr aufwendig und das Ergebnis nicht ganz klar.
Der Test ob diese Bücher dann auch so spielen wie Cerebellum wäre nochmals sehr aufwendig.

Zusätzlich funktioniert Cerebellum intern auch anders und beherscht z.B. Stellungswiederholungen, das läßt sich in normalen Büchern nicht identisch machen.
Deswegen ist der Weg über den Adapter sicher der Beste, den wird es dann in der kommerziellen Version geben.
Ich werde aber auch für Cerebellum_light einen freien Testadapter machen um die ganze Sache mal testen zukönnen.

Zur Frage Berechnen oder. Statistik oder Hand-Tunen:

Es gibt ja eigentlich 3 Möglichkeiten wie man bei der Erstellung eines Buches vorgehen kann:

Berechnen: Das gab es meines Wissens nach bisher noch nicht (jedenfalls in der Praxis), ist die Neuerung von Cerebellum.
Statistik: Aus einer großen Anzahl von Partien die jeweils erfolgreichsten Züge auswählen
Tunen: Normalerweise eine Kombination aus Statistik, Stellungsanalyse per Computer und eigenem Wissen.

Das beste Vorgehen wird letztlich eine Kombination aus allen 3 Möglichkeiten sein, das wird mit Cerebellum dann auch machbar sein.

Cerebellum spielt sicherlich das theoretisch beste Schach von diesen 3 Möglichkeiten.
Andererseits sind in anderen Büchern oft auch Fehler enthalten oder eine Engine macht in bestimmten Stellungen Fehler.
Das ist rein statistisches Wissen, über das Cerebellum in der light Version nicht verfügt.
Es macht einfach den besten berechneten Zug.

Was aber der Zug mit den höchsten Gewinnaussichten ist, hat des öfteren gar nichts mit der wirklichen Stellungsbewertung zu tun.
- Bücher können grobe Fehler beinhalten, die längere Zeit nicht korrigiert werden.
- Bestimmte Engines machen bei bestimmten Bedenkzeiten in bestimmten Positionen Fehler, solange bis er im Buch korrigiert ist.
  d.h. die Statistik muss auch eigentlich auch noch Bedenkzeit-abhängig, Gegner-abhängig und Gegner-Buch abhängig sein.

Alles das ist sehr aufwendig und muss ständig neu justiert werden, trägt aber auch wesentlich zum Erfolg dabei.
Aber eigentlich hat das mit Schachspielen an sich gar nicht mehr so viel zu tun, es ist lediglich eine statistische Auswertung bestimmter aktueller Parameter des Gegners (Engine, Bedenkzeit, Buch).

Letztendlich würde Cerebellum bei unendlicher Fortsetzung in den "32-Steiner" einmünden.
Damit würde es dann zwischen den Zügen 1. a3 und 1. e4 keinen Unterschied mehr erkennen und beide mit 0.0 bewerten (Wenn man mal vorraussetzt das beide Züge theoretsich Remis sind)
Dieser Effekt ist in einigen Stellungen bereits jetzt erkennbar, weil es vorkommen kann, das Cerebellum einen sehr gefährlichen und vom Gegner kaum zu konternden Angriff (der aber letztendlich doch theoretisch Remis ist) bereits vollkommen durchgerechnet hat und damit mit 0.0 bewertet.

Somit wird also auch Cerebellum irgendwann einmal eine statistische oder handgetunte Komponente benötigen, diese ist ja dann in der kommerziellen Version auch vorhanden.

Thomas
Parent - - By Peter Martan Date 2017-01-05 08:12 Edited 2017-01-05 08:20
Hallo Thomas!

Danke, dass du uns auf dem Laufenden hältst.

Was übrigens das Problem, das du auf der download- site schilderst, angeht, hatte ich es bei der Kombi aus 010117- engine und dem Cerebellum vom selben Datum auch.
Ich bin bei der engine geblieben und habe das neuere Buch dazu heruntergeladen (170104).
Dann bin ich beim Einbinden wieder den früheren Weg gegangen, engine und .bin- Datei im selben Ordner zu haben und im UCI- Parameter nicht den ganzen Pfad, sondern nur den .bin- Namen einzugeben, weil ich mir dachte, vielleicht sind auch längere Pfadangaben bei immer größer werdenden Datenmengen ein Problem, und ich habe auf der steady state disk statt auf der alten installiert.
Seither habe ich die "Löcher", von denen du auch schreibst, nicht mehr reproduzieren können an den Stellen, an denen ich sie gefunden hatte.
Eines davon war übrigens, besonders leicht zu finden, gleich nach 1.e4 c5, da kam dann z.B, auch so ein a3# daher, wie du es beschreibst.
Falls du der Sache nicht ohnehin bereits auf die Schliche gekommen bist, hoffe ich, das hilft dir vielleicht, es einzugrenzen.

Und dann noch eine ganz dumme Frage: wenn du selbst meinst, die Assembler- Version hat allein der Programmiersprache wegen 20 Elo mehr: daran, mit dem Brainfish auch auf den asmFish umzusteigen, denkst du wohl nicht, nein?

Dass es eine blöde Frage ist, merke ich gerade selbst so richtig, wenn ich mir vorstelle, was das dann im Testen wieder auslösen würde, herausfinden zu wollen, ob asmFish mit Cerebellum besser ist als SF dev. ohne Cerebellum, und ob das jetzt wegen der Version der engine oder der des Buches so ist.

Vergiss es wieder, nein, vielleicht doch nicht ganz. Ich sehe es nämlich sowieso kommen, dass es bald einen asmFish geben wird (gibt's nicht eh schon einen, der irgendwo im Netz herumgeistert?), der auch Cerebellum nutzt. Michael Byrne hat für den C-Fish für Mac ja auch so eine Portation gemacht, glaube ich, heißt jetzt wohl MacFish?

Na, wenn das GUI auch da ist, das das Einbinden anderer engines ermöglicht, kann dann sowieso jeder rumspielen, wie er will.
Ich freu mich schon recht darauf, auch das Buch selbst editieren zu können mit anderen engines und für andere engines (und Settings ). Autolearning in allen Ehren, die Editierung der Anfangszüge als engine- (oder Fernschach-) Spieler selbst vornehmen zu können, das gehört sich schon einfach immer noch.

Weiter alles Gute für dein Projekt!
Parent - - By Peter Martan Date 2017-01-05 10:12 Edited 2017-01-05 10:21
Peter Martan schrieb:

Seither habe ich die "Löcher", von denen du auch schreibst, nicht mehr reproduzieren können an den Stellen, an denen ich sie gefunden hatte.

Uups!
Gerade doch wieder eines gefunden, obwohl zuerst im Autoplay die Cerebellum- Line

1. e4 c5 2. Nf3 Nc6 3. Bb5 g6 4. O-O Bg7 5. Re1 Nf6 6. Bxc6 dxc6 7. d3 O-O 8.
Nc3 Qc7 9. h3 Nd7 10. Be3 Rd8 11. a4

klaglos ausgespielt wurde, kam in der automatischen Backward- Analyse anstelle von 11.a4 als Kommentar- Variante wieder so ein hässliches

11. a3 {[%eval -32767,39]}
was in Fritz- Sprache 11.a3(#0/39) heißt.
Nicht, dass das als Zug an dieser Stelle unbedingt ein echter Fehler wäre, ich glaube nur nicht, dass es ein korrekter gespeicherter Zug ist, setzt man die Book Move 2 Probability mal kurz auf 100, kommt dasselbe 11.a3, allerdings diesmal mit #0/29- Eval, BM2P auf 1, lässt BF keinen Zug automatisch ausspielen, sondern er beginnt gleich selbst zu rechnen.

Also funktioniert die Kombi 010117-engine mit  Cerebellum_light_170104 doch auch noch nicht reibungslos bei mir.
Wollte es nur noch erwähnt haben.

Edit: Eine noch:

1. e4 c5 2. Nf3 Nc6 3. Bb5 g6 4. O-O Bg7 5. Re1 e5 6. c3 c4 {[%eval -32767,
27]} *

diesmal im Autoplay ausgespielte Line.
Parent - - By Thomas Zipproth Date 2017-01-06 20:37
Danke für die Hinweise,

ich glaube ich habe den Fehler endlich gefunden, es war wohl wirklich ein Stockfish Patch der sich nicht mit Brainfish vertragen hat.
Ich konnte es selber nicht testen ob der Bug wirklich behoben ist, da der Fehler bei mir nicht reproduzierbar war, aber ich bin mir einigermaßen sicher.

Thomas
Parent - - By Peter Martan Date 2017-01-06 22:09
Thomas Zipproth schrieb:

ich glaube ich habe den Fehler endlich gefunden, es war wohl wirklich ein Stockfish Patch der sich nicht mit Brainfish vertragen hat.
Ich konnte es selber nicht testen ob der Bug wirklich behoben ist, da der Fehler bei mir nicht reproduzierbar war, aber ich bin mir einigermaßen sicher.

Aber einen Fehlzug hatte ich mittlerweile leider schon wieder. Das war jetzt die Kombi vorletzte .bin und letzte .exe:

1. e4 c5 2. Nf3 Nc6 3. d4 cxd4 4. Nxd4 Nf6 5. Nc3 e5 6. Ndb5 d6 7. Bg5 a6 8.
Na3 b5 9. Nd5 Be7 10. Bxf6 Bxf6 11. c3 Rb8 12. Nc2 Bg5 {[%eval -32767,37]} *
Parent - - By Thomas Zipproth Date 2017-01-06 22:54
Danke für die Info,

ich kann in der Partie selbst momentan keinen Fehlzug sehen, nur die eval ist seltsam, vermutlich ist da irgendwas in Stockfish nicht initialisiert.
Das sollte aber auf die Partie keinen Einfluß haben, ausser wenn die Gui aufgrund der Bewertung aufgibt oder ähnliches.
Ist das vielleicht passiert?
Ich werde versuchen die Bewertung auch noch zu korrigieren, vermutllich sollte die bei einem Buchzug auf 0.01 stehen,
damit die GUI nicht irgendwann auf Remis entscheidet.

Thomas
Parent - By Peter Martan Date 2017-01-06 23:57 Edited 2017-01-07 00:02
Thomas Zipproth schrieb:

ich kann in der Partie selbst momentan keinen Fehlzug sehen, nur die eval ist seltsam, vermutlich ist da irgendwas in Stockfish nicht initialisiert.
Das sollte aber auf die Partie keinen Einfluß haben, ausser wenn die Gui aufgrund der Bewertung aufgibt oder ähnliches.
Ist das vielleicht passiert?
Ich werde versuchen die Bewertung auch noch zu korrigieren, vermutllich sollte die bei einem Buchzug auf 0.01 stehen,
damit die GUI nicht irgendwann auf Remis entscheidet.

Aufgetreten ist das nach dem manuellen Ausspielen des vorletzten Zuges. Lässt man BF an der Stelle im Autoplay allein weiterspielen, wickelt er die restlichen Buchzüge bis zum 24. mit der normalen 0.01- Eval ab, gibt man aber wieder Zug um Zug davon manuell ein, spielt er zwar auch den jeweils nachfolgenden korrekt als Antwort für jede der beiden Seiten am Zug, die Eval ist aber (ich hab's ein paar Züge weit probiert) dann jedesmal die einer Mattanzeige. Eigentlich im automatischen Spielmodus also vielleicht wirklich gar kein Problem, so weit ich es bisher gesehen habe, es sei denn, die Mattanzeigen gegen die eigene Seite würden dabei dann doch auch vorkommen, und das GUI würde das als Aufgabe interpretieren, wie du schon geschrieben hast.
Parent - By Benno Hartwig Date 2017-01-05 09:51
Thanx, dass du so ausführlich deine Gedanken beschreibst.
Und ich bin gespannt, wie es mit deinem ganz feinen Projekt weitergeht.


Um unter den bei tiefster Analyse als remis-Zug erkannten Zügen einen besonders erfolgversprechenden herauszufinden, bedarf es meiner Meinung nach nicht unbedingt eines manuellen Tunigs:
Ich denke mit recht guter Erfolgsquote könnte man hier solch einen Zug als "erfolgversprechenden Remiszug" bewerten, der bei etwas weniger tiefer Analyse als noch gut beschrieben wurde.
Im Prinzip könnte es auch weiter gehen: Wenn diese kleinere Analyse auch remis zeigt, dann könnte ggf. auch eine ganz normale SF-3min-Analyse helfen. Wenn auch die remis zeigt, dann vielleicht auch eine nur eine SF-10-Sekunden-Analyse. Wenn die auch remis zeigt, dann ist es remis.
Selbst die 10-Sekunden-Ergebnisse werden zumindest Menschen Probleme bereiten können.

Nach gleichen Kriterien sollten ggf. auch "ausgesprochen schlechte"-Remis-Züge vermieden werden, damit man eben bei ungenauem Spiel des Gegners weiterhin Chancen hat.
Ärgerlich, wenn ein remis-Endspiel mit Mehrbauer abgewickelt wird in ein remis-Endspiel, bei dem man mit Minusbauer dasteht.
Und sehr ärgerlich, wenn solch ein Phänomen in deutlich komplizierteren Positionen stattfindet, wo der Gegner solch einen totalen Durchblick ggf. nicht hat.

Natürlich könnten so, wie bei  anderen Methoden auch, auch fehlerhafte Einschätzungen passieren.
Ich denke aber: nicht sehr oft
und: solch eine Bewertung wäre eben auch vollkommen automatisiert möglich.

Benno
Parent - By Patrick Götz Date 2017-01-05 23:13
Am interessantesten wäre eine Darstellung wie auf Deiner Homepage ("Cerebellum position scores".)
Besonders die Score+Depth Informationen sind wertvoll.

Gruß
Patrick
Parent - - By Ludwig Buergin Date 2017-01-02 10:08
Das kann an der verwendeten Hash-Größe liegen.

   Gruß Ludwig
Parent - - By Lothar Jung Date 2017-01-02 10:51
Jeweils 2 GB!
Lothar
Parent - By Ludwig Buergin Date 2017-01-02 12:54
Bei zuviel Hash brauchen einige Engine 2-3 Züge nach Buchende viel  Zeit bis sie die volle Leistung erreichen.Sehen kann man dann  an den   niedrigeren Knotenzahlen . Bei ChessBase kann man das gut verfolgen .
    Gruß Ludwig
Parent - - By Patrick Götz Date 2016-12-29 05:38
Thomas Zipproth hat bereits einmal erwähnt, das Brainfish erst bei ca. 1Minute/Zug (auf PC Hardware) seine Leistung voll ausspielen kann, da bei geringerer Rechenleistung die Buchgewinne nicht zuverlässig in Siege umgewandelt werden können.
Auf einem Atom x8500 müsstest Du also die Bedenkzeit deutlich erhöhen, damit sich Brainfish durchsetzen kann.
Parent - By Stefan Pohl Date 2016-12-29 14:16
Patrick Götz schrieb:

Thomas Zipproth hat bereits einmal erwähnt, das Brainfish erst bei ca. 1Minute/Zug (auf PC Hardware) seine Leistung voll ausspielen kann, da bei geringerer Rechenleistung die Buchgewinne nicht zuverlässig in Siege umgewandelt werden können.
Auf einem Atom x8500 müsstest Du also die Bedenkzeit deutlich erhöhen, damit sich Brainfish durchsetzen kann.


Also das stimmt nun definitiv nicht. Bei meinen Brainfish Testruns (und ich habe etlich gemacht. Jeweils mit 7000 Partien!) mit 70''+700ms scored Brainfish extrem gut. Stabil mehr als +70 Elo besser als gleich alte Stockfish und über +45 Elo über gleich alten asmFishen. Und hier reden wir über Zugzeiten von 1-5 Sekunden...Singlecore. 2GHz Notebook CPU. Natürlich sind meine 500 verwendeten Vorgabestellungen von Thomas gezielt in die Cerebellum Library eingearbeitet worden. Um eben in meinen Testruns messen zu können, wieviel Elo man im Idealfall mit der Library gewinnen kann.
Parent - By Benno Hartwig Date 2016-12-29 14:32

>  Thomas Zipproth hat bereits einmal erwähnt, das Brainfish erst bei ca. 1Minute/Zug (auf PC Hardware) seine Leistung voll ausspielen kann


Finde ich sehr überraschend, diese Ansicht.
Viel gravierender ist, möchte ich erwarten, dass die supergut vorabüberlegten Buchzüge einfach besser sind als die in Sekunden "dahergehasteten" Züge!
Und das um so mehr, wenn die Hardware schwach ist!

Ich wäre gespannt, wie die Quoten sind, wenn mal so mindestens(!) 300 Partien mit jeder Engine gespielt wurden.
(Und ich bin mir sicher, wir alle wissen, wie ausgesprochen wackelig auch 300-Partien-Ergebnisse sind. Jeweils 1000 Partien wären schon besser (eine knappe Woche pro Durchlauf)!)

Benno
Parent - - By Thomas Zipproth Date 2016-12-29 15:51
Patrick Götz schrieb:

Thomas Zipproth hat bereits einmal erwähnt, das Brainfish erst bei ca. 1Minute/Zug (auf PC Hardware) seine Leistung voll ausspielen kann, da bei geringerer Rechenleistung die Buchgewinne nicht zuverlässig in Siege umgewandelt werden können.
Auf einem Atom x8500 müsstest Du also die Bedenkzeit deutlich erhöhen, damit sich Brainfish durchsetzen kann.


Ich meine das ich damals (auf Englisch) geschrieben habe ab ca. Rapid Bedenkzeit (12 min / Partie).

Die 1 Minute / Zug bezog sich auf die Bedenkzeit bei der Berechnung von Cerebellum.
Die Brainfish Positionen sind mit ca. 1 Minute Bedenkzeit auf schnelleren Quadcores mit 6-Steinen Tablebases berechnet.
Durch die Cerebellum Neuberechnung aller Knoten Scores ergibt sich dann nochmal eine Spielstärke Steigerung, der eigentliche Vorteil dieser Methode.

Natürlich funktioniert Cerebellum im Schnitt auch bei kürzeren Bedenkzeiten wie 5 min oder 1 min / Partie.
Nur kann bei  Blitz Bedenkzeit ein guter Score nach Verlassen des Buches auch mal schnell kippen.

Ich hatte damals nur darauf hingewiesen (weil das einige Tester ausprobiert haben), das es bei 1 Minute / Partie relativ leicht möglich ist, ein normales Eröffnungsbuch (z.b. .ctg) zu erstellen, das mit Cerebellum gleichzieht (bei dieser Bedenkzeit).
Einfach indem man Tausende von Testpartien spielt und daraus dann ein Buch erstellt. Bei längeren Bedenzeiten ist das ja aus Zeitgründen nicht mehr einfach möglich.
Natürlich müßte man das für fast jedes Cerebellum Release wiederholen.

Generell wird es aber durch die enorme Spielstärke Steigerung von Stockfish, Komodo und teilweise auch Houdini immer schwieriger Partien zu gewinnen, dagegen läßt sich wohl wenig machen.
Eine ganze Anzahl von Siegen werden bei Engine Turnieren auch durch simple Wiederholung von gewonnenen Partien erzielt, einfach weil der Gegner ein bekanntes Buch benutzt und dort die fehlerhafte Variante noch vorhanden ist.
Also ein rein statistischer Ansatz.

Die beste Methode wird letztlich sein, Cerebellum mit statistischen Ansätzen zu kombinieren, was in der kommerziellen Version möglich sein wird, die sich wohl leider auf Ende Februar verschieben wird.
Parent - By Stefan Pohl Date 2016-12-29 17:26
Thomas Zipproth schrieb:

Natürlich funktioniert Cerebellum im Schnitt auch bei kürzeren Bedenkzeiten wie 5 min oder 1 min / Partie.
Nur kann bei  Blitz Bedenkzeit ein guter Score nach Verlassen des Buches auch mal schnell kippen.


Das stimmt zwar. Aber auf der anderen Seite spart ja die Benutzung der Cerebellum Library auch Bedenkzeit ein. Und ein Bedenkzeitvorteil bringt umso mehr Elo-Vorteil, je kürzer die Bedenkzeiten sind.
Parent - - By Benno Hartwig Date 2016-12-29 18:01
Nachfrage:
Lothar, hast du asmfish ggf. ein Buch gegeben?
Wenn ja: welches?
Benno
Parent - By Lothar Jung Date 2016-12-30 19:40
ja, in dem kurzen i7-Tunier unter Arena das Buch "Perfekt".
In dem Atom-8500-Tunier bei asmfish kein Buch.

Viele Grüße

Lothar

PS: Ich werde ein 100 Partien-Tunier mit i7 (Blitz 5min) morgen starten (wieder mit dem Perfect-Book) unter Arena)
Up Topic Hauptforen / CSS-Forum / asmFish 8 released

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill