Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / LZ0 Fortschritt
- - By Guenter Stertenbrink Date 2018-04-08 04:00
mache mal 'nen neuen thread dafuer

http://lczero.org/

zur Zeit kriselt es ... 0.8M Partien ohne Elo-Zugewinn

ca. 0.2M  Partien pro Tag

Vergleich mit a0 : http://magictour.free.fr/a0e2.GIF
Parent - By Peter Martan Date 2018-04-08 08:03
Danke, Günter!
Das mit dem Fortschritt ist natürlich eine Frage der Sichtweise:
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=756941&t=66945
Aber die Vermutung, dass eine gewisse Stagnation, wenn man denn eine solche zu sehen meint, von der Deterministic in der Eröffnung kommen könnte, scheint mir logisch.
Parent - By Tom Paul Date 2018-04-08 09:14
Guenter Stertenbrink schrieb:

mache mal 'nen neuen thread dafuer

<a class='ura' href='http://lczero.org/'>http://lczero.org/</a>

zur Zeit kriselt es ... 0.8M Partien ohne Elo-Zugewinn

ca. 0.2M  Partien pro Tag

Vergleich mit a0 : <a class='ura' href='http://magictour.free.fr/a0e2.GIF'>http://magictour.free.fr/a0e2.GIF</a>


1. Der Graph ist scheiße.
2. Es gab einen deutlichen ELO Zugewinn.
3. = Nur der Graph kriselt, sonst nichts.

Wenn du dir Sorgen um das Projekt machst, hier ist die Lösung: https://github.com/glinscott/leela-chess/wiki/Run-Leela-chess-clients-on-Google-Cloud-(10-minute-guide)
https://github.com/glinscott/leela-chess/wiki/Getting-Started
Parent - - By Carsten Müller Date 2018-04-09 18:37
Hat jemand eine Idee warum die Fortschritts ELO von 22xx auf 18xx gestürzt ist. Wurde die Liste rekallibriert? Und wenn ja, warum?
Parent - By Carsten Müller Date 2018-04-09 20:56
ich seh da nichts was das erklärt
Parent - - By Carsten Müller Date 2018-04-16 10:29
Ich fürchte es wird noch viel mehr krieseln.
Es sind einfach viel zu viele Parameter. Mit Neuronalen Netzen kann man nicht-lineare Zusammenhänge modellieren. Wenn ich Millionen Parameter habe, brauche ich aber extrem viele Trainingszyklen.
Es werden Wochen vergehen und man wird dennoch nicht die 1. Schallmauer von ca. 2500 erreichen. Bis Ende des Jahres ist der Hype vorbei, weil die Unterstützer keinen Fortschritt mehr sehen.
Die Google Leute haben vermutlich effizientere Algorithmen um den Lernprozess zu beschleunigen. So einfach diesen Erfolg zu kopieren wird das nicht.

Was meint die Community?
Parent - - By Guenter Stertenbrink Date 2018-04-16 10:36
das google-paper ist ja bekannt, und der algo kopiert

Evtl. muessen noch einige bugs korrigiert werden oder
einige Veraenderungen gemacht werden, aber ich denke,
es wird klappen, Elo >3000 nach 10M-20M Partien
Parent - - By Carsten Müller Date 2018-04-16 10:58 Edited 2018-04-16 11:08
Wieso weicht man z.B. bei der Anzahl der Parameter vom Google Projekt ab?

Je mehr Parameter das System hat, desto mehr lernt es auswendig und hat nichts von den Grundprinzipien verstanden. Man kann damit zwar am Anfang einen schnelleren Lernerfolg erzielen, der schwächt sich dann aber viel schneller ab. Das Projekt ist jetzt schon tot, weil das System in der Lernphase in den zahlreichen lokalen Minima (bei der Optimierung) hängen bleiben wird.
Parent - - By Guenter Stertenbrink Date 2018-04-19 04:12
Carsten Müller schrieb:

Das Projekt ist jetzt schon tot, weil das System in der Lernphase in den zahlreichen lokalen Minima (bei der Optimierung) hängen bleiben wird.


gibt es Beispiele fuer dieses Haengenbleiben bei anderen Spielen oder NN-Projekten ?
Parent - - By Carsten Müller Date 2018-04-19 08:08
Ich habe früher beruflich Zinsen und Kurse mit neuronalen Netzen prognostiziert. Dabei wurden alle möglichen Netzvarianten getestet. Das Thema ist mir also nicht fremd.
Der derzeitiger Hype ist auch nicht neu.
Keiner der derzeitig hier Beteiligten macht sich Gedanken wie so ein Netz genau funktioniert, wo die Grenzen liegen und was man beachten muss. Es wird auf Teufel komm raus trainiert und jede kleine Verbesserung wird als Heldentat gefeiert.
Dabei muss man sich vergegenwärtigen, dass selbst das Google Projekt vermutlich nicht besser als Stockfish 9 ist.
Die grundsätzliche Überlegenheit von neuronalen Netzen ist, dass es nichtlineare Zusammenhänge finden und modellieren kann. Was aber , wenn es keine gibt? Dann sind klassische Methoden der Modellierung genauso gut, aber möglicherweise einfacher zu erreichen.
Der zweite Vorteil der im Zusammenhang mit neuronalen Netzen genannt wird ist, bisher unbekanntes Wissen zu finden. Aber wer sagt einem, dass das nicht in anderen Bereichen zu Nachteilen führt.
Selbst wenn man mal ein ein Netz findet, dass besser arbeitet als die klassischen Methoden, bleibt meist nur Katzenjammer, weil man das Wissen nicht aus dem Netz extrahieren kann. Man sieht, dass es gut funktioniert, weiss aber nicht warum. So konnte man schon Kreditwürdigkeitsprognosen generieren, die klassischen Methoden überlegen sind, aber denjenigen, den man den Kredit abgelehnt hätte, könnte man nicht erklären warum das geschehen ist. So etwas fördert nicht die Akzeptanz und man lernt auch nichts daraus.
Kann sein, dass es mal ein neuronales Schachprogramm gibt dass alle anderen schlägt, man wird aber wahrscheinlich nicht ganz verstehen warum es das tut.

Lange Rede kurzer Sinn: in 12 - 18 Monaten ist der Hype wieder vorbei.
Parent - By Martin Steinwandter Date 2018-04-19 08:43
der Progrose 12 bis 18 Monate stimme ich nur zu, wenn:
die google Tesla-K80-GPU-for-free nicht mehr zur verfügung stehen wird.
Parent - - By Guenter Stertenbrink Date 2018-04-19 10:59
wie wuerde man ein lokales minimum/maximum schachlich interpretieren ?
Mit Spielstil oder so ...

ich faende es ueberraschend, wenn;s bei google klappt und bei Lc0
(und was noch alles kommen mag ...)  nicht

die meisten Prognosen der Experten sind doch auch optimistisch,
erstes mal dass ich von "Hype" lese
Parent - By Peter Martan Date 2018-04-19 13:33
Guenter Stertenbrink schrieb:

ich faende es ueberraschend, wenn;s bei google klappt und bei Lc0
(und was noch alles kommen mag ...)  nicht

Ich nicht.

Guenter Stertenbrink schrieb:

die meisten Prognosen der Experten sind doch auch optimistisch,
erstes mal dass ich von "Hype" lese

Hype, Hype, Hype, siehst du, jetzt hast du's schon viermal gelesen.

Und was die Experten angeht, kommt's wohl drauf an, welche du als solche gelten lässt und wo sie sich äußern.

Einer der ganz wenigen echten Experten, von denen ich auch in Schachforen etwas gelesen habe, und die nicht dabei Werbung in eigener Sache gemacht haben aber genau zu dieser Schach- Anwendung geschrieben, ist für mich Matthew Lai, und der darf derzeit auch nichts mehr in der Öffentlichkeit dazu schreiben, weil er bei Google angestellt ist.

Daniel Shawul kommt vielleicht gleich an zweiter Stelle für mich, und was der so dazu sagt, kannst du im CCC lesen.
Parent - - By Carsten Müller Date 2018-04-19 16:38
Die Zielfunktion dürfte sein: maximiere die Anzahl der Gewinnpartien. Man sucht nun nach Parameterkonstellationen die das leisten. Aber nicht jede Änderung der Parameter bringt einem dem Ziel näher.
Das kann man hier gut sehen.
https://docs.google.com/spreadsheets/d/18UWR4FVhPi0vNwwPreu_avd9ycujGQ5ayR2LzJOWP4s/edit#gid=823198584

Wir treten jetzt schon in der erste Phase ein, wo es von mal zu mal länger dauert eine weitere Verbesserung zu erzielen.

Zu dem Zitat:
ich faende es ueberraschend, wenn;s bei google klappt und bei Lc0 (und was noch alles kommen mag ...)  nicht

Da das LC0 Team wesentlich mehr Parameter gewählt hat, schätze ich mal, dass man viel langsamer Fortschritte macht. Und das nicht wegen der Rechenpower.

Zu dem Zitat:
die meisten Prognosen der Experten sind doch auch optimistisch, erstes mal dass ich von "Hype" lese

Experten werden überschätzt. Der Gründer von IBM hat einmal gesagt, dass es für Computer weltweit einen Markt für fünf Exemplare gibt. Und der Warner Brothers Chef sagte " Wer will schon Schauspieler sprechen hören"
Parent - By Michael Scheidl Date 2018-04-19 18:39
Zitat:
Die Zielfunktion dürfte sein: maximiere die Anzahl der Gewinnpartien.

Klingt attraktiv, aber pragmatisch wäre oder ist: maximiere die Anzahl der Punkte.
Parent - By Guenter Stertenbrink Date 2018-04-20 05:52
es gab mal eine Vorhersage-Wett-Seite (leider starb dann der CEO 50m vorm Mt.Everest Gipfel
und die Sache ging den Bach runter) , aber ein "claim" etwa "ein NN-programm gewinnt TCEC14" waere interessant.
Was wuerdet ihr wetten ? Vielleicht koennen wir ja hier solche "Aktien" handeln ? mit virtuellem
Geld natuerlich, da solche Wettboersen in Deutschland anscheinend nicht gern gesehen werden.
Ich kaufe fuer 40 und verkaufe fuer 60.

eine der Expertendiskussionen vor 3 Monaten, die ich auf die schnelle fand :
-------------------------------
https://github.com/suragnair/alpha-zero-general/tree/master/pytorch_classification
they have ~20M parameters (1M-70M)
https://github.com/crypt3lx2k/Zerofish
Currently uses a completely different model than the one from the paper!
This model has a very different layout than the one from the paper.
Significantly reduced number of parameters in value and policy output heads.
https://www.reddit.com/r/chess/comments/7igro1/alphazero_reactions_from_top_gms_stockfish_author/
[–]Harawaldr wrote:
It is also worth noting that their approach was inefficient to say the least,
because they intended to prove the general purpose quality of their method.
Whoever adapts the A0 method for chess, with the intention of creating the
best possible engine, will optimise hyper parameters for chess,
they will use tablebases, they will experiment with different state representations.
I hypothesise that the chess world will see software based on the A0 architecture,
but better, and runnable on high end consumer hardware within three years.
https://www.reddit.com/r/MachineLearning/comments/7qdwb5/is_it_possible_to_train_the_value_output_in_a/
Zeta_36
picardythird wrote :
my own chess implementation of AGZ
https://github.com/trebledawson/chess
my neural network was too small,  increase the number of parameters
until it was as large as my computer could store,
zeta_36 wrote: I really think DeepMind did something they didn't explain
thousands of parameters
https://sjeng.org/leela.html
Leela Go FAQ
no new version since Oct.
Parent - - By Tom Paul Date 2018-04-16 18:37
Carsten Müller schrieb:

Ich fürchte es wird noch viel mehr krieseln.
Es sind einfach viel zu viele Parameter. Mit Neuronalen Netzen kann man nicht-lineare Zusammenhänge modellieren. Wenn ich Millionen Parameter habe, brauche ich aber extrem viele Trainingszyklen.
Es werden Wochen vergehen und man wird dennoch nicht die 1. Schallmauer von ca. 2500 erreichen. Bis Ende des Jahres ist der Hype vorbei, weil die Unterstützer keinen Fortschritt mehr sehen.
Die Google Leute haben vermutlich effizientere Algorithmen um den Lernprozess zu beschleunigen. So einfach diesen Erfolg zu kopieren wird das nicht.

Was meint die Community?


Die Schallmauer wurde schon durchbrochen, aber wir freuen uns das du es jetzt auch weißt .
https://github.com/glinscott/leela-chess/wiki/Getting-Started
https://github.com/glinscott/leela-chess/wiki/Run-Leela-Chess-Zero-clients-on-Google-Cloud-(10-minute-guide)
https://github.com/glinscott/leela-chess/wiki/Run-Leela-Chess-Zero-client-on-a-Tesla-K80-GPU-for-free-(Google-Colaboratory)
Parent - - By Tom Paul Date 2018-04-16 19:51
Carsten Müller schrieb:

ich sehe hier aktuell 1909

<a class='ura' href='https://docs.google.com/spreadsheets/d/18UWR4FVhPi0vNwwPreu_avd9ycujGQ5ayR2LzJOWP4s/edit#gid=823198584'>https://docs.google.com/spreadsheets/d/18UWR4FVhPi0vNwwPreu_avd9ycujGQ5ayR2LzJOWP4s/edit#gid=823198584</a>

was siehst Du?


Nur ein Beispiel ist Scorpio 2.79 bei langer Bedenkzeit erreicht die Engine 2800 ELO. Auf TCEC Hardware, anstatt nur einem Kern, erreicht sie noch viel mehr.
Bei 20 Partien, abgesehen von den Remis Partien, hat Zero 4 Siege erreicht.
Jetzt denke mal nach wie wahrscheinlich es ist, dass ein 1909 ELO Spieler gegen Magnus Carlsen(MC gern auch stärker als üblich) 4 Siege + x Remis aus 20 Partien holt?
Parent - By Carsten Müller Date 2018-04-16 20:03 Upvotes 1
Was sollen denn 20 Partien aussagen. Im übrigen bist Du nicht auf die Frage/Feststellung eingegangen dass hier 1909 (Das sind ja die Zahlen des Projektteams.) und nicht irgendwas mit 2800 steht.
Parent - - By Jens Hartmann Date 2018-04-19 20:58 Upvotes 1
Die Spielstärke von LC0 entwickelt sich höchst eigenartig und für mich nicht ganz nachvollziehbar. Seit dem kürzlichen Update auf die Version 0.7 gibt es laut Grafik auf http://lczero.org/ zwar einen steilen Anstieg der Spielstärke, die sich in meinen Tests, aber auch in jenen vieler anderer, nicht bestätigt. So verliert die derzeit aktuelle Networks-Version 148 mit 5013 LELO (Lela-ELO    ) z.B. gegen die Networks Version 126 (4861 LELO) in 40 3min-Partien mit den Nunn-Eröffnungsstellungen mit 10,5-29,5 (5-24-11). Das ist wohl jenseits der statistischen Schwankungsbreite, wenn man berücksichtigt, dass alle anderen Versionen, die ich getestet habe (142, 140, 122, 123,...) ähnlich hoch verlieren. Die Versionen 126 und 125 sind in vielen Tests die mit Abstand stärksten, das haben auch Tests von anderen Usern ergeben. Ich denke, so lange man diese eigenartige Entwicklung nicht in den Griff bekommt, dreht man sich im Kreis, da offenbar jede neue Version irgendwo anders gewaltige Schwächen hat. Wenn man beim Autoplay zusieht, stellt es auch jemandem der nicht viel von Schach versteht, insbesondere im Endspiel zeitweise die Haare auf.
Parent - - By Martin Steinwandter Date 2018-04-19 22:30
da würde ich doch glatt wiedersprechen! ID 149 ist doch schon deutlich stärker und die Autoplayspiele sind auch nicht so schlecht finde ich. Gebt Ihnen doch die Zeit in Ruhe die Bugs zu beheben.
Parent - By Jens Hartmann Date 2018-04-21 07:42
Das ist kein Widerspruch. Denn ich habe zum Zeitpunkt meines Postings nur bis zur damals aktuellen Version 148 getestet. Offenbar geht es erst ab 149 wieder aufwärts. Siehe auch hier:
https://docs.google.com/spreadsheets/d/1XSJiCcQpCLv0fNwrUn7jXjdkZFU63YFEWpdXv6dSSg0/edit#gid=0

Version 154 und 158 spielen bei mir jetzt stärker als die 125 und 126. (Andere Versionen jenseits von 150 habe ich nicht getestet).
Parent - - By Peter Martan Date 2018-04-19 23:16
Jens Hartmann schrieb:

So verliert die derzeit aktuelle Networks-Version 148 mit 5013 LELO (Lela-ELO    ) z.B. gegen die Networks Version 126 (4861 LELO) in 40 3min-Partien mit den Nunn-Eröffnungsstellungen mit 10,5-29,5 (5-24-11).
...
Wenn man beim Autoplay zusieht, stellt es auch jemandem der nicht viel von Schach versteht, insbesondere im Endspiel zeitweise die Haare auf.

Ich fühle mich, allein was die Abkürzungen angeht, so verstanden wie schon lange nicht mehr.

Im Ernst, zumindest dieses eine gute hat die LC0- Sache auf jeden Fall, man sieht, wie relativ Elo unter verschiedenenTestbedingungen und ganz besonders verschiedener Teilnehmer wirklich sind.
Parent - - By Guenter Stertenbrink Date 2018-04-20 05:04 Edited 2018-04-20 05:18
ist es nicht entscheidend, wie Leela in ihren Partien gegen sich selbst abschneidet ?

Nur dann kann sie die Parameter verbessern.

Oder laeuft sie dann Gefahr in ein lokales Maximum zu rennen , wenn Ihre gefuehlte
Elo in Partien gegen sich selbst abweicht von der Elo in Partien gegen andere ?

Uebrigens hatte auch alpha0 eine Phase zwischen Partien ca.3M-6M wo es nur ca.100 Elo
gab je 1M Partien (=mittlerweile nur noch 2 Tage bei Lc0)
http://magictour.free.fr/a0e2.GIF

Vielleicht ist dieses die "Phase des Spielstils" , wo die Elo stark vom Gegner abhaengt ("Angstgegner")
Parent - By Peter Martan Date 2018-04-20 08:33
Guenter Stertenbrink schrieb:

ist es nicht entscheidend, wie Leela in ihren Partien gegen sich selbst abschneidet ?

Für die Lelo schon, für die Celo nicht unbedingt.


Guenter Stertenbrink schrieb:

Uebrigens hatte auch alpha0 eine Phase zwischen Partien ca.3M-6M wo es nur ca.100 Elo
gab je 1M Partien (=mittlerweile nur noch 2 Tage bei Lc0)
<a class='ura' href='http://magictour.free.fr/a0e2.GIF'>http://magictour.free.fr/a0e2.GIF</a>

Vielleicht ist dieses die "Phase des Spielstils" , wo die Elo stark vom Gegner abhaengt ("Angstgegner")


Vielleicht haben Engines wie Layla überhaupt mehr Angst beim Spielen, als wir uns vorstellen, wer weiß schon, was in so einer AI vorgeht?
Und vielleicht fürchtet sie sich ja auch vor nix mehr als vor menschlichen Gegnern, die sich auf ihr Eröffnungsrepertoire ein bisschen vorbereitet haben.
Bin neugierig, was hieraus wird:
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=758254&t=67146
In der Zwischenzeit noch zwei andere jüngste Postings von dort, die ich auch interessant fand:
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=758617&t=67169
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=758635&t=67169
- - By Guenter Stertenbrink Date 2018-04-11 06:52
nochmal zur Frage der Parameterzahl (alter thread)

https://groups.google.com/forum/#!topic/lczero/bylWuTpqJGc
In the Move evaluation in Go using deep convolutional neural networks paper, it says:
"Our best model has 2.3M parameters, 630M connections, and 0.55M hidden units."
LCZero has 32*64*1924 = 3940352 parameters
Parent - By Peter Martan Date 2018-04-11 07:42 Edited 2018-04-11 08:23
Eindeutig zu viele Parameter, was ich immer sage.
Oder zu wenige?
Wo kommen denn die Schei...nbar so wichtigen Parameter überhaupt her?

Ich würde dem Dingens mal vorläufig nur mehr mit Celo aus Stellungstests begegnen, wenn's sonst eh keine mehr kriegt, weil's immer dasselbe spielt.

http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=757215&t=66945

Kai Laskos lässt seine Eröffnungstestsuite wohl ausspielen, naja, warum nicht, ob er das bei seinen Taktik- Tests auch so macht?

Hoffentlich macht er nicht einfach die klassischen alten best move- Stellungstests, sonst wird er bald Ärger kriegen mit den Altlistern unter den Ranglistern.

Andererseits wäre ja vielleicht gerade das das Reizvolle an einem "ganz neuen Ansatz", man müsste sich um veraltete Testmethoden in ihrer "Wertigkeit" auch nicht mehr scheren, und schon gar nicht um veraltete Maßstäbe, wie Elo oder Celo, nennen wir's doch Leelo oder LeelaZelo oder einfach nur Zelo?
- - By Guenter Stertenbrink Date 2018-04-22 03:02 Edited 2018-04-22 03:44
der Trainings-Fortschritt in LC0 ist nun langsamer geworden als in alpha0 .
alpha0 hatte ja einen Steigerungssprung bei 6M Partien und
hatte bereits 3000 Elo nach 7.5M Partien.

http://magictour.free.fr/a0-lc0-6.GIF

Mir gefaellt nicht, dass die letzten (6?) Zuege mit einfliessen in die Zugentscheidung.
Der beste aktuelle Zug kann davon nicht abhaengen.

ist das der ganze Trick ? Eine Datenabank von Zugfolgen und dann wird jeweils
nach der besten passenden ajtuellen Zugfolge gesucht und der gemachte
naechste Zug kopiert ?
Sollte man mal versuchen mit konventionellen Methoden.

-----------------------------

steht nicht im alpha0-paper, afaics

obwohl

> during MCTS, to simulate the positions resulting from a sequence of moves,

Parent - By Guenter Stertenbrink Date 2018-04-23 06:43
table S1 , page 19 , in the alpha-zero paper
> The first set of [14] features are repeated for each position in a T = 8-step history.

also die letzten 8 Halbzuege werden eingegeben bei jeder Stellung.
==> z.B. Zugumstellungen werden verschieden behandelt, nicht erkannt

obwohl natuerlich das Training erkennen kann, dass die letzte Position die wichtigste ist

wie aber erkenne ich, welche Positionen in der Datenbank aehnlich sind ?
oder vielmehr "aehnliche" parameter haben
- - By Guenter Stertenbrink Date 2018-04-22 06:26
ich hatte mich gewundert, wie gut LC0-id125 in den 46 bonus-Partien abschnitt mit performance
rating 2732, Im Vorfeld hatten wir sie mit ca. 2300-2500 eingeschaetzt.
Nun haben wir  "Breaking : LC0 enters TCEC" als Schlagzeile, aber sie ist abgeschlagen letzter
in unterster Division mit 1.5 aus 17 ( =2597 performance , immer noch besser als erwartet)

Scorpio,2831, +4=3-13
Fruit,2934, +4 = 1 -1
Stockfish 1.0,2754, +7=3-10
2811+(15-24)*400/46 = 2732
Parent - - By Tom Paul Date 2018-04-22 07:41
Guenter Stertenbrink schrieb:

ich hatte mich gewundert, wie gut LC0-id125 in den 46 bonus-Partien abschnitt mit performance
rating 2732, Im Vorfeld hatten wir sie mit ca. 2300-2500 eingeschaetzt.
Nun haben wir  "Breaking : LC0 enters TCEC" als Schlagzeile, aber sie ist abgeschlagen letzter
in unterster Division mit 1.5 aus 17 ( =2597 performance , immer noch besser als erwartet)

Scorpio,2831, +4=3-13
Fruit,2934, +4 = 1 -1
Stockfish 1.0,2754, +7=3-10
2811+(15-24)*400/46 = 2732


Und mich wundert es das du dich wunderst.

Laut z.B. CCRL Liste haben die Engines auf schwacher Hardware 3000+ ELO.
Beim TCEC haben diese Engines deutlich mehr ELO als beim TCEC neben der Engine steht, da die Anzahl der Kerne mehrere male verdoppelt wurde.
Für den Einstieg beim TCEC wird eine Performance von 3000 ELO benötigt und diese hat LC0 erreicht.
Wobei 3000 ELO Performance in dem Fall bedeuten, dass die Engine (da es ihr Einstieg in die Profi Liga ist) die schwächste Engine ist, somit letzter Platz.
Parent - By Guenter Stertenbrink Date 2018-04-22 10:21
naja, beide engines bekommen mehr Kerne (und keine GPU,TPU) , also die Elo-Differenz
bleibt etwa die gleiche

verglichen mit Stefan Pohl's Tests ist LC0s Elo in den TCEC Bonuspartien viel hoeher
im Vergleich zu den anderen engines
Parent - By Thomas Müller Date 2018-04-22 09:33
1 punkt kannst du abziehen, da Scorpio in der Partie runde #14 "abgestürzt" ist.
Also eigentlich immer noch 0,5...aber egal....keine chance aktuell.
Wird schon werden bei dem bisherigen verlauf
Up Topic Hauptforen / CSS-Forum / LZ0 Fortschritt

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill