Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Lc0 v0.17.0 Net 11261 + 11 Top Engines - ponder on
- - By Andreas Strangmüller Date 2018-09-04 23:01 Upvotes 3
Turnierbedingungen:

Betriebssystem: Windows 10 64-bit
Hardware:       CPU Intel i7-6820HK @ 2,7 GHz (Intel Turbo-Boost aus), 16 GB RAM
GPU:            NVidia GeForce GTX 980M, 8 GB Memory, 1536 CUDA Cores, 1038 MHz Base Clock, 2500 MHz GDDR5 Memory Clock
GUI:            Arena 3.5.1
Engines:        1 Kern, 64-Bit (pext/bmi2 oder popcnt), default settings
Bedenkzeit:     10 Minuten + 6 Sekunden
Hash:           512 MB
Buch:           4 Züge Eröffnungsbuch (Partie wird mit vertauschten Farben wiederholt)
Ponder:         an
Large Pages:    aus
Tablebases:     keine
LC0-Version:    LC Zero CUDA v0.17.0 Network 11261 (20x256), 2 worker threads


LC Zero CUDA erreicht ca. 2500 Rollouts in der Sekunde bei selektiver Suchtiefe 28 in der Grundstellung bei einem Netzwerk mit 20 Blöcken und 256 Filtern.
Stockfish 9 erreicht auf einem Kern ca. 1,45 Millionen Knoten nach einer Minute Rechenzeit in der Grundstellung.
Somit ist der Leela-Ratio Wert bei diesem Turnier (2500 * 875) / 1.450.000 = 1,51

Name des Turniers: Lc0 v0.17.0 Net 11261 + 11 Top Engines, ponder on
Endstand nach 132 Partien:
                                 1  2  3  4  5  6  7  8  9  0  11 12 
1   Stockfish 9            +235  ** 1½ ½½ ½1 1½ ½1 1½ 11 11 ½½ 11 11  17.5/22  174.75
2   Houdini 6.03           +235  0½ ** ½0 ½1 11 11 1½ ½1 11 11 11 11  17.5/22  164.75
3   Lc0 v0.17.0 11261      +114  ½½ ½1 ** 1½ ½½ ½½ 11 ½½ ½½ ½1 ½1 ½1  14.5/22
4   Komodo 12.1.1           +97  ½0 ½0 0½ ** 1½ ½1 0½ 11 1½ 11 ½1 11  14.0/22
5   Fire 7.1                +47  0½ 00 ½½ 0½ ** ½1 1½ 11 ½½ 1½ 1½ 1½  12.5/22
6   Booot 6.3.1             -15  ½0 00 ½½ ½0 ½0 ** 11 ½½ ½½ ½1 ½½ ½1  10.5/22
7   Ethereal 10.97          -31  0½ 0½ 00 1½ 0½ 00 ** ½1 ½½ 1½ 1½ ½1  10.0/22
8   Shredder 13             -80  00 ½0 ½½ 00 00 ½½ ½0 ** ½1 ½0 11 1½   8.5/22
9   Andscacs 0.94           -97  00 00 ½½ 0½ ½½ ½½ ½½ ½0 ** 0½ ½½ ½1   8.0/22
10  Fizbo 2                -114  ½½ 00 ½0 00 0½ ½0 0½ ½1 1½ ** 0½ ½½   7.5/22
11  Laser 1.6              -150  00 00 ½0 ½0 0½ ½½ 0½ 00 ½½ 1½ ** ½½   6.5/22
12  Gull 3                 -212  00 00 ½0 00 0½ ½0 ½0 0½ ½0 ½½ ½½ **   5.0/22


Alle Partien:
http://www.fastgm.de/schach/Lc0_v0.17.0_11261.7z
Parent - - By Benno Hartwig Date 2018-09-05 00:29
Danke,
besonders fasznierend finde ich, dass LC0 nur Stockfish und Houdini vor sich hat.
Und eine ganze Reihe Programme, die schon auch ganz schön stark sind
und die vor wenigen Jahren noch als saustark galten, landeten hinter LC0.

Ich finde rasant, mit welcher Geschwindigkeit die Engine nach vorn stürmt,
und ich staune dass dieser Erfolg möglich wurde, obwohl doch allenthalben
und wohl auch zu Recht die taktischen Mängel beklagt wurden.
Das lässt erahnen, was möglich wird, wenn diese Kinderkrankheiten
etwas später dann ausgeräumt sein werden.

Benno
Parent - By Peter Martan Date 2018-09-05 06:59
Benno Hartwig schrieb:

Das lässt erahnen, was möglich wird, wenn diese Kinderkrankheiten
etwas später dann ausgeräumt sein werden.

Vielleicht sind sie es ja schon.
Parent - - By Stefan Pohl Date 2018-09-05 16:20
Benno Hartwig schrieb:


Ich finde rasant, mit welcher Geschwindigkeit die Engine nach vorn stürmt,
und ich staune dass dieser Erfolg möglich wurde, obwohl doch allenthalben
und wohl auch zu Recht die taktischen Mängel beklagt wurden.
Das lässt erahnen, was möglich wird, wenn diese Kinderkrankheiten
etwas später dann ausgeräumt sein werden.


Das unterschreibe ich im Prinzip alles. Bis auf den Begriff Kinderkrankheit. Da scheint mir ein Mißverständnis vorzuliegen. Die Ursache der taktischen Schwäche von Leela ist die Tatsache, daß die Neural-Netz Verarbeitung sehr viel aufwendiger und somit sehr viel langsamer ist, als eine Stellungsbewertung einer AB-Engine. Demzufolge wird eine reine NN-Engine immer taktisch viel schlechter und anfälliger sein, als gute AB-Engines, einfach weil sie in gleicher Zeit immer viel, viel weniger Stellungen untersucht. Das ist unvermeidbar und daher keine Kinderkrankheit, die man durch irgendeinen tricky Algorithmus "wegprogrammieren" kann. Taktische Stärke beruht nun mal im Wesentlichen auf node-crunching. Und da wird eine reine NN-Engine niemals mit guten AB-Engines konkurrieren können. Irgendeine merkwürdige, antiintuitive taktische Pointe wird Leela immer übersehen. Einzig eine Hybrid-Engine (wie von mir schon mal hier ausführlich skizziert), wo ein AB-Algorithmus die NN-Berechnungen auf taktische Korrektheit überprüft, könnte Abhilfe schaffen.
Das heißt natürlich nicht, daß Leela nicht insgesamt (also im praktischen Spiel) mal die weltbeste Engine werden kann. Sie ist ja jetzt schon stärker als taktische Bomben wie Houdini 1.5a, Critter und Co. Aber wegen ihres überragenden Positionsspiels. Nicht wegen ihrer taktischen Fähigkeiten.
Parent - By Achim Müller Date 2018-09-05 19:22 Upvotes 1
Stefan Pohl schrieb:

...Die Ursache der taktischen Schwäche von Leela ist die Tatsache, daß die Neural-Netz Verarbeitung sehr viel aufwendiger und somit sehr viel langsamer ist, als eine Stellungsbewertung einer AB-Engine. Demzufolge wird eine reine NN-Engine immer taktisch viel schlechter und anfälliger sein, als gute AB-Engines, einfach weil sie in gleicher Zeit immer viel, viel weniger Stellungen untersucht. Das ist unvermeidbar und daher keine Kinderkrankheit, die man durch irgendeinen tricky Algorithmus "wegprogrammieren" kann.


Es gibt da einen Patch, der das wohl deutlich vermindert. Zumindest sollen die Ergebnisse in den (taktischen) Testsuites dann wesentlich besser sein und die Spielstärke nicht darunter leiden. Ich will das mal selbst testen, allerdings ist sowohl die Doku zum Kompilieren von lc0 unter Windows total veraltet, als auch das Mitteilungsbedürfnis der Developer auf der Mailingliste oder im Discord eher unterentwickelt.

Auf Unixsystemen habe ich mit dem patch kein Problem gehabt, meine GTX 1080 läuft aber unter Windows. Und diese Kombination von Visual Studio, python, git und Windows10 ist für mich zur Zeit ein »pain in the ass«. Sobald ich das ans Laufen bekommen habe, werde ich mal Vergleichsergebnisse posten.

Ciao

Achim
Parent - - By Jörg Oster Date 2018-09-05 21:17 Upvotes 1
Die taktische Schwäche begründet sich vor allem durch die Suche (MCTS).

Hier ein Auszug aus "MCTS-Minimax Hybrids"
Zitat:
Abstract—Monte-Carlo Tree Search (MCTS) is a sampling-
based search algorithm that is state of the art in a variety
of games. In many domains, its Monte-Carlo rollouts of entire
games give it a strategic advantage over traditional depth-limited
minimax search with αβ pruning. These rollouts can often detect
long-term consequences of moves, freeing the programmer from
having to capture these consequences in a heuristic evaluation
function. But due to its highly selective tree, MCTS runs a higher
risk than full-width minimax search of missing individual moves
and falling into traps in tactical situations.

This article proposes MCTS-minimax hybrids that integrate
shallow minimax searches into the MCTS framework. Three ap-
proaches are outlined, using minimax in the selection/expansion
phase, the rollout phase, and the backpropagation phase of
MCTS. Without assuming domain knowledge in the form of
evaluation functions, these hybrid algorithms are a first step
towards combining the strategic strength of MCTS and the
tactical strength of minimax.


Und noch ein Zitat aus "A Survey of Monte Carlo Tree Search Methods"
Zitat:
Ramanujan et al. [162] argue that UCT performs
poorly in domains with many trap states (states that lead
to losses within a small number of moves), whereas iter-
ative deepening minimax performs relatively well. Trap
states are common in Chess but relatively uncommon
in Go
, which may go some way towards explaining the
algorithms’ relative performance in those games.


* Fettdruck von mir.
Parent - By Stefan Pohl Date 2018-09-06 10:09
Da hast du schon Recht. Es ist aber auch so, daß der MCTS-Algorithmus bei Leela bzw. Alphazero primär deshalb genutzt wird, weil eben die NN-Bewertungen für eine richtige AB-Minimax-Suche viel zu langsam sind. Eine solche Suche wäre daher viel zu flach und daher taktisch noch anfälliger als die MCTS-Suche.
Parent - - By Benno Hartwig Date 2018-09-09 13:45

> Die Ursache der taktischen Schwäche von Leela ist die Tatsache, daß die Neural-Netz Verarbeitung sehr viel aufwendiger und somit sehr viel langsamer ist,


Damit magst du Recht habe. Aber du schreibst ja auch

> Und da wird eine reine NN-Engine...


und hier mag der Königsweg für neuere Entwicklungen geben:
Während die Verdopplung der Kerne bei alpha-beta-Programmen zwar was bringt, aber nicht der totale Brüller ist, könnte eine klug konzipierte Hybrid-Maschine NN-AlphaBeta vielleicht ganz tolle Ergebnisse bringen.
Vielleicht nach dem Motto:

"Wenn alphabeta meint, dass der NN-Zug schon ganz OK ist, dann wird der genommen, andernfalls rechnet alphabeta noch etwas weiter und nennt seinen Favoriten!" oder so.

Benno
Parent - - By Peter Martan Date 2018-09-09 15:28 Edited 2018-09-09 16:28
Benno Hartwig schrieb:

"Wenn alphabeta meint, dass der NN-Zug schon ganz OK ist, dann wird der genommen, andernfalls rechnet alphabeta noch etwas weiter und nennt seinen Favoriten!" oder so.

Das Problem sehe ich da: woher soll AB wissen, ob der NN- Zug schon ganz Ok ist, wenn AB nicht ordentlich Rechenzeit hat?
Wenn AB die volle Rechenzeit der TC kriegt, und dann sowieso im Zweifelsfall den Zug aussucht, wozu dann noch NN?

Und jetzt mal eine ganz blöde Frage: können AB- Engines überhaupt neuronale Netze nutzen?

War Matthew Lais Giraffe nicht Alpha- Beta- Searcher?

Und jedenfalls gibt's da noch das hier, mit SF7 als Engine:

https://github.com/KyleMcDonell/NeuralChess
Parent - - By Guenter Stertenbrink Date 2018-09-09 16:28
trainiere das NN mit den evals und Tiefen des AB als zusaetzliche Parameter.
Dann weiss es, das was immer kommt an evals(depth) mit einzubauen in die rollouts
Parent - By Peter Martan Date 2018-09-09 16:34
Wozu rollouts, wozu MCTS?
Parent - By Peter Martan Date 2018-09-09 16:32
Peter Martan schrieb:

Und jedenfalls gibt's da noch das hier, mit SF7 als Engine

Das habe ich wohl zunächst missverstanden, SF7 ist als Testgegner dabei, aber negamax schon, angeblich auf Giraffe aufbauend:
Zitat:
This chess engine is a simplified implementation of Matthew Lai's Giraffe chess engine without reinforcement learning. My implementation uses a simple negamax search algorithm with alpha-beta pruning.
Parent - By Stefan Pohl Date 2018-09-09 17:35
Peter Martan schrieb:

Benno Hartwig schrieb:

"Wenn alphabeta meint, dass der NN-Zug schon ganz OK ist, dann wird der genommen, andernfalls rechnet alphabeta noch etwas weiter und nennt seinen Favoriten!" oder so.

Das Problem sehe ich da: woher soll AB wissen, ob der NN- Zug schon ganz Ok ist, wenn AB nicht ordentlich Rechenzeit hat?/NeuralChess</a>

Das ist doch nicht das Problem. Leela nutzt doch primär die GPU und nur in geringem Umfang die CPU. Ergo hätte eine AB-Engine genügend CPU-Kapazitäten, um parallel zu laufen. So, wie ich das hier schon mal ausgeführt hatte, hier nochmal ein längerer Auszug aus diesem Text:

Daher liegt es nahe, Leela und eine klassische Engine zu einem Hybriden zu verbinden und so zu versuchen, die Stärken beider zu verbinden und ihre jeweiligen Schwächen auszumerzen. Dies ist umso verlockender, als Leela den Großteil ihrer Berechnungen auf der Grafikkarte des Rechners ausführt, während die klassische Engine die Prozessorkerne zum Rechnen nutzt. Dies macht ein paralleles Arbeiten von Leela und einer klassischen Engine möglich.
Der naheliegenste Ansatz, nämlich zunächst Leela einen besten Zug errechnen zu lassen und diesen dann anschließend von der klassischen Engine auf taktische Tauglichkeit zu prüfen, ist insofern nicht besonders sinnvoll. Viel sinnvoller scheint, die Berechnungen von Leela und der klassischen Engine parallel ablaufen zu lassen, da jeweils unterschiedliche Hardwarekomponenten genutzt werden. Das Problem, das sich nun ergibt, ist natürlich, daß die klassische Engine nicht weiß, welchen Zug Leela überhaupt spielen wird, wenn beide zur selben Zeit mit den Berechnungen beginnen – nämlich sobald der Gegner seinen Zug auf dem Brett ausgeführt hat. Für dieses Problem schlage ich nun die Nutzung des Multivariantenmodus vor (im folgenden kurz MV-Modus), welcher von vielen aktuellen, klassischen Engines unterstützt wird. Unter anderem auch von Stockfish. Diese Engine würde sich meiner Meinung nach zur Nutzung in einem Leela-Hybriden anbieten, da sie sehr stark spielt (z.Zt. zweifelsfrei die weltbeste Engine) und ihr Programmcode OpenSource ist, sodaß ihr Programmcode für jedermann einsehbar und nutzbar ist. Daher gehe ich im folgenden von Stockfish als Hybridpartner von Leela aus. Generell ist aber jede andere klassische Engine, die den MV-Modus anbietet, ebenfalls nutzbar. Wie soll das Ganze nun ablaufen?
Wenn der Gegner seinen Zug ausgeführt hat, beginnen Leela und Stockfish beide zeitgleich und parallel zu rechnen, wobei Leela die GPU nutzt, sowie einen oder zwei Prozesserkerne. Die restlichen CPU-Kerne bekommt Stockfish zum Rechnen zugewiesen. Während Leela „ganz normal“ rechnet, läuft Stockfish im MV-Modus und errechnet so nicht nur einen besten Zug, sondern n beste Züge. Wobei n als UCI-Parameter für den Benutzer einstellbar gemacht werden könnte. Ich würde einen Wert von 5-10 als sinnvoll erachten, aber dies müßte man experimentell justieren und optimieren. Je mehr Varianten Stockfish berechnet, desto höher der Rechenaufwand, um eine bestimmte Suchtiefe zu erreichen, also umso geringer die taktische Qualität jeder einzelnen der n Varianten. Aber desto mehr spielerische „Freiheit“ hätte Leela für ihr planvolles, positionelles Spiel. Dazu gleich mehr.
Nun kommt noch ein weiterer Parameter ins Spiel, den man ebenfalls als UCI-Parameter für den User extern einstellbar machen könnte, nämlich ein Bewertungs-Schwellwert, den ich hier kurz ev („eval“) nenne. Je höher man ev einstellt, desto mehr spielerische „Freiheit“ hat Leela und desto seltener wird Stockfish eingreifen.
Wenn Leela mit ihren Berechnungen fertig ist (das Zeitmanagement der Hybrid-Engine liegt natürlich bei Leela) und ziehen will, wird auch die MV-Berechnung von Stockfish abgebrochen. Nun gibt es mehrere mögliche Szenarien, die eintreten können:
a) Stockfish und Leela sind sich einig, was der beste Zug ist, also ist der Zug, den Leela spielen will, auch der erste Zug in der MV-Zugliste von Stockfish. In diesem Fall wird dieser Zug natürlich auch ausgespielt.
b) Leelas favorisierter Zug ist nicht in der MV-Zugliste von Stockfish enthalten. Dann wird der von Stockfish favorisierte Zug gespielt, also der erste Zug in der MV-Zugliste von Stockfish. Leela wird also „überstimmt“.
c) Leelas favorisierter Zug ist zwar nicht der erste Zug in der MV-Zugliste von Stockfish, aber er taucht in dieser Liste weiter unten auf. In diesem Fall wird die Differenz der Bewertungen von Stockfish (Leelas Bewertungen spielen in meinem Konzept überhaupt keine Rolle!) dieser beiden Züge (in Stockfishs MV-Zugliste) gebildet und geprüft, ob diese Differenz kleiner oder gleich ev ist, oder aber höher. Ist die Differenz kleiner oder gleich ev, so wird Leelas Zug gespielt. Ist sie aber höher, so „überstimmt“ Stockfish nun Leela und es wird der von Stockfish favorisierte Zug gespielt, also der erste Zug in der MV-Zugliste von Stockfish. Da dies der komplizierteste Fall ist, hier ein Beispiel, wobei Züge und Zugnummern beliebig gewählt sind:
Leela möchte in einer Brettstellung 24.Da4 spielen. Stockfish hat mit 5 Varianten im MV-Modus gerechnet und folgendes Resultat errechnet:
1.) Eval +0.20 Line: 24.Ta5 Kf8 25.Df3 usw...
2.) Eval +0.12 Line: 24.Sc5 Ta8 25.Lf3 usw...
3.) Eval -0.40 Line: 24.Da4 Tf8 25.Sf3 usw...
4.) Eval -0.71 Line: 24.Sd4 Ta8 25.Ta3 usw...
5.) Eval -1.33 Line: 24.Lc7 Ta8 25.Ta3 usw...

Ist ev nun größer oder gleich 60 (centipawns) gesetzt, so würde Stockfish Leela „ihren Willen“ lassen und es würde 24.Da4 gespielt, da die Differenz der Evals von Zug 1 (+0.20 (= +20 centipawns)) und Leelas favorisiertem Zug 24.Da4, also Zug 3 in der MV-Variantenliste von Stockfish, (-0.40 (= -40 centipawns)) = 0.60 = 60 centipawns ist. Wäre ev nur auf z.B. 50 gesetzt, so würde Stockfish hier eingreifen und seinen favorisierten Zug, also 24.Ta5, spielen.

Es ist klar, daß Leela umso mehr „spielerische Freiheiten“ hat, je höher die Parameter n (Zahl der MV-Varianten) und ev (Bewertungsschwellwert) gesetzt werden. Gleichzeitig würde sich aber im Gegenzug auch die taktische Anfälligkeit erhöhen. Welche Werte für n und ev optimal sind, müßten natürlich umfangreiche Experimente (Clop-Tuning?) zeigen. Aus meinen Erfahrungen mit Stockfish heraus, würde ich n=7 und ev=40 ausprobieren, aber das sind nur Schätzungen. Auch die verwendete Hardware, auf der der Leela-Stockfish Hybrid läuft, würde hier sicher eine Rolle spielen.

Ich hoffe, ein erfahrener Programmierer wird meine Idee realisieren. Denn ich glaube, so könnte eine alles überragende Spielstärke auf dem Schachbrett erreicht werden!
Der Programmieraufwand sollte relativ überschaubar sein, zumindest für jemanden der mit der Nutzung der UCI-Schnittstelle Erfahrung hat und den Stockfish Programmcode gut kennt. Denn es ist ja nicht nötig, ein eigenes Schachprogramm zu schreiben. Nur eine gemeinsame Schnittstelle für Leela und Stockfish und die Steuerung derselben über die zwei UCI-Parameter n und ev wird benötigt.
Parent - - By Benno Hartwig Date 2018-09-10 09:24

> Das Problem sehe ich da: woher soll AB wissen, ob der NN- Zug schon ganz Ok ist, wenn AB nicht ordentlich Rechenzeit hat?


Gib der AB-Engines z.B. grundsätzlich 1/4 der Zeit/Ressourcen
Die 1 oder 2 plys die der Engine dann an Tiefe fehlen, ist nicht sooo gravierend.
Dann hast du 3/4 der Ressourcen für NN, die das Spiel prägt.
Und nur, wenn AB um mehr als 1 Bauern zum negativen (mein erster Vorschlag) abweicht, dann wird NN angezweifelt.
So ganz aus dem Bauch geschossen könnten hier durchaus Chancen liegen.
AB bräuchte sich ggf. auch gar nicht mit übertrieben genauen positionellen Bewertungen aufhalten.

Benno
Parent - - By Peter Martan Date 2018-09-10 10:11 Edited 2018-09-10 10:20
Benno Hartwig schrieb:

AB bräuchte sich ggf. auch gar nicht mit übertrieben genauen positionellen Bewertungen aufhalten.

Und du meinst, AB spart Zeit, wenn es einfach nur vor sich hin rechnet, aber keine genaue positionelle Bewertung der Berechnung abgibt?

Abgesehen davon, dass die Suche durch die Eval gesteuert wird.

Aber es besteht immer noch ein grundsätzliches Missverständnis, glaube ich. Ich gehe davon aus, dass du ebenso wie Stefan Pohl von Hybriden einer Leela- artigen Engine redest, die also auch so wie LC0 MCTS betreibt, mit einer AB- Engine kombiniert.

Kann ich mir natürlich auch durchaus auf die verschiedensten Arten vorstellen, meine Frage geht nur immer wieder dahin, warum NN an und für sich unbedingt mit MCTS kombiniert werden muss.
Ich lese, das spare hier Rechenzeit, ok., lasse ich mir sagen, aber wenn ich dann die Zeit für die AB- Suche doch auch wieder investieren muss fürs Hybrid?
Beide rechnen parallel, ok, und die Kommunikation und die Entscheidung bei ungleichen Zügen, kostet nix?
Das ist dann aber, wenn ich Stefan richtig verstehe, eigentlich nur ein GUI- Feature als Entscheidungsmodul so wie beim Shredder- 3Hirn, wenigstens sowas wie Nemorino kostet sehr wohl auch Rechenzeit, dafür "wüsste" dann zumindest die Entscheidungsengine, "warum" sie etwas ausspielt.

Ich will wissen, ob man die neuronalen Netze nicht doch auch mit AB- Suche allein trainieren und rechnen lassen könnte, wobei die Frage mittlerweile rhetorisch ist, weil, was ich so gelesen habe, Giraffe sehr wohl mithilfe von Alpha- Beta- Pruning gerechnet hat, auch der Link von der auf ihr aufbauenden Diplomarbeit im anderen Posting ist diesem Beispiel gefolgt.

Und ob man jetzt dann das Selflearning unbedingt dem Zero- Prinzip folgend machen muss, und ob Matthew Lais Ansatz des Imports von Daten aus vorhandenen Partiesammlungen nicht mittlerweile auch schon weiter wäre als LC0, weiß man auch nicht, weil der halt nicht weiter verfolgt wurde von ihm (soviel man weiß und wissen darf), seit er für Deep Mind arbeitet.

Mit ist der ganze Monte Carlo- Schmarrn immer noch verdächtig, dass das wirklich schneller zu gleich guten Einschätzungen der Gewinnwahrscheinlichkeit führt, nämlich wenigstens auf einer taktisch gleich verlässlichen Zugwahl basierend, sehe ich nicht, jedenfalls nicht bei komodo, und wenn die tollen Elo von den NNs kommen, warum dann nicht den tollen NNs die hochgezüchtete AB- Suche gönnen?

Schon gut, weil's Google anders gemacht hat, aber wenn die eigentlich nur Werbung für ihre Graphikkartenclustercloud machen wollten?
Parent - By Peter Martan Date 2018-09-10 11:32
Peter Martan schrieb:

wenigstens sowas wie Nemorino

Natürlich nicht Nemorino, Nucleus (Ferdinand Mosca) hatte ich gemeint.
Parent - By Benno Hartwig Date 2018-09-11 22:10

> Und du meinst, AB spart Zeit, wenn es einfach nur vor sich hin rechnet, aber keine genaue positionelle Bewertung der Berechnung abgibt?


Die Zeit, die bei AB für einen Knoten nötig ist, hängt sicher vor allem ab vom Aufwand für die positionelle Bewertung.
halb so viel Zeit --> doppelte Knotenleistung. Oder eben halber Ressourcenbedarf.

Bei einem 4-gewinnt-Prögramm, dass ich mal hinklierte, führten vereinfachte positionelle Bewertungen zu häufiger auftretenden gleichen Werten.
Und das führte dann wieder zu deutlich häufigeren beta-Cuts, wodurch die Suche deutlich schneller auf Tiefe kam.
Bei Verlust von Wissen halt.

Benno
Parent - - By Guenter Stertenbrink Date 2018-09-05 02:28 Upvotes 1
3365,Stockfish 9
3332,Houdini 6.03
3313,Komodo 12.1.1
3250,Lc0-11261
3191,Fire 7.1
3150,Ethereal 10.97
3138,Shredder 13
3121,Ginkgo
3116,Fizbo 2
3096,Andscacs 0.94
3089,Booot 6.3.1
3070,Laser 1.6
3063,Gull 3

Durchschnitt von 8 Ratinglisten + geschaetzt bei Luecken
(Leela-Ratio =1)
Parent - - By Guenter Stertenbrink Date 2018-09-05 10:26 Edited 2018-09-05 11:15
Meine LC0-LR=1,Schaetzelos bzgl. obiger 8-Durchschnitt-Liste :

3250,22, AS, 11261
3300,1440 , Enrico Caruso 4ids>11000
3401,100 , Capri Corn , 11198 ; Stockfisch Zeitueberschreitungen ?!
3300,500 , Cscuile , 5ids>11000
3340,100 , JH , 10780  ; gute Hardware

-------------------------
3306,2162 ; knapp hinter Komodo
Parent - By Guenter Stertenbrink Date 2018-09-05 15:54
3365,Stockfish 9
3332,Houdini 6.03
3313,Komodo 12.1.1
3291,Lc0-11261
3191,Fire 7.1
3150,Ethereal 10.97
3138,Shredder 13
3121,Ginkgo
3116,Fizbo 2
3096,Andscacs 0.94
3089,Booot 6.3.1
3070,Laser 1.6
3063,Gull 3

Durchschnitt von 8 Ratinglisten + geschaetzt bei Luecken
(Leela-Ratio =1)

-----------------------------------------------------------

Meine korrigierte LC0-LR=1,Schaetzelos bzgl. obiger 8-Durchschnitt-Liste :

3250,22, AS, 11261
3300,1440 , Enrico Caruso 4ids>11000
3401,100 , Capri Corn , 11198 ; Stockfish Zeitueberschreitungen ?!
3300,500 , Cscuile , 5ids>11000
3340,100 , JH , 10780  ; gute Hardware
3253,320 , Pohl , 11141
3255, ~585? , MTGOStark , 39ids>11070
-------------------------

3300 = average
3291 = average weighted by #games :
Parent - - By Andreas Strangmüller Date 2018-09-14 10:51 Upvotes 1
Ein neues Turnier, gleiche Bedingungen, mit einem aktuellen Stockfish vom 04. September.

Endstand nach 264 Partien:
                              1    2    3    4    5    6    7    8    9    10   11   12
1   Stockfish 180904   +170  **** ½½½½ 1½½½ ½½11 ½1½½ ½1½1 1½11 111½ ½11½ 1½½½ 1½½1 11½1  32.0/44
2   Lc0 v0.17.0 11261  +150  ½½½½ **** ½0½1 011½ ½111 ½11½ ½½01 11½1 1½11 1½½½ 1½11 1110  31.0/44
3   Houdini 6.03       +114  0½½½ ½1½0 **** 100½ 01½½ 1½11 ½½1½ 1½1½ ½1½½ 1½11 1½1½ 1111  29.0/44
4   Komodo 12.1.1      +105  ½½00 100½ 011½ **** ½½½½ 1½½1 1½½1 ½1½1 ½11½ ½1½1 ½1½1 111½  28.5/44
5   Fire 7.1            +23  ½0½½ ½000 10½½ ½½½½ **** 10½½ ½½½½ 1½1½ 1½½½ ½1½½ ½½½½ 111½  23.5/44
6   Andscacs 0.94       -47  ½0½0 ½00½ 0½00 0½½0 01½½ **** ½½½½ 1½½0 ½½½1 1½½½ 0½½1 110½  19.0/44
7   Shredder 13         -55  0½00 ½½10 ½½0½ 0½½0 ½½½½ ½½½½ **** 101½ ½00½ ½011 ½½½½ ½0½½  18.5/44  393.25
8   Ethereal 10.97      -55  000½ 00½0 0½0½ ½0½0 0½0½ 0½½1 010½ **** ½010 0½1½ 111½ 1111  18.5/44  347.25
9   Fizbo 2             -63  ½00½ 0½00 ½0½½ ½00½ 0½½½ ½½½0 ½11½ ½101 **** ½00½ ½½1½ ½01½  18.0/44
10  Gull 3              -80  0½½½ 0½½½ 0½00 ½0½0 ½0½½ 0½½½ ½100 1½0½ ½11½ **** ½0½½ ½½0½  17.0/44
11  Booot 6.3.1         -97  0½½0 0½00 0½0½ ½0½0 ½½½½ 1½½0 ½½½½ 000½ ½½0½ ½1½½ **** 10½½  16.0/44
12  Laser 1.6          -150  00½0 0001 0000 000½ 000½ 001½ ½1½½ 0000 ½10½ ½½1½ 01½½ ****  13.0/44


Alle Partien:
http://www.fastgm.de/schach/Lc0_v0.17.0_11261_10+6.7z
Parent - - By Reinhold Stibi Date 2018-09-14 17:59
Sehr schönes aktuelles Turnier.

Überraschend hat Lc0 den zweiten Platz belegt vor Houdini 6.03 und Komodo 12.1.1.

Allerdings dürfte Lc0 einen Hardwarevorteil gehabt haben.

Etwa gleichstand mit der Hardware  statt 1 CPU  4 Threads.

Danke !
Parent - By Guenter Stertenbrink Date 2018-09-14 19:08
3285 bei LR=1 in obiger Liste

Lc=3285
Et=3134
La=3034
Up Topic Hauptforen / CSS-Forum / Lc0 v0.17.0 Net 11261 + 11 Top Engines - ponder on

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill