Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / NNUE und Netz Training
1 2 Previous Next  
- - By Daniel Reist Date 2020-07-18 18:16
Hallo Leute

Ich habe mich eigentlich sehr gefreut, als ich diesen neuen Stockfish gesehen habe.
Das selber trainieren ist doch sehr schön, man weiss dann wenigstens was er trainiert hat.
Aber es ist bei dieser neuen Engine auch nur etwas für den Zeitvertreib.

Das Netz vom 26.06.20 besteht zum Beispiel aus 1 Milliarde Fens Tiefe 8.
Was das dann auch immer heisst.
Ich habe jetz Mal mt 3 Core und I5 PC 4 Millionen Fens mit Tiefe 13 erstellt.
Dies brauchte 16 Stunden!
Danach braucht es ein Training und man muss die Daten prüfen.
Dazu brauch man also noch mehr Lerndaten und Feinschliff.

Ihr seht es braucht je nach Hardware nicht wenig sondern eher mehr Zeit.

Daher denke ich, ist LC0 eine einfachere Alternative.

Ausser es gibt immer bessere Netze für diesen NNUE!
Parent - - By Peter Martan Date 2020-07-18 19:26 Edited 2020-07-18 19:58
Daniel Reist schrieb:

Daher denke ich, ist LC0 eine einfachere Alternative.

Schon mal selber ein eigenes LC0- Netz trainiert?
Oder meintest du, es ist einfacher, LC0- Netze runterzuladen, das ja.
Und sicher wird's immer bessere, größere, tiefer berchnete NNUE- Netze auch geben, das ist erst ein kleiner Anfang. Mich fasziniert die Kombi NN und SF- Suche, das alles auf der CPU und Hashlernen, wie man's von SF gewöhnt ist.

Danke für den Anwenderbericht, ich war auch schon fast fertig mit meiner ersten SF- nn.bin, aber nach 12h ist die Lern- Binary abgestürzt.
Und bisher ist es mir nicht gelungen, die Daten, die schon da sind, weiter bearbeiten zu lassen, ich glaube, ich fange eher von vorn an.
Parent - - By Daniel Reist Date 2020-07-18 22:16
Es gibt ja neue Files von NNUE und auch Lernexe und Generierexe.
Musst diese mal herunterladen. Es kann auch an den alten Exe liegen, dass es nicht geht.

Ich hatte gestern mein erstes Netz generiert, aber ich hatte viel zu wenig Daten, daher war es Nichts.

Hier ist ein Link zum Runterladen von den 1 Milliarde Fens in Tiefe 8. Es sind ca. 11.5 GB.
Aber ein schlechter Downloadplatz.

https://mega.nz/file/Smhn3bxa#GDOl2BcPR1YRcAouHkij5aHJ46u7rsiIAw9mTM1bIjs
Parent - - By Benno Hartwig Date 2020-07-28 20:59

> Hier ist ein Link zum Runterladen von den 1 Milliarde Fens in Tiefe 8. Es sind ca. 11.5 GB.


11.5 GB sind ne Menge Stoff!
Und was ist das da, was man da dann bekommt???
Parent - By Daniel Reist Date 2020-08-03 01:27
Hallo

Das sind die Basisdaten, welche du brauchst, um eine gute NN.Bin zu machen.
Oder genauer gesagt, wenn du deinen Rechner lernen lässt mit der Tiefe 8
und eine 1 Milliarde Fens willst.
Parent - By Daniel Reist Date 2020-07-18 22:19
Ja es ist einfacher Netze herunterzuladen. 

Aber man kann auch einfach helfen beim Training von Netzen.
Nur weiss man dann nicht, was man trainiert hat. Im Gegensatz zu NNUE.
Dort kennt man wenigstens die Tiefe.
Parent - - By Eduard Nemeth Date 2020-07-18 22:26 Edited 2020-07-18 22:38
Hallo Peter (und andere)!
Wenn das alles erst der Anfang sein soll, wohin kann es führen? Also für einen Anfang spielt mir das Ding aber richtig gut! Bei Andreas, in seiner Ratingliste spielt es auch sehr gut. Wenn ich mit mittelmässiger Hardware auf dem Server in den Top 5 lande (Bei 19 Runden Platz 4), dann ist das echt mega gut ohne zu untertreiben. Dann noch erster und zweiter Platz bei anderen, gestern auch ein zweiter Platz, und auf InfinityChess auch schon ein Turnier gewonnen. Eine eigene Verlustpartie kann ich noch nicht einmal liefern, und ich habe vor dem Turnier den ganzen Mittag nonstop gespielt!

Ich schaue mir die Partien auch an! So ein gediegenes Schach hat Stockfish noch nie gespielt, positionell klar besser. Am meisten hatte ich Bedenken bei Taktik. Aber selbst gegen die Besten konnte alles gehalten werden, und im Endspiel sowieso.

Und trotzdem, das alles soll erst der Anfang sein? Und noch eines verstehe ich nicht so recht: Ohne das NN rechnet die Engine Müll aber mit dem NN dann um soooo viel besser. Und das alles trotz Tiefe 8. Wie kann das sein (Tiefe 8 und so gut)?
Parent - - By Peter Martan Date 2020-07-18 22:44 Edited 2020-07-18 22:47
Naja, Anfang halt zumindest, was die Zeit angeht, die dran gearbeitet wird.
Ohne NN hat's, je nachdem, was du verwendest, eventuell gar keine Evals, die die SF normaler Weise hat, werden durch's NN ersetzt, wenn das dann nicht geladen wird, ist's natürlich nix mit ordentlich evaluieren, als auch nix mit vernünftiger Zugsortierung.

Die Tiefe, mit der das Netz trainiert wird, hat mit der Suchtiefe, die SF beim Spielen erreicht, nur bedingt zu tun, je größer das Netz, desto mehr bremst es die Suche, die time to depth wird also mit dem in größere Tiefen trainierten größereb Netz sogar eher kleiner. Aber natürlich werden die Netze erst mal teilweise auch immer größer werden, die's zum Runterladen gibt, bis sich dann irgendwann eine Größe herausstellen wird, die mehr bremst als hilft. Das wird auch wieder ziemlich Hardware- und TC- abhängig sein.

Das alles ist heutzutage, wie man ja auch bei LC0 sieht, sehr schwer nachzuweisen, unter welchen Hardware-TC-Eröffnungs-Engine-Pool-Bedingungen sich was wie sehr bewährt.
Nichts gegen dein persönliches Urteil, Eduard, aber du weißt selbst am besten, dass die verschiedenen Gegner mit den verschiedenen Büchern und dem Blitzen als TC ein Rating ergibt, das nichts mit einer reproduzierbaren Testumgebung zu tun hat, und Übertragbarkeit auf andere Bedingungen hat's erst recht keine.

Was ich an einzelnen Stellungen und Analyse- Fähigkeiten bisher gesehen habe, ist das 30Mb- Netz von SFinn 0.2 manchmal trotz noch einmal halbierter Knotenzahlen in manchen Stellungen in geringeren Suchtiefen erfolgreicher, manchmal hat aber auch das um die Hälfte kleinere (Gekkehenker z.B.) die Nase vorn.

Dass jetzt die Elo sofort in den Ranglisten explodieren werden, glaube ich sowieso sicher auch nicht, dazu ist allein schon die Remishäufigkeit bei ausgeglichenen Teststellungen zu hoch und oder die Häufung von 1:1- Paaren bei unausgeglichenen.
Parent - - By Eduard Nemeth Date 2020-07-18 23:06
Danke Peter!

Kann man das grössere Netz auch wo kostenlos herunterladen, oder gibt es das nur auf Patreon wie üblich dort?
Parent - - By Eduard Nemeth Date 2020-07-18 23:36
Es gibt ein älteres 21-6 Netz (in derselben Grösse von 20 MB) von Gekkehenker. Der Autor meint, bei ihm hätte es stärker gespielt mit einer älteren Binary. Seit dem hätte er es aber nicht mehr getestet. Ich habe nun dieses NN genommen und teste es gerade mit der Engine vom 12. Juli 2020. Erste Tests sind vielversprechend. Zwei Beispiele:

Caruana,F - Carlsen,M 1/2-1/2, World Chess Championship 2018


Analysis by Stockfish NNUE halfkp-256 x64-21x6:

23.Tfe1 Lf6 24.Tad1 Lxc3 25.Dxc3 Dd6 26.Sc4 Df6 27.d6 Dxc3 28.bxc3 Tbe8 29.Txe8 Txe8 30.Td5 Le6 31.Txg5+ Kf7 32.Txc5 Td8 33.Tc7+ Kg6 34.Se5+ Kf6 35.Sd3 Kf5 36.Txh7 Txd6
  +/- (1.10)  Tiefe: 18/45   00:00:01  6005kN, tb=7
23.Tfe1 Lf6 24.Tad1 Ld4+ 25.Lxd4 cxd4 26.Txd4 Dd6 27.Da3 Df6 28.Dc3 Tbe8 29.Txe8 Txe8 30.d6 Td8 31.d7 De5 32.Td5 Dxc3 33.bxc3 Le6 34.Txg5+ Kf7 35.Tc5 Lxd7
  +/- (1.22)  Tiefe: 19/45   00:00:01  7882kN, tb=8
23.g4 Lg6 24.Tad1 Ld6 25.Tfe1 Lf7 26.Sc4 Te8 27.Te6 Lf8 28.Lf6 Le7 29.Txe7 Txe7 30.Lxg5 De8 31.Lxe7 Dxe7 32.Dxf4 Tf8 33.Se5 Le8 34.d6 Txf4 35.dxe7
  +/- (1.35)  Tiefe: 20/45   00:00:01  10197kN, tb=8
(--)
23.g4 Ld7 24.d6 Lc6 25.dxe7 Dxe7 26.Dd3 De3+ 27.Dxe3 fxe3 28.Txf8+ Txf8 29.Te1 Tf4 30.Txe3 Txg4+ 31.Kf1 Tf4+ 32.Ke2 Lb5+ 33.Kd1 h6 34.Te6 Tf1+ 35.Kc2 Tf2+ 36.Kb3 Txh2 37.Sc8 g4 38.Tf6 Te2 39.Txh6 Kf8 40.Th8+ Kf7 41.Sd6+ Ke6
  +- (2.66)  Tiefe: 30/56   00:00:14  123MN, tb=740

De beste Zug wird schnell wie eine Rakete gefunden.

Beste Verteidigung Qb7 Line,  2019


Analysis by Stockfish NNUE halfkp-256 x64-21x6:

25...Lxe5 26.Lxe5 Se8 27.Lxf4 Txf4 28.Td7 Df8 29.bxc5 Txf2 30.Dg4 Kh8 31.Dxe6 Tf6 32.De7 Dxe7 33.Txe7 Tfc6 34.Tf3 Sf6 35.Sf5 Txc5 36.Sxg7 Sg8 37.Td7 T8c7 38.Txc7 Txc7 39.Sf5 b4 40.e5 Se7 41.Sxh6
  +/- (0.97)  Tiefe: 19/37   00:00:01  12267kN
25...Da7 26.Df3 Lxe5 27.Lxe5 Sg6 28.Ld6 cxb4 29.Lxf8 Txf8 30.Dd1 Se5 31.Tb3 Sc4 32.Tc2 De7 33.De1 Dd8 34.Tc1 Dxa5 35.Td1 Se5 36.Dxb4 Dxb4 37.Txb4
  +/- (0.79)  Tiefe: 20/38   00:00:02  14422kN
(--)
25...Da7 26.Tf3 c4 27.Ld4 Dxd4 28.Txd4 Lxe5 29.Dd2 g5 30.Te3 Kf7 31.Tc3 Tc7 32.De3 Lxd4 33.Dxd4 Tfc8 34.De3 Td7 35.Se2 Sxe2+ 36.Dxe2 Tcd8 37.Df3 Kg7 38.Tc1 Td2 39.Dc3 T8d4 40.Te1 e5 41.Df3 T4d3 42.Df5
  +/= (0.66 ++)  Tiefe: 26/44   00:00:08  65687kN, tb=1

Der zweitbeste Zug wird hier ebenfalls sehr schnell gefunden, der klassische Fish benötigt bei mir 1 bis 2 Minuten um Da7 oder Db7 zu finden.

Ich wollte den Link zum Netz posten (steht auf Discord), aber ich finde es nicht mehr (zu viele Kanäle dort inzwischen), ich habe es deshalb schnell auf Filehorst.de hochgeladen:

https://filehorst.de/d/dzAqoplJ
Parent - By Peter Martan Date 2020-07-19 00:02
Danke fürs Hochladen, Discord ist wirklich schlimm.
Weiß nicht, ob ich schon wieder ein neues Netz ausprobieren werde, ich glaube, es kann nicht schaden, wenn man sich die Dinge mal ein bisschen entwickeln lässt, und vielleicht schaff' ich's ja auch in absehbarer Zeit, aus vorhandenen eigene weiter zu trainieren, indem ich eigenes Partiematerial dazu verwende.
Ganz so einfach ist das aber offenbar auch nicht.
Was du bei Teststellungen mit SF NNUE auch schon gesehen haben wirst, die SMP- Streuung ist noch größer als bei SF dev., scheint mir jedenfalls immer wieder, und das auf eine Art, dass manchmal 2x hintereinander sofort gelöst wird, und bei einem einzelnen weiteren Versuch ewig lang nicht.
Parent - - By Peter Martan Date 2020-07-19 00:06
SFinn 0.2 war eine Zeit lang nur für Unterstützer zu haben, jetzt ist's frei.

Siehe

http://talkchess.com/forum3/viewtopic.php?p=852267#p852267

Der direkte Link von dort:

https://www.patreon.com/posts/stockfinn-0-2-38923625
Parent - - By Eduard Nemeth Date 2020-07-19 00:36
Danke Peter!
Ja, ich lese auf Discord, sehe ich etwas lade ich es herunter...und weiss einige Zeit später schon nicht mehr wo es lag. ;(

Ich bin einst ein Fan des Raubfischs gewesen. Leider baut diese Engine ab. Na ja, jetzt schaffen selbst 76 Threads kaum noch Fortschritte. Das sieht man auch an der Blitz-Elo. Hier eine gerade soeben gespielte Partie mit dem NN Netz 21-6 (nur 8000 kn/s) und der Engine vom 12. Juli. Aus dem Buch sind nur 3 Züge gespielt, ich teste absichtlich mit einem relativ kleinen Buch, fast alle Gegner sind viel länger im Buch. Der Gegner hier ist der neuste Raubfisch der mit dem Account des Autors spielt:

Event:
Ort:
Datum:

Weiss:
Schwarz:

Ergebnis
Board
Parent - - By Eduard Nemeth Date 2020-07-19 00:48
Kleiner Funktionstest. Hier ist eine Stellung die mit derselben Engine Version (12.07.20) analysiert wurde. Die erste Analyse ist mit dem 384 Netz, die Zweite mit dem 256 Netz vom 21-6:

Kramnik,V - Howell,D 1-0, 43rd Olympiad Batumi 2018 Open


Analysis by Stockfish NNUE halfkp-384 x64:

31.Ld5 h3 32.Se5 Sxe5 33.Dxe5 Dxe5 34.Txe5 b6 35.Tae1 Tg7 36.g3 Tg5 37.Txg5 hxg5 38.Le6 Ke8 39.Lxh3 c4 40.Le6 b5 41.Kf1 c3 42.Lb3 Tf5 43.g4 Tc5 44.Ke2 Te5+ 45.Kd1 Txe1+ 46.Kxe1 Kd7 47.Ke2 b4 48.Kd3 a5 49.Kc4 Kc6 50.La4+ Kb6 51.Kd5 Ka6 52.Kc5 Kb7 53.Kb5
  +- (2.39)  Tiefe: 30/51   00:00:18  130MN, tb=15441
31.Ld5 Db2
  +- (2.30 --)  Tiefe: 31/53   00:00:21  156MN, tb=20681
31.Ld5 Db2
  +- (2.39 ++)  Tiefe: 31/53   00:00:23  168MN, tb=22708

Analysis by Stockfish NNUE halfkp-256 x64-21-6:

31.Tad1 c4 32.Te3 Db2 33.Te2 Dc3 34.Lc2 Kxf7 35.Lxg6+ Txg6 36.Te3 Dg7 37.Td7 Kg8 38.Dd5+ Kh8 39.Txb7 h3 40.g3 Df6 41.Tf3 De6 42.Dxe6 Txe6 43.Tc3 Te2 44.Txc4 Se5 45.Tf4 Kg8 46.Txa7 h5 47.Txe7 Sf3+ 48.Txf3 Txe7 49.a4 Te1+ 50.Kh2 Ta1 51.Tf4 Kg7 52.Kxh3 Th1+ 53.Kg2 Ta1 54.Tf5 Kg6 55.Ta5 Ta3 56.Ta8 Kf7
  +- (2.42 --)  Tiefe: 33/64   00:00:25  220MN, tb=40123

In der Partie geschah Rad1.
Parent - - By Eduard Nemeth Date 2020-07-19 17:22
Es gibt auf Github eine neue Version vom 19.07. Viele Varianten:

https://github.com/nodchip/Stockfish/releases/tag/stockfish-nnue-2020-07-19

Für AMD Ryzen ist die Version "stockfish.sse3-popcnt.halfkp_256x2-32-32.profile-nnue.2020-07-19.exe" am besten (bzw. 384x). Sie läuft auch unter Fritz (habe ich nicht erwartet).
Parent - - By Jörg Oster Date 2020-07-19 18:08
Die avx2-Version sollte deutlich schneller sein!
Parent - - By Eduard Nemeth Date 2020-07-20 00:14
Leider nicht. Die sse3 popcnt macht bei mir 500 kn/s mehr (Ryzen 2700).
Parent - - By Eduard Nemeth Date 2020-07-20 03:48
Die Engine macht bei mir leider nun zunehmend Probleme! Hatte ich zuvor hauptsächlich offene Stellungen gespielt (und alles war sehr gut was gespielt wurde), beginnt diese Engine bei extrem geschlossenen Stellungen (die ich ja auch testen möchte) bei Zeitnot nur noch Scheisse zu produzieren. Weniger als 400ms Move Overhead kann ich nicht machen auf dem Server, aber so ab Zug 120 (bei 30s für den Rest bei 5+0) beginnt diese Engine nur noch Müll zu spielen, kommt gerade mal in Tiefe 5 oder sogar noch weniger (und es liegt nicht an Endspieldatenbanken, die werden hier kaum gesucht). Habe gerade reihenweise Partien verloren wo man nur noch den Kopf schütteln kann.

Beispiel:


Analysis by Stockfish+NNUE 190720 64 POPCNT:

142.Tf1 Sf3 143.Txf3 Te8 144.Tfg3
  +- (6.56)  Tiefe: 6/6   00:00:01  4kN
142.Tg1 Sf3 143.Txg7+ Kf8 144.Txa7 Txa7 145.Tg3
  +- (2.26)  Tiefe: 7/8   00:00:01  13kN
142.Tg1 Sf3 143.Txg7+ Kf8 144.Txa7 Txa7 145.Tg6
  +- (3.80)  Tiefe: 8/8   00:00:01  15kN
142.Ld3 Sf3 143.Tc1 Kf8 144.Lc2 Td8 145.Th1 Taa8 146.Th3
  +/- (0.96)  Tiefe: 9/14   00:00:01  109kN

Aber nein, es wurde nicht dieser Zug gespielt, sondern es wurde ein Bauer geopfert mittels d6?? Hatte noch 30s auf der Uhr, und beim normalen Fish reicht das sogar noch für 100 Züge samt Endspieldatenbanken, aber leider nicht für Stockfish NNUE. Schade.  
Parent - By Lothar Jung Date 2020-07-20 08:34
Schade, aber dann hat man doch mit Leela bei geschlossenen Stellungen eine Chance gegen SF NNUE, auch bei starker Hardware.

Lothar
Parent - - By Thomas Lagershausen Date 2020-07-20 09:33
Möglicherweise hatte die CPU Temperaturprobleme. Gestern ist es sehr warm im Land gewesen.
Parent - - By Eduard Nemeth Date 2020-07-20 14:05 Edited 2020-07-20 14:08
Wenn die letzten 30s ohne Bonuszeit anbrechen, zieht Stockfish sehr schnell. Ist die Stellung da noch extrem geschlossen, spielt selbst der normale Fish hin und wieder Müll. Stockfish NNUE kommt leider garnicht mehr in Tiefe und zieht deshalb noch dümmer. Leider haben die Programmierer Stockfish so gemacht dass der bei extremer Zeitnot immer die Flucht nach vorne sucht. Selten bleibt am Ende eine Stellung geschlossen, wenn noch irgendwie was nach vorne geht! Immer werden dann Bauern nach vorne gedrescht, koste es was es wolle. Dieses Problem ist bestens bekannt, doch die Programmierer wissen es leider nicht zu beheben (oder wollen es nicht?). Auch wenn die Stellung tot Remis ist, es gewinnt dann meist die schnellere Hardware.
Parent - - By Eduard Nemeth Date 2020-07-20 14:30
Vielleicht spekuliert man im Stockfish Lager, dass der Gegner ja auch in Zeitnot kommt und Stockfish so dann das bessere Ende findet? Ohne eine solche Spielweise würden auf dem Server übrigens die ganz schnellen Rechner viel weniger gewinnen! Selten wird man nämlich bei normalem Spielverlauf überrechnet.
Parent - - By Lothar Jung Date 2020-07-20 14:48
Ja, das stimmt.
Das kommt nur in seltenen Fällen vor.
Die doppelte Hardwarestärke nützt nur bei großem Zeitvorsprung.
Das passiert nur bei langen Eröffnungsvarianten, bei denen der schwächere SF11-Rechner z.B. 1 Minute beim Blitz im Rückstand ist.
Meistens ist es jedoch wegen der TBs Remis.
Parent - - By Eduard Nemeth Date 2020-07-20 15:14 Upvotes 1
Neu: Experimental Netz von Sergio Vieri

https://www.comp.nus.edu.sg/~sergio-v/nnue/
Parent - - By Eduard Nemeth Date 2020-07-20 15:29
Das SV Netz macht im ersten Test einen super Eindruck.



Analysis by Stockfish NNUE halfkp-256 x64SV:

25...c4 26.Lc3 Lxe5 27.Lxe5 Sd3 28.Tdxd3 cxd3 29.Txd3 Tfd8 30.Ld6 Df7 31.Lc5 Dc7 32.Txd8+ Txd8 3
25...c4 26.Sd7 S6d5 27.exd5 Dxd7 28.dxe6 Dc6 29.Se4 Sxe6 30.Sd6 Sf4 31.Dg4 Tc7 32.Sf5 Dxg2+ 33.Dxg2 Sxg2 34.Se7+ Kf7 35.Tf3+ Ke8 36.Txf8+ Kxf8 37.Sg6+ Kf7 38.Se5+ Ke8 39.Kxg2
  = (0.28)  Tiefe: 19/34   00:00:01  10006kN
25...c4 26.Sd7 Tfd8 27.Lxf6 gxf6 28.Sxb8 Txd2 29.Dxd2 Txb8 30.Tf3 e5 31.Sf5 Dc7 32.Kh2 Td8 33.Dc1 Db7 34.Tg3+ Kh8 35.De3 c3 36.Dxc3 Se2 37.De1 Dxe4 38.Te3 Dxf5 39.Dxe2 Kh7 40.Tf3
  +/- (0.92)  Tiefe: 20/37   00:00:02  14593kN
25...Db7 26.Tf3 c4 27.Txf4 c3 28.Lxc3 Txc3 29.Txf6 Lxe5 30.Txf8+ Kxf8 31.Se2 Tc4 32.Sc1 Dc6 33.Sd3 Lc3 34.Tc2 Ld4 35.Sc5 Lxc5 36.bxc5 Dxc5
  +/= (0.40)  Tiefe: 21/43   00:00:02  18632kN
25...Db7 26.Tf3 c4 27.Txf4 c3 28.Txf6 Lxe5 29.Txf8+ Txf8 30.Lxc3 Lxc3 31.Td7 Dc6 32.Td6 Dc4 33.Dg4 Ld4 34.Kh2 Txf2 35.Txa6 Tf6 36.h4 Le5 37.Ta7 Tf4 38.Txg7+ Kf8 39.Tg8+ Ke7 40.Dh5 Txe4 41.De8+ Kf6 42.Dd8+ Kf7 43.Tf8+ Kg6
  +/- (0.84)  Tiefe: 22/46   00:00:03  25011kN, tb=11
25...Db7 26.Tf3 c4 27.Txf4 c3 28.Txf6 Lxe5 29.Txf8+ Txf8 30.Lxc3 Lxc3 31.Td7 Dc6 32.Td6 Dc4 33.Dg4 Ld4 34.Kh2 Txf2 35.Txa6 Tf6 36.h4 Le5 37.Ta7 Tf4 38.Txg7+ Kf8 39.Tg8+ Ke7 40.Dh5 Txe4 41.De8+ Kf6 42.Dd8+ Kf7 43.Tf8+ Kg6
  +/- (0.75 ++)  Tiefe: 23/17   00:00:03  26226kN, tb=116
(--)
25...Db7 26.Tf3 c4 27.Txf4 c3 28.Lxc3 Txc3 29.Txf6 Lxe5 30.Txf8+ Kxf8 31.f4 Da7+ 32.Kh1 Lxf4 33.Td8+ Ke7 34.Se2 Dc7 35.Tg8 Kf7 36.Ta8 Tc4 37.Txa6 Le5 38.Sg1 Tc1 39.Dh5+ Ke7 40.Dh4+ g5 41.Df2 Lg3 42.De3 Lf4 43.Dd4 Le5
  = (0.00)  Tiefe: 30/56   00:00:17  147MN, tb=5626

Diese Stellung mit dem richtigen Zug schon nach wenigen Sekunden mit 0.00 zu bewerten, ist schon bemerkenswert.
Parent - By Eduard Nemeth Date 2020-07-20 21:19
Dieses Netz von Sergio ist richtig gut. Beim Turnier heute blieb die Engine ohne Niederlage und kam auf den guten 8. Platz. Ich habe natürlich das Buch etwas ändern müssen (dort wo Seeschlangen zu erwarten sind ), und dann klappt es natürlich auch beim Blitzen. Gegen mehrere Superrechner (darunter auch ein Threadripper mit 64 Kernen) konnte Remis gespielt werden. Gegen eine "Bruderengine+Netz gab es einen schönen Sieg.

[Event "Wertungspartie, 5 min"]
[Site "Maschinen A"]
[Date "2020.07.20"]
[Round "?"]
[White "Stockfish NNUE Sergio Vieri"]
[Black "SF NNUE halfkp-256 "]
[Result "1-0"]
[ECO "C67"]
[WhiteElo "2594"]
[BlackElo "2588"]
[Annotator "0.06;-0.33"]
[PlyCount "165"]
[EventDate "2020.07.20"]
[SourceTitle "playchess.com"]
[TimeControl "300"]

{SF NNUE halfkp-256 090720 x64. (16 threads): 31.4 plies; 9.591kN/s AMD Ryzen
7 2700 Eight-Core Processor     , (8 cores, 16 threads), SolistaMatch.ctg,
2048 MB} 1. e4 {B 0} e5 {B 0} 2. Nf3 {B 0} Nc6 {B 0} 3. Bb5 {B 0} Nf6 {B 0} 4.
O-O {B 0} Nxe4 {B 0} 5. d4 {B 0} Nd6 {B 0} 6. Bxc6 {B 0} dxc6 {B 0} 7. dxe5 {
B 0} Nf5 {B 0} 8. Qxd8+ {B 0} Kxd8 {B 0} 9. Nc3 {B 0} Bd7 {B 0} 10. Rd1 {B 0}
Kc8 {B 0} 11. Ng5 {B 0} Be8 {B 0} 12. b3 {B 0} a5 {B 0} 13. Bb2 {B 0} Be7 {B 0}
14. Nge4 {B 0} b6 {B 0} 15. Rd3 {B 0} h5 {B 0} 16. a4 {B 0} Kb7 {B 0} 17. Rad1
{B 0} h4 {B 0} 18. h3 {B 0} c5 {B 0} 19. Nd5 {B 0} Bc6 {B 0} 20. c4 {B 0} Raf8
{B 0} 21. Rf1 {B 0} Rd8 {B 0} 22. Rfd1 {B 0} Rd7 {-0.33/28 9} 23. Rf3 {B 0 (f4)
} Rh5 {0.00/37 6} 24. g4 {B 0} hxg3 {0.00/41 3} 25. Nxg3 {B 0} Nxg3 {0.00/42 3}
26. fxg3 {0.06/34 12} Bd8 {0.00/45 0} 27. Kh2 {0.20/35 7} Rh7 {0.00/45 0} 28.
Rdf1 {0.26/33 9 (Rff1)} g6 {0.00/37 32} 29. Rd3 {0.41/36 0} Be7 {0.18/33 10
(Kc8)} 30. Rfd1 {0.53/31 8} Kc8 {0.33/35 15 (Lg5)} 31. Bc1 {0.47/35 23 (Ba1)}
Bd8 {0.61/32 6 (Th5)} 32. Re1 {0.45/33 6 (Bd2)} Kb7 {0.53/33 10 (Lb7)} 33. Kg2
{0.89/29 10 (Red1)} Rh8 {0.78/30 36 (Le7)} 34. h4 {1.04/29 7} Kb8 {0.89/28 0}
35. Bf4 {1.20/27 5 (Bb2)} Rg8 {0.86/27 4} 36. Kf2 {1.33/31 6 (Kf3)} Kc8 {
0.94/32 16 (g5)} 37. Ree3 {1.29/33 22} g5 {1.41/30 0} 38. hxg5 {1.34/35 3} Bxg5
{1.34/33 0} 39. Re1 {1.24/35 4} Bd8 {1.36/31 3} 40. Rh1 {1.21/35 1} Bb7 {
1.41/31 3 (Te8)} 41. Rdd1 {1.41/34 6 (Rh7)} Kb8 {1.49/29 4 (Lc6)} 42. Rh7 {
1.33/34 5} Bc6 {1.49/30 3} 43. Rd2 {1.58/34 11 (Rhh1)} Kb7 {1.38/40 9 (Kc8)}
44. Rh6 {1.33/35 18 (Kf3)} Bg5 {1.37/30 5} 45. Rh5 {1.37/33 2 (Rh7)} Bd8 {
1.68/30 3} 46. Ke3 {1.29/35 6 (Rh6)} Re8 {1.79/33 9} 47. Kf2 {1.41/35 6 (Rh7)}
Ka7 {0.98/27 3 (Tg8)} 48. Rh7 {1.48/33 8} Bb7 {1.89/30 1} 49. g4 {1.66/29 1}
Bc8 {2.09/33 16 (Lc6)} 50. g5 {1.81/28 2} Kb7 {1.66/32 5 (Ka6)} 51. Rg7 {
2.15/28 8 (Kg3)} c6 {2.76/30 15} 52. Nf6 {1.86/40 0} Rxd2+ {2.76/32 1} 53. Bxd2
{1.86/41 2} Rxe5 {2.76/35 0} 54. Rxf7+ {1.86/41 1} Re7 {2.76/37 0} 55. Rf8 {
1.86/43 1} Bc7 {2.76/38 0} 56. g6 {1.86/45 4} Be5 {2.76/40 0 (Ld6)} 57. Bh6 {
2.77/29 10 (Kf3)} Be6 {2.76/32 1} 58. Kf3 {2.77/25 1} Bb2 {2.80/36 0 (b5)} 59.
Ne8 {3.21/26 5 (g7)} Rd7 {2.68/26 1} 60. Bf4 {3.04/28 2} Rd3+ {3.72/31 8} 61.
Ke4 {3.44/31 1} Rd4+ {3.97/26 0} 62. Ke3 {3.66/29 3} Rd7 {3.92/27 1} 63. Nd6+ {
3.44/32 3} Ka7 {4.50/28 0} 64. Ke4 {3.95/25 0} Re7 {4.42/28 1} 65. Bg5 {
4.07/27 1} Rd7 {4.88/29 1} 66. Nf5 {4.30/28 4} Rd1 {5.00/29 2} 67. Re8 {
4.44/25 1} Bxf5+ {5.58/31 6 (Ld7)} 68. Kxf5 {4.67/26 1} Rf1+ {5.87/30 0} 69.
Bf4 {5.00/25 1} Ka6 {6.69/31 7 (b5)} 70. Kg4 {5.89/23 2 (Re4)} Rg1+ {4.43/24 1}
71. Bg3 {7.12/27 1 (Kf5)} Bc3 {7.10/27 5} 72. Re3 {8.10/29 0} Bg7 {8.05/25 1
(Ld4)} 73. Re1 {8.67/25 1} Rg2 {9.96/24 1} 74. Kf3 {9.11/26 1} Rd2 {10.55/29 2}
75. Be5 {9.58/26 0} Bf8 {10.73/25 0} 76. Rh1 {10.07/25 1 (Rf1)} b5 {11.76/27 4
(Td3+)} 77. Rh8 {10.89/30 2} Rd1 {13.05/27 1} 78. Rxf8 {11.21/28 0 (Kf2)} Rf1+
{12.61/27 1} 79. Ke4 {11.62/32 0} Rxf8 {14.70/26 1} 80. g7 {11.99/26 0} Rd8 {
15.92/30 3 (Te8)} 81. Bf6 {13.82/29 2 (Kf5)} Re8+ {12.31/21 1 (Tc8)} 82. Kf5 {
153.78/27 1} Kb7 {16.00/28 0} 83. Kg6 {153.97/34 0 (Lag: Av=0.34s, max=1.0s)}
1-0
Parent - - By dkappe Date 2020-07-19 19:21 Upvotes 1
Diese nnue Netze sind recht einfach. Das ist etwas was eine Funktion approximieren kann. Bei Tiefe 8 sieht diese Funktion noch recht friedlich aus, aber bei Tiefe 20 ist es schon ein bisschen wilder. Da ist so ein Netz etwas überfordert (sowas wie x^2 mit ax + b zu approximieren). Man kann dann ein etwas größeres Netz nehmen, aber das läuft dann auch langsamer, und verlangt bedeutend mehr Training Dateien, und hat seine eigene obere Grenze was such Tiefe angeht.
Parent - - By Lothar Jung Date 2020-07-19 20:19
Würde da anstatt blas, nicht ein CUDA oder DX12 backend für mehr Geschwindigkeit sorgen?
Parent - By dkappe Date 2020-07-19 20:33 Upvotes 1
Diese nnue Netze sind sehr effizient. Wenn sich nur ein kleiner Teil der Stellung ändert, muss man nur einen winzigen Teil des Netzes neue berechnen. Man könnte massiv parallel arbeiten mit einem GPU, aber das wird ein wenig kompliziert. CPUs werden sowieso für solche kleinen lineare Algebra Probleme laufend besser.

Blas wird übrigens nur beim trainieren benutzt.
Parent - - By Jörg Oster Date 2020-07-18 20:06 Upvotes 1
Tiefe 13 ist für den Anfang ziemlich ehrgeizig!

Ich taste mich erstmal ran und trainiere erstens das kleine Netz,
und zweitens nur mit geringer Suchtiefe erzeugten Trainingsdaten.

Das geht relativ flott und man kann erstmal ein wenig rumprobieren.

Tipp: Beim Generieren der Trainingsdaten "use_draw_in_training_data_generation 1" nicht vergessen,
        und beim Lernen "use_draw_in_training 1 use_draw_in_validation 1" setzen.

Übrigens hat Herr Noda (nodchip) im Fishcooking Forum mal geschätzt,
dass das kleine k-p-256x2-32-32-Netz ca. 2 Millionen fens pro Iteration benötigt,
während das größere halfkp_256x2-32-32-Netz derer 150 Millionen braucht.

Aber ich denke, da ist evtl. Spielraum nach unten vorhanden.
Parent - - By Thomas Zipproth Date 2020-07-21 19:11
Läßt sich abschätzen wie lange z.B. ein Training mit 100M Positionen Tiefe 8 und 1M Validierungs Positionen auf einem Quad Core ungefähr dauert?
Oder läßt sich anhand des Outputs erkennen wie der Fortschritt ist?

Bei mir läuft das Training bis jetzt 5 Stunden.

Code:
learn evalsave training\100MDepth8.bin loop 100 batchsize 1000000 use_draw_in_training 1 use_draw_in_validation 1 eta 1 lambda 1 eval_limit 32000 nn_batch_size 1000 newbob_decay 0.5 eval_save_interval 250000000 loss_output_interval 1000000 mirror_percentage 50 validation_set_file_name validation\val.bin


Aktueller Output:

Code:
INFO: observed 40995 (out of 43979) features
INFO: (min, max) of pre-activations = -5.44397, 3.72604 (limit = 258.008)
INFO: largest min activation = 0, smallest max activation = 0.436672
INFO: largest min activation = 0, smallest max activation = 0.158755
INFO: largest min activation = 0, smallest max activation = 0.171944
PROGRESS: Tue Jul 21 19:08:58 2020, 347000003 sfens, iteration 347, eta = 1, hirate eval = 200
Parent - - By Jörg Oster Date 2020-07-21 21:22
Da erhälst du auf discord https://discord.com/channels/435943710472011776/718853716266188890
sehr wahrscheinlich kompetentere Auskunft.
Achten muss man wohl auf die "test_cross_entropy", die kleiner wird, wenn das Netz lernt.
Was die "move_accuracy" und die"loss" angeht, spekuliert man wohl mehr oder weniger.

Soweit ich weiß, wurden schon Netze mit mehreren hundert bis über 3.000 Iterationen trainiert.
Allerdings bin etwas skeptisch was das wiederholte Nutzen der selben Trainingsdaten angeht: Stichwort overfitting.

Auch habe ich heute festgestellt, dass ein kleines Netz mit castling rights und en-passant (k-p-cr-ep_256x2-32-32) nicht funktioniert.
Obwohl mir auf Nachfrage bestätigt wurde, dass es das sollte.
Und ehrlich gesagt, würde es mich nicht wundern, wenn in dem teilweise doch sehr unübersichtlichen Code
noch der ein oder andere Bug lauert ...

Auf der anderen Seite sind die bisher erfolgreichsten Netze ja sehr vielversprechend. 
Parent - - By Peter Martan Date 2020-07-21 22:05
Jörg Oster schrieb:

Auf der anderen Seite sind die bisher erfolgreichsten Netze ja sehr vielversprechend. 

Und ist jetzt das Reinforcement- Learning bei den SV- NNUE- Netzen

https://www.comp.nus.edu.sg/~sergio-v/nnue/

wieder was Neues, oder eh schon ein alter Hut?

Und wieso alle 5 Stunden neu?
Ist das ein laufendes Training, das immer weiter fortschreitet?
Parent - - By Jörg Oster Date 2020-07-21 22:57
Ja.
Es wird ein neues Netz trainiert, mit diesem Netz werden dann neue Trainingsdaten generiert,
was dann nach neuerlichem Training wieder zu einem neuen Netz führt, usw.
Parent - By Peter Martan Date 2020-07-21 23:07
Danke, und hast du schon eine Vorstellung davon, was das bringt?

im Sinne einer praktischen Anwenderfrage, ab wann würdest du das nächste Mal eins runterladen, um zu schauen, ob sich was verbessert hat?

Oder hört er damit dann eh irgendwann wieder auf, wenn er meint, jetzt reicht's aber, und was glaubst du, wann das sein wird?

Ich weiß schon, ich sollte das auf Discord fragen, wenn überhaupt.
Parent - By Thomas Zipproth Date 2020-07-23 00:05
Ich habe das Training jetzt mal 24 Stunden laufen lassen, dabei wurden 11 NN-Zwischenergebnisse abgespeichert.
Das Ergebnis des elften nn.bin war -180 Elo zu SFdev, im Vergleich zu +28 des bisher besten Netzes gekkehenker2020-06-27.

Mit 100 Millionen Stellungen depth 8 und 24 Stunden Rechenzeit auf einem Quadcore kann man wohl keinen Blumentopf gewinnen.
Ich vermute man braucht doch 1 Milliarde Stellungen wie das gekkehenker NN und einen viel schnelleren Rechner bzw. mehr Zeit.
Und evtl. gibt es ja auch noch optimierte Learn Einstellungen.
Parent - - By Jörg Oster Date 2020-07-26 19:12 Upvotes 1
Eine kleine Randnotiz.

Ein erstes experimentelles Netz, trainiert mit 40,000,000 fens, hat schon gelernt,
dass 3 gleichfarbige Läufer (Stellung im Stockfish bench enthalten) nicht zum Matt führen.
Stockfish gibt hier meistens eine Bewertung so um +12.

Fen: 8/3k4/8/8/8/4B3/4KB2/2B5 w - - 0 1

Code:
Position: 38/47
info depth 1 seldepth 1 multipv 1 score cp 325 nodes 21 nps 21000 tbhits 0 time 1 pv c1b2
info depth 2 seldepth 2 multipv 1 score cp 331 nodes 83 nps 83000 tbhits 0 time 1 pv c1b2 d7c6
info depth 3 seldepth 3 multipv 1 score cp 332 nodes 606 nps 303000 tbhits 0 time 2 pv c1b2 d7c6 e3f4
info depth 4 seldepth 5 multipv 1 score cp 331 nodes 1605 nps 401250 tbhits 0 time 4 pv e3h6 d7e6 c1f4 e6f5
info depth 5 seldepth 6 multipv 1 score cp 330 nodes 2062 nps 515500 tbhits 0 time 4 pv c1b2 d7c6 e3f4 c6b7 b2f6
info depth 6 seldepth 6 multipv 1 score cp 329 nodes 2565 nps 513000 tbhits 0 time 5 pv c1b2 d7c6 e3f4 c6b5 e2d3 b5b4
info depth 7 seldepth 8 multipv 1 score cp 332 nodes 5146 nps 514600 tbhits 0 time 10 pv e3h6 d7d6 c1f4 d6c6 e2d2 c6b7 f2c5 b7c6
info depth 8 seldepth 9 multipv 1 score cp 339 nodes 8227 nps 548466 tbhits 0 time 15 pv e2d3 d7c6 d3d4 c6b5 d4d5 b5b4 d5d6 b4c4
info depth 9 seldepth 10 multipv 1 score cp 338 nodes 10286 nps 541368 tbhits 0 time 19 pv e2d3 d7c6 d3d4 c6b5 e3h6 b5b4 c1f4 b4b3 d4e5
info depth 10 seldepth 11 multipv 1 score cp 342 nodes 12068 nps 548545 tbhits 0 time 22 pv e2d3 d7c6 d3d4 c6b5 d4d5 b5b4 d5d6 b4c4 e3f4 c4d3
info depth 11 seldepth 14 multipv 1 score cp 345 nodes 19308 nps 536333 tbhits 0 time 36 pv e2d3 d7c6 d3d4 c6d6 c1a3 d6e6 a3b2 e6f5 d4d5 f5g4 d5e6 g4f3
info depth 12 seldepth 14 multipv 1 score cp 349 nodes 28730 nps 532037 tbhits 0 time 54 pv e2d3 d7c6 d3d4 c6b5 d4d5 b5b4 d5d6 b4c4 e3d4 c4b3 d4f6 b3c4 c1f4
info depth 13 seldepth 17 multipv 1 score cp 352 nodes 35948 nps 544666 tbhits 0 time 66 pv e2d3 d7c6 d3d4 c6b5 d4d5 b5b4 e3d4 b4a4 d4f6 a4b3 c1f4 b3c2 d5d6 c2d3
bestmove e2d3 ponder d7c6

Das ist zwar noch nicht perfekt, ist aber für den Anfang gar nicht mal schlecht.
Es ist insofern erwähnenswert, weil der allgemeine Tenor bei den Devs immer lautet,
dass solche Stellungen ja total praxisfremd sind und viel zu selten vorkommen, als dass dies eine Rolle spiele ...
Parent - - By Peter Martan Date 2020-07-26 20:01
Suppi!

Dass ein NN im Endspiel bessere Evals liefert als eine ansonsten gute Suche allein, das ist schon ein Novum, liegt aber natürlich daran, dass solche Stellungen, seit sie von tbs abgedeckt werden, nicht hard coded richtig bewertet werden müssen. Wurden sie, vermute ich mal, aber auch vielleicht noch nie, weil die Stellung richtig einzuschätzen, vermutlich noch nie sehr viel Elo gebracht hat.


Hingegen waren da auch die NNUE- Netze gerade eben noch keine echte Hilfe, das letzte SV- Netz, das ich heute (mittags, schon wieder überholt natürlich) heruntergeladen habe, bewertet noch mit 7.5 statt mit 12+
So zeigt das also jedenfalls, dass das Training auch fürs Endspiel echte Fortschritte macht.

Hingegen tippe ich mal, dass Dietrich Kappes Ender- Net diese Stellung auch kann, oder? Ich warte jetzt schon 10 Minuten auf einen Output, mit meiner CPU- Installation davon wird das heute wohl nichts mehr.
Parent - - By Peter Martan Date 2020-07-26 20:46 Edited 2020-07-26 20:50
Peter Martan schrieb:

, nicht hard coded richtig bewertet werden müssen. Wurden sie, vermute ich mal, aber auch vielleicht noch nie,

Also das stimmt so schon mal nicht:

8/3k4/8/8/8/4B3/4KB2/2B5 w - - 0 1

Analysis by Deep Shredder 12 x64:

1.Kd2 Kc7 2.Kc2 Kb7 3.Kb2 Ka8 4.Ka2 Kb8
  =  (0.00)   Tiefe: 7/7   00:00:01  11kN

Shredderbases waren auch keine erlaubt, hoffe, Shredder hat sie nicht heimlich genutzt.
Shredder 13 ist hingegen schon unter den zahlreichen Ahnungslosen.

Crystal zeigt dafür, dass eine wirklich gute Suche, in Hinblick auf mangelnden Fortschritt in einer Stellung, hier auch genügt:

8/3k4/8/8/8/4B3/4KB2/2B5 w - - 0 1

Analysis by Crystal 050720 64 POPCNT:

1.Led2 Kc6 2.Lde1 Kb5 3.Lb4 Kxb4 4.Le1+ Kb5
  =  (0.00)   Tiefe: 7/8   00:00:01  23kN
Parent - - By Roland Riener Date 2020-07-26 21:21
Auch Critter hat den sofortigen Durchblick:

8/3k4/8/8/8/4B3/4KB2/2B5 w - - 0 1

Analysis by Critter 1.6a 64-bit:

1.Kd3
  Die Stellung ist ausgeglichen: = (0.00)  Tiefe: 10/1   00:00:00
Parent - - By Peter Martan Date 2020-07-26 21:44
Ah, schau an, das war einer der ersten, der eine Blockade- Bewertung hatte.
Auf das hinauf hab' ich jetzt noch Chiron probiert, der das eigentlich auch können sollte, wenn man Blockage Detection Always wählt, aber leider nein.
Bist du übrigens sicher, dass Critter nicht noch irgendwo ein paar Gaviota tbs gebunkert haben könnte für den Notfall?
Parent - - By Roland Riener Date 2020-07-26 22:31
Hallo Peter

Zitat:
Bist du übrigens sicher, dass Critter nicht noch irgendwo ein paar Gaviota tbs gebunkert haben könnte für den Notfall

Ich habe noch nie irgendeine Version von EGTB installiert.

Critter bietet bei den Einstellungen:
Gaviota Tb Compress - von uncompressed bis cp4,
dann Table base usage - disable - only at root - everywhere

Bei allen kurz ausprobierten Kombinationen bleibt die 0.00 Bewertung.
Parent - - By Peter Martan Date 2020-07-26 22:38
Na, wenn du keine installiert hast, kann er auch nicht auf solche zugreifen.
Es sollte auch kein Misstrauen gegen dich oder Critter sein.

Danke fürs Probieren, ich finde schon interessant, was Engines schon viel früher konnten und dann teilweise auch wieder verlernt (aus dem Code gelöscht bekommen) haben, weil es sich im Eng-Eng-Match nicht ausgezahlt hat.
Parent - By Roland Riener Date 2020-07-27 14:31
Zusatz zu diesem Nebenthema der gleichfarbigen Läufer:

Auch Texel 1.07 zeigt sofort die 0.00 Bewertung.

Wenn ich irgendwo (Ausnahme h2 wegen der unvermeidbaren Bauernumwandlung) einen schwarzen Bauern einsetze, so bleibt Texel richtigerweise bei 0.00, Critter hingegen verliert sie und bewertet wie die anderen Engines.
Parent - - By Daniel Reist Date 2020-07-22 00:39
Hallo Thomas

Ich würde wenn ich dich wäre eher das Data Netz, welches ich gepostet
habe herunterladen.

Da hast du ja schon die Positionen für Tiefe 8.
Und danach machst du Validierungs Positionen.

Aber die benötigen sicher auch nochmals ca. 5 Stunden Zeit.

Wichtig, du lässt immer auch noch ein Netz im Ordner Eval, damit auch davon
gelernt wird.

Viel Glück.
Parent - - By Thomas Zipproth Date 2020-07-23 00:07
Danke

Bisher scheint es so zu sein, das ein Quadcore von der Rechenpower einfach nicht ausreicht (siehe post weiter oben),
Parent - - By Peter Martan Date 2020-07-23 18:07 Edited 2020-07-23 18:34 Upvotes 1
Die neuen aio (all in one) Binaries von Norman Schmidt

http://talkchess.com/forum3/viewtopic.php?p=852737#p852737

direkter Link

https://github.com/FireFather/sf-nnue/releases

funktionieren (soweit ich das beurteilen kann) recht flott, (zum Spielen sind bei meinem alten Phenom die popcnt- compiles vom 19.7. immer noch schneller, aber) zum Trainieren nützt damit sein nnue- GUI (1.4 bei mir) jetzt auch die Threads und den Hash, den man eingibt (das war bei den letzten Binaries, die ich ich probiert hatte, noch nicht so, da hat sich das immer wieder auf single core und minimalen Hash zurückgestellt.

Weiß nicht wirklich, ob das überhaupt sinnvoll ist, habe aber jetzt mal mit 24 Threads der 12x3GHz CPU einen neuen Trainingslauf gestartet und im Eval- Ordner das vorletzte SV- Netz geladen.

Bin neugierig, wie lange das dauert, und was dabei herauskommt.

Kann man das Cerebellum Light eigentlich auch zum Trainieren nehmen, so wie es ist? Wenn man's einfach in nn.bin umbenennt und in den Trainings- eval- Ordner kopiert?
Parent - - By Eduard Nemeth Date 2020-07-23 18:32
Bei mir ist diese Version ebenfalls deutlich langsamer.
Parent - By Peter Martan Date 2020-07-23 18:36
Aber zum Trainieren hast du keine schnellere, oder?
Parent - - By Daniel Reist Date 2020-07-23 19:27
Hallo Peter

Ich bin mir nicht sicher, ob es das gleiche Format ist, wie das bin Format
der Eröffnungsbücher.

Hier ist meine erste NN.Bin Datei, welche ich mit langem trainieren
gemacht habe.

Ihr könnt sie ja mal testen.

Viel Glück.

Datei von filehorst.de laden
Up Topic Hauptforen / CSS-Forum / NNUE und Netz Training
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill