Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / NNUE und Netz Training
1 2 Previous Next  
Parent - - By Peter Martan Date 2020-07-23 19:51 Edited 2020-07-23 20:32
Danke, Daniel!
Mein ehrgeiziges Projekt mit dem SV- Netz als Ausgangsmaterial ist nach ca. 3h bei 8,6 Mio Sfens.

Edit: gensfen finished nach 3,5h, 390Mb data.bin
Parent - - By Peter Martan Date 2020-07-23 23:42
Leider ist das beim Lernen selbst wieder furchtbar ins Stocken geraten. Es sind zwar 24 Threads gewählt und in der Config. angegeben, es läuft aber immer nur ein Thread mit ganz kurzen Unterbrechungen.
So wird das jetzt wieder ewig dauern oder, wie's auch schon mal war, zum Schluss wieder abstürzen.
Das nnue- GUI von Norman Schmidt schaut zwar sehr praktisch aus, funktioniert aber auch mit der neuen all in one- Binary nicht wirklich so, wie es sollte. Oder ich mache was falsch, wüsste aber wirklich nicht, was das sein sollte. Die Befehle sind vorgegeben und funktionieren ja auch, aber halt nicht mit der Anzahl an Threads, die man einstellt.
Parent - - By Peter Martan Date 2020-07-24 10:29
Teilweise Abbitte, über Nacht ist das Training zu Ende gegangen, anscheinend erfolgreich (hab' das neue Netz noch nicht getestet, aber es funktioniert).

Norman Schmidt hat mir im CCC geantwortet auf meine Anfrage, dass er das Verhalten der CPU beim Training selbst (nach der Validation), immer wieder nur kurz alle Threads zu nutzen, als normal kennt:

http://talkchess.com/forum3/viewtopic.php?p=852907#p852907

Mittlerweile gibt es schon wieder die nächsten Binaries von ihm:

https://github.com/FireFather/sf-nnue/releases/tag/07-24-2020
Parent - - By Eduard Nemeth Date 2020-07-24 13:12
Also, ich möchte nicht trainieren sondern nur damit spielen auf dem Server. Dafür ist die Engine von nodchip einfach schneller. Hier gibt es ein sehr interessantes neues 256 NN das bei mir im Analysemodus ziemlich gut ist:

https://rapidu.net/9571752717/nn.bin
(von Ribbit auf Discord)
Parent - - By Peter Martan Date 2020-07-24 13:26 Edited 2020-07-24 13:31
Danke, Eduard, zuerst muss ich jetzt das 1732 von heute von Sergio ausprobieren, den Link dorthin hast du ohnehin.

"Mein" Netz spielt, was irgendwie nicht anders zu erwarten war, weil's ja aus dem entstand, ziemlich so wie das 0511 von gestern.

Mein Weg, mir das dauernde Anlegen neuer Engines zu ersparen, sieht übrigens so aus (falls du nicht auch schon selbst auf sowas ähnliches gekommen bist), dass ich dem neu Runtergeladenen einen anderen Überordner- Namen gebe im selben Ordner wie die Binary, es selbst auf nn.bin umbenenne und dann in der .eng- Datei nur den Pfadnamen anpasse.
Damit ich es dann noch unterscheiden kann vom Ursprung her, lege ich in den Ordner noch eine Textdatei mit dem Zeitstempel und der Herkunft als Dateinamen, um auf einen Blick zu sehen, welches Netz es ist.
Parent - - By Eduard Nemeth Date 2020-07-24 13:38
So ähnlich mache ich es auch. 
Parent - - By Eduard Nemeth Date 2020-07-25 09:51 Edited 2020-07-25 09:56
Die Netze von Sergio werden ständig neu trainiert. Bringt das wirklich was und wie kann man das feststellen? Vorgestern spielte ich mit dem zu dem Zeitpunkt neustem Netz beim Online Turnier und holte mit meiner 8 Core Maschine immerhin 9,5 aus 17 (hatte 2 Runden verpasst). Mehr geht fast nicht mit meiner Maschine. Demnach kann ich so kaum feststellen ob das heutige Netz überhaupt besser ist.

Beim gestrigen Turnier spielte ich mit dem Netz von Ribbit unter Chimera (von Zug 50 an spielte Stockfish Polyglot). Das zahlte sich schon in Runde 1 aus denn mein Gegner spielte ebenfalls mit NNUE. Weit im Endspiel und bei exrem wenig Bedenkzeit, patzte die Engine meines Gegners, so wie zuvor schon einige Male auch bei mir. Bei extrem wenig Zeit (bei Spielen ohne Bonuszeit) patzt NNUE leider viel. Im weiteren Verlauf sah ich spektakuläres Schach des Ribbit-Netzes. Es war alles andere als langweilig! Mit Pech hätte ich nur 50% geholt, mit etwas Glück aber auch +3, was den alleinigen Turniersieg bedeutet hätte. Am Ende kam ich auf den geteilten ersten Platz nach Punkten. Es spielten etliche Monster mit im Vergleich zu meinen 8 Kernen und 8000 kns. Der Autor des Ribbit-Netzes (Ribbit_01) gibt sich auf Discord sehr bescheiden, das Netz hatte mich aber schon im Analysemodus überzeugt (siehe weiter oben im Thread) und nun hat sich diese Ansicht beim Turnier bestätigt. Weiter so Ribbit.
Parent - - By Eduard Nemeth Date 2020-07-25 11:57 Edited 2020-07-25 12:05
Hier gibt es eine neue Version der Engine vom 24.07.20. Sie ist bei mir tatsächlich noch einen Tick schneller als meine letzte (Im Outskirts Forum meint der Autor, 5 bis 10% schneller):

https://www.mirrored.to/files/HTWURDH4/

(verschiedene Versionen)

Für alle die Probleme mit dem Link haben, habe ich auf Filehorst.de dieselbe Datei hier hochgeladen:

https://filehorst.de/d/dIBHsBjn
Parent - - By Peter Martan Date 2020-07-25 12:25
Danke, Eduard!
Tatsächlich schneller, jedenfalls das pocnt- compile, das ich verwende, und vermutlich auch näher an SF dev., was die Patches angeht.
Damit gehen sich jetzt auch die 5 Sekunden aus, du weißt schon, bei welcher Stellung. Netz von Ribbit.
Parent - By Peter Martan Date 2020-07-25 12:48
Peter Martan schrieb:

und vermutlich auch näher an SF dev., was die Patches angeht.

https://github.com/official-stockfish/Stockfish/issues/2823
Parent - - By Peter Martan Date 2020-07-25 12:50
Peter Martan schrieb:

Netz von Ribbit.

Angeblich:
http://talkchess.com/forum3/viewtopic.php?p=853168#p853168
Parent - - By Eduard Nemeth Date 2020-07-25 14:06
Es tut mir Leid, das Netz ist mehr als gut! Konnte nicht ahnen dass sich jemand mit fremden Federn schmückt. Gekkehenker wird es bei Discord entfernen, oder hat schon.
Parent - - By Peter Martan Date 2020-07-25 15:41
Hauptsache gut.
Parent - - By Horst Sikorsky Date 2020-07-25 17:26
Peter Martan schrieb:

Hauptsache gut.



ist das Netz von Eduard und dieses 20200725-1313 identisch?
sind beide Gut aber welches ist besser.

Parent - By Peter Martan Date 2020-07-25 17:45 Edited 2020-07-25 17:58
1134 und "Ribbit" angeblich (siehe Link zum Posting von Ed Schröder) identisch.
Daher beide ziemlich gleich gut.

Lustiger Weise hatten gerade von diesem Netz Kai Laskos und Ed Schröder mit ziemlich vielen Partien herausgefunden, dass es eine Regression darstellte.

http://talkchess.com/forum3/viewtopic.php?p=852774#p852774

Hingegen schwor Michael Byrne gerade auf dieses Netz:

http://talkchess.com/forum3/viewtopic.php?p=852898#p852898
Parent - - By Detlef Uter Date 2020-07-25 17:46
gibt schon wieder ein neues!

      2051

Mann kommt da ja gar nicht so schnell hinterher!
Parent - - By Peter Martan Date 2020-07-25 17:49
Ich mach' daher jetzt mit den SV- Netzen erst mal Pause, bis er selbst aufhört mit diesem einzelnen Reinforcement- Run, oder man wieder von den Profis etwas hört, was einander nicht gegenseitig widerspricht.

Auch warte ich jetzt auf etwas von Thomas Zipproth, ich glaube, der bastelt auch an was.
Parent - - By Detlef Uter Date 2020-07-25 18:02
Naja, einmal am Tag, oder besser noch einmal alle 2 Tage,
wie bei den Stockfischen reicht doch vollkommen aus.

Ich werde zwar keine Pause machen, aber ein neues Netz
nur dann benutzen, wenn ich Zeit und lust dazu habe,
und wieder was neues testen will - gelle.
Parent - - By Peter Martan Date 2020-07-25 18:41
Detlef Uter schrieb:

Naja, einmal am Tag, oder besser noch einmal alle 2 Tage,
wie bei den Stockfischen reicht doch vollkommen aus.

Tüchtig süchtig!

Du musst bedenken, wenn das jetzt auch noch dauernd, was die Binaries angeht, an SF dev. angeglichen wird, musst du beides ständig aktualisieren, das Netz und die spielende Engine.
Und es wird natürlich nicht bei SF bleiben, die Branches scharren in den Startlöchern, Honey NNUE gibt's schon, Chi-chi (siehe den neuen Thread von Walter Eigenmann) kommt auch gerade recht, dass jemand einen NNUE- Chi-chi draus macht, dass sich komodo lange lumpen lassen wird, glaube ich auch sicher nicht und ein neuer Shredder wird sowieso schon wieder (eigentlich immer, wenn nicht gerade einer heraus gekommen ist ) lange erwartet.

Brave New World, vor allem für Tester.
Parent - By Detlef Uter Date 2020-07-25 18:47
Ach - du mein lieber mein Vater!  Hiiilfeee!     
Parent - By Thomas Plaschke Date 2020-07-25 19:00
Und wetten, dass der Eman-Programmierer und andere Clonisten auch nicht abgehängt werden wollen? Vermutlich arbeiten sich schon viele am Quellcode von SF NNUE ab.

Viele Grüße
Th. Plaschke
Parent - By Clemens Keck Date 2020-07-27 08:59
spielt echt stark.
danke für den link.
Bei einer Partie gab es ein seltsames remis im Endspiel(mit TBs) obwohl die Bewertung schon über +9.xx war.
Es gab 3 Freibauern die alle drei verschenkt wurden.

C.K.

Peter Martan schrieb:

Die neuen aio (all in one) Binaries von Norman Schmidt

<a class='ura' href='http://talkchess.com/forum3/viewtopic.php?p=852737#p852737'>http://talkchess.com/forum3/viewtopic.php?p=852737#p852737</a>

direkter Link

<a class='ura' href='https://github.com/FireFather/sf-nnue/releases'>https://github.com/FireFather/sf-nnue/releases</a>

funktionieren (soweit ich das beurteilen kann) recht flott, (zum Spielen sind bei meinem alten Phenom die popcnt- compiles vom 19.7. immer noch schneller, aber) zum Trainieren nützt damit sein nnue- GUI (1.4 bei mir) jetzt auch die Threads und den Hash, den man eingibt (das war bei den letzten Binaries, die ich ich probiert hatte, noch nicht so, da hat sich das immer wieder auf single core und minimalen Hash zurückgestellt.

Weiß nicht wirklich, ob das überhaupt sinnvoll ist, habe aber jetzt mal mit 24 Threads der 12x3GHz CPU einen neuen Trainingslauf gestartet und im Eval- Ordner das vorletzte SV- Netz geladen.

Bin neugierig, wie lange das dauert, und was dabei herauskommt.

Kann man das Cerebellum Light eigentlich auch zum Trainieren nehmen, so wie es ist? Wenn man's einfach in nn.bin umbenennt und in den Trainings- eval- Ordner kopiert?

Parent - By Clemens Keck Date 2020-07-25 10:03
Hallo Thomas

ich kann Dir via TeamViewer meine 32 core Maschine ( 2 x Intel Xeon E5 - 2697A v4 )mit 256 GB RAm ein paar Tage zur Verfügung stellen .
PM  wenn Du magst.

Clemens Keck

Thomas Zipproth schrieb:

Danke

Bisher scheint es so zu sein, das ein Quadcore von der Rechenpower einfach nicht ausreicht (siehe post weiter oben),
Up Topic Hauptforen / CSS-Forum / NNUE und Netz Training
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill