Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / SugaR NN
- - By Benno Hartwig Date 2020-07-24 06:40 Edited 2020-07-24 06:47
Und eine Engine "SugaR NN" gibt es inzwischen auch. Und bei CCRL 40/15 ist sie auch ganz weit oben in der Liste.
Weiß jemand, was es mit dieser NN-Entwicklung auf sich hat?
Hat schon jemand Erfahrungen damit?

Auf
https://www.chess2u.com/t8965-sugar
fand ich Hinweise wie
- NN section (Experimental Neural Networks inspired techniques)
- NN Persisted Self-Learning

"NN ist Hype, dann machen wir das eben auch, irgendwie!"  oder tatsächlich eine sehr interessante, neue NN-Umsetzung?
Parent - - By Walter Eigenmann Date 2020-07-24 08:52
Benno Hartwig schrieb:

Und eine Engine "SugaR NN" gibt es inzwischen auch. Und bei [url]CCRL 40/15[/url] ist sie auch ganz weit oben in der Liste.
Weiß jemand, was es mit dieser NN-Entwicklung auf sich hat?


Der Sugar-Name ist "irreführend", die Engine hat mit Neuronalen Netzwerken nichts am Hut.
Aber immerhin ein Monte-Carlo-Feature. Und ist überhaupt eine sehr interessante Spielwiese
für Setting-Basteleien:



Gruss: Walter

.
Parent - - By Martin Steinwandter Date 2020-07-24 09:31 Upvotes 2
Ist doch ALLES das Gleiche: SugarNN,RaubfishNN, Eman, BrainLearn, Shashchess
Parent - - By Walter Eigenmann Date 2020-07-24 09:48 Edited 2020-07-24 10:15
Martin Steinwandter schrieb:
Ist doch ALLES das Gleiche: SugarNN,RaubfishNN, Eman, BrainLearn, Shashchess

Eman würde ich ausnehmen, der spielt m.E. in einer anderen Liga:
https://glarean-magazin.ch/2020/06/01/computerschach-die-besten-engines-der-welt-update-31-best-chess-engines-tournament/#exkurs-eman-von-khalid-omar

Und die aktuellste Version 5.7 hat wahrscheinlich nochmals zwei, drei Dutzend Celo-Points zugelegt.
Gelistet wird die Engine allerdings weder bei CCRL noch bei CEGT, weil die Meinungen über ihren rechtlichen Status meilenweit auseinandergehen.
Aber auf den Servern wird sie jedenfalls exzessiv eingesetzt...

Gruss: Walter

.
Parent - - By Jörg Oster Date 2020-07-24 13:21 Upvotes 1
Walter Eigenmann schrieb:

Martin Steinwandter schrieb:
Ist doch ALLES das Gleiche: SugarNN,RaubfishNN, Eman, BrainLearn, Shashchess

Eman würde ich ausnehmen, der spielt m.E. in einer anderen Liga:
<a class='urs' href='https://glarean-magazin.ch/2020/06/01/computerschach-die-besten-engines-der-welt-update-31-best-chess-engines-tournament/#exkurs-eman-von-khalid-omar'>https://glarean-magazin.ch/2020/06/01/computerschach-die-besten-engines-der-welt-update-31-best-chess-engines-tournament/#exkurs-eman-von-khalid-omar</a>

Und die aktuellste Version 5.7 hat wahrscheinlich nochmals zwei, drei Dutzend Celo-Points zugelegt.
Gelistet wird die Engine allerdings weder bei CCRL noch bei CEGT, weil die Meinungen über ihren rechtlichen Status meilenweit auseinandergehen.
Aber auf den Servern wird sie jedenfalls exzessiv eingesetzt...

Gruss: Walter

.


Aus dem verlinkten Artikel

Zitat:
„Eman ist jetzt ein ganz anderes Programm“


You made my day! ROFL!!!     
Parent - By Walter Eigenmann Date 2020-07-24 16:32
Jörg Oster schrieb:
„Eman ist jetzt ein ganz anderes Programm“
You made my day! ROFL!!!     

Na ja, der Eman-Autor K. Omar wird sich gesagt haben: "Klingeln gehört zum Geschäft".
Wobei "Geschäft" nicht das richtige Wort ist: Er verteilt seine Engine ja gratis.

Und rein schachlich ist es erst recht nicht nur Geklingel, sondern handfester Überflug.
Nicht umsonst gehört Eman zu den beliebtesten Engines auf den Servern.

Da wurde offenbar gegenüber Stammvater Stockfish durchaus massiv nachgebessert...
Nur drei Aufgaben hier, die - soweit ich weiss - von vielen Engines nicht gelöst werden, von Eman aber in Sekundenschnelle:



Tee8 !

[Event "R. Becker 2008"]
[Site "?"]
[Date "????.??.??"]
[Round "?"]
[White "Godzilla Endgame Chess Puzzles (3)"]
[Black "T&T vs S&S&B"]
[Result "*"]
[Annotator "W.Eigenmann & Comp-Analyse"]
[SetUp "1"]
[FEN "R7/8/p3R3/3p4/5n2/K7/4P3/4kn2 w - - 0 1"]
[PlyCount "17"]
[SourceTitle "www.glarean-magazin.ch"]
[Source "W. Eigenmann"]
[SourceDate "2020.02.09"]
[SourceVersion "1"]
[SourceVersionDate "2020.02.09"]
[SourceQuality "1"]

1. Ree8 $3 (1. Rexa6 $2 d4 2. Rh8 (2. Kb4 Kxe2 $11) (2. Rh6 Nxe2 $11) 2... Nxe2
$11 (2... Ne3 3. Kb4 Kxe2 $11)) (1. Rf6 $2 Nxe2 $11) (1. Rh6 $2 Nxe2 $11) 1...
d4 (1... Ng3 2. e3 Nd3 3. Rad8 Ne4 (3... Nf2 4. Rxd5 $18) 4. Rxd5 $18) (1...
Nxe2 2. Rad8 $18) 2. Rad8 Ne3 (2... Ng3 3. Rxd4 Nfxe2 4. Kb3 $18) 3. Rxd4 Nc2+
4. Ka2 Nxd4 (4... Nxe2 5. Rde4 $18) 5. e3 Ke2 6. Re5 a5 7. Kb1 a4 (7... Nc6 8.
exf4+ $18) 8. Ka2 Nc6 9. exf4+ $18 *

______________________________________



g4 !

[Event "DeLimburg 1900"]
[Site "?"]
[Date "????.??.??"]
[Round "?"]
[White "ERET 027"]
[Black "Zugzwang"]
[Result "*"]
[Annotator "Walter Eigenmann"]
[SetUp "1"]
[FEN "8/3Pk1p1/1p2P1K1/1P1Bb3/7p/7P/6P1/8 w - - 0 1"]
[PlyCount "15"]
[SourceTitle "ERET Engine Test"]
[Source "www.glarean-magazin.ch"]
[SourceDate "2017.03.01"]
[SourceVersion "1"]
[SourceVersionDate "2017.03.01"]
[SourceQuality "1"]

1. g4 (1. g3 $2 Bxg3 2. Kxg7 Be1 $11) (1. Kf5 $2 Bf6 2. Kg4 Kd6 $11) (1. Kg5 $2
Bf6+ $11) 1... hxg3 (1... Bd4 2. Kg5 Bf6+ 3. Kh5 Kf8 4. g5 Bd8 5. Kxh4 $18) 2.
h4 Bf6 3. h5 Be5 (3... Bh4 4. Kxg7 $18) (3... Bc3 4. Bg2 $18) 4. Bg2 Bc3 5.
d8=Q+ Kxd8 6. Kf7 Bb4 7. Bh3 Bd6 8. Kxg7 $18 *

_________________________________



Tg6 !

[Event "V. Iotov - L. Neagu, Corr 2014"]
[Site "?"]
[Date "????.??.??"]
[Round "?"]
[White "The Engine Crackers 009"]
[Black "www.glarean-magazin.ch"]
[Result "*"]
[Annotator "Walter Eigenmann & Computer"]
[SetUp "1"]
[FEN "4nr1k/pp1r2p1/5p1p/2p1PR2/P1B3RQ/3P4/2P3KP/q7 w - - 0 37"]
[PlyCount "9"]
[SourceTitle "Glarean Magazin"]
[Source "W. Eigenmann"]
[SourceDate "2020.06.13"]
[SourceVersion "1"]
[SourceVersionDate "2020.06.13"]
[SourceQuality "1"]

37. Rg6 $1 (37. Qg3 $6 b6 38. Rh4 Qc1 39. Rf1 Qxc2+ 40. Rf2 Qc1 41. Qg6 Rd4 42.
e6 Rxh4 43. e7 Rf7 44. Bxf7 Qe1 $16) 37... Kh7 (37... Qc1 38. Qg3 Qb2 39. Bb5
Rd5 (39... Qxc2+ 40. Rf2 Qb3 41. Bc4 $18) (39... Rdf7 40. Bxe8 Rxe8 41. exf6
Qd4 (41... Rxf6 42. Rfxf6 $18) 42. fxg7+ Rxg7 43. Rxh6+ Kg8 44. Rg6 $18) 40.
Bxe8 Qxc2+ 41. Rf2 Qxd3 42. Qxd3 Rxd3 43. Bb5 $18) (37... Qxa4 38. Rxh6+ gxh6
39. Qxh6+ Rh7 40. Qxf8# $18) 38. Be6 Rc7 (38... Rd4 39. Qg3 Qxa4 40. Kg1 Rd8
41. Rfxf6 Rxf6 42. exf6 Nxf6 43. Rxf6 $18) (38... Qd4 39. Rg4 $18) 39. Rh5 Qc1
40. Bf5 Kg8 (40... Qd2+ 41. Kh3 $18) 41. Rhxh6 $18 *

Letzteres ist der 9. Engine Cracker:
https://glarean-magazin.ch/2020/06/12/computerschach-the-engine-crackers-knacknuesse-fuer-schach-programme-hard-chess-puzzles/

Gruss: Walter

.
Parent - - By Peter Martan Date 2020-07-24 10:47 Edited 2020-07-24 10:59
Walter hat's schon geschrieben, das war noch vor SF NNUE, da hat Marco Zerbinati mit dem Lerncode von Kelly Kinyama ein paar von seinen Fischen (SugaR und MZFish) ausgestattet, dann kam Andrea Manzo mit BrainLearn und ShashChess mit dieser Option, im Wesentlichen werden Hasheinträge in einer Lerndatei (experience.bin) abgespeichert beim Entladen der Engine und wieder geladen beim Neustart. Es gab für SF sowas ähnliches ja auch schon vor ein paar Jahren, hieß SF PA (persisted analysis), Jeremy Bernstein hat den damals programmiert, ich fand das auch sehr nützlich, von Shredder, Hiarcs und Houdini (bis Version 4) kannte man es ja auch schon lange.

Nachdem er eingestellt worden war, hat Zerbinati auch diesen SF PA wiederbelebt später, dann kam der Kinyama- Code.
Bald nach SugaR "NN" und BrainLearn war auch schon Eman da von Khalid Omar.

Im CCC hat Andrea Manzo geschrieben, der seinen Engines BrainLearn und ShashChess in der letzten Zeit auch wieder häufiger Updates gemacht hat, als SF NNUE so richtig aufkam, er plane auch BrainLearn NNUE mit sowohl bekannter Lerndatei experience.bin, als auch auch echter NN- Nutzung ala SF NNUE. ich persönlich bin da schon wieder sehr neugierig drauf, weil für jede neue Fernschachpartie ein neues NNUE- Netz zu generieren ist halt schon um einiges aufwändiger, als die Engine durch Spielen und Analyse die Experience trainieren zu lassen. Auch frage ich mich schon länger, wenn neuronale Netze durch Training besser und besser werden und dadurch der Match- Erfolg immer größer wird, warum ist es nicht genau so zulässig, Lerndateien nach dem alten Muster zusätzliche Spielstärke zeigen zu lassen, Elo- wise? Während des Matches müsste man sie natürlich abdrehen, aber sonst? Experience Read Only und los!

(Fürs Fernschach nutze ich das Prinzip ohnehin auch schon ewig, aber da ist ja sowieso auch alles erlaubt und alles in Verwendung, was es so gibt. Ich habe immer noch ein paar uralte Houdini 4- Lerndateien auf dem Rechner, die verwende ich natürlich nicht mehr, weil Houdini seit Version 5 das nicht mehr nutzte, und die Engine jetzt ganz eingestellt ist, nur so aus nostalgischen Gründen.)

http://talkchess.com/forum3/viewtopic.php?p=852230#p852230

Einen Honey NNUE von Michael Byrne gibt's ja übrigens auch bereits.

http://talkchess.com/forum3/viewtopic.php?p=852580#p852580
Parent - - By Christian Paluch Date 2020-07-24 15:52
Hier ein paar schnelle Ergebnisse auf meinem Ryzen 7 2700, 3200MHz im ERET Test:
Honey XI NN - 95 Punkte
Black Diamond XI NN - 94 Punkte
Stockfish NNUE 190720 64 POPCNT - 92 Punkte
alle mit Netz 07.23-0511
ShashChess 11 64 POPCNT - 90 Punkte
Stockfish 11 64 POPCNT 87 - Punkte

Grüße Christian

P.S Das Bild der Konfiguration hier oben gehört zu Shash.
Parent - - By Walter Eigenmann Date 2020-07-24 16:01
Christian Paluch schrieb:

Hier ein paar schnelle Ergebnisse auf meinem Ryzen 7 2700, 3200MHz im ERET Test:
Honey XI NN - 95 Punkte
Black Diamond XI NN - 94 Punkte
Stockfish NNUE 190720 64 POPCNT - 92 Punkte

Eindrücklich!
War das im 2-/4-/8-/16-MV-Modus?
Halfen 5- oder 6-men-Szygys ?

Christian Paluch schrieb:
P.S Das Bild der Konfiguration hier oben gehört zu Shash.

Welches Bild meinst du?

.
Parent - - By Christian Paluch Date 2020-07-24 21:57
Das Bild welches Du oben gepostet hast. Die Persönlichkeiten Tal, Capalanca und Petrosian stehen eigentlich nur bei ShashChess zur Wahl.
Parent - - By Walter Eigenmann Date 2020-07-24 22:27
Christian Paluch schrieb:

Das Bild welches Du oben gepostet hast. Die Persönlichkeiten Tal, Capalanca und Petrosian stehen eigentlich nur bei ShashChess zur Wahl.


Nö, das sind die originalen Sugar-NN-Settings unter Fritz17, Engine vom 26.01.2020

.
Parent - - By Peter Martan Date 2020-07-24 22:48 Edited 2020-07-24 22:54
Soweit ich mich erinnere, haben am Anfang Andrea Manzo (ShashChess, BrainLearn) und Marco Zerbinati noch Einiges an Code ausgetauscht zwischen ihren Engines, Tal, Capablanca, Petrosian sind schon Original- ShashChess- Features, die haben die sonst üblichen Contempt- Eintstellungen abgelöst bei dieser Engine, die Shashin- Theorie ist ja ein Strategie- Konzept von einem russischen Meister, Alexander Shashin, Manzo hat das auf Programm- Ebene zur Material- Positions- Bewertung versucht umzusetzen.
Dass noch Anfangs dieses Jahres ein Sugar diese Shashin- Optionen hatte, kommt mir selbst etwas anachronistisch vor, ich hätte das eigentlich ein gutes Jahr weiter zurückdatiert, aber bei Zerbinatis Engines war es immer ein ziemliches Kommen und Gehen und wieder Kommen von Engine- Namen, vielleicht gab's im Jänner noch einmal ein Sugar- Revival, das ich verpasst habe.
Sugar hatte die GM- Optionen aber jedenfalls wohl auch eine Weile, "MCTS"- Score war wieder mehr was von Zerbinati, eine wirkliche MCTS- Suche war aber da auch nicht beinhaltet, soviel ich weiß, es ging mehr um eine andere Art der Eval.

Wie auch immer, dass "NN" an der Sache war das bei ShashChess, BrainLearn und SugarNN gemeinsame Hash- Lernkonzept nach dem ursprünglichen Code von Kelly Kinyama.
Parent - - By Martin Steinwandter Date 2020-07-25 07:58 Upvotes 1
Sag ich doch, ALLES das Gleiche!
Parent - By Peter Martan Date 2020-07-25 08:24
Parent - - By Peter Martan Date 2020-07-24 17:45 Edited 2020-07-24 17:50
Danke für die Tests.
Von den Byrne NNUE- Fischen warte ich noch auf non- avx2- compiles, Michael hat sie fürs WE angekündigt, diese Fische werde ich dann sicher auch wieder haben müssen.

Wenn du Lust hast, probier doch noch mal einen mit Tactica1 oder 2 (internes MultiPV=2, bzw. 4) (ich gehe davon aus, dass die neuen das auch wieder haben werden), da sollten noch ein paar Stellungen mehr gehen damit.

Übrigens ohne NNUE schafft Black Diamond Xr3 auch mehr, was ich mich jetzt nur so erinnere, hab's wohl nicht gespeichert und ich hatte wahrscheinlich mit 30"/Stellung probiert, aber da warens jedenfalls über 100 mit Tactical 2.

Auf so kurzen TCS ist das NN manchmal auch ein bisschen eine Bremse und der MV- Mode braucht natürlich auch etwas mehr time to depth.

P.S. 0511 von gestern halte ich auch für ein besonders gutes Netz, bin mir noch gar nicht sicher, ob nicht sogar besser als das heutige 1732.
Parent - - By Christian Paluch Date 2020-07-24 22:59
Hier die Ergebnisse:
Black Diamond XI NN Tactical 1 - 100 Punkte!
Honey XI NN Tactical 1 - 96 Punkte.
Beachtlich, bei so moderater Hardware wie meine. Die Einstellung Tactical 1 ist wahrscheinlich für Analyse besser geeignet, als für Turnierschach.
Schwer zu knacken waren meistens die Festungen z.B. die Stellung 93. Wahrscheinlich haben die Manöver des schwarzen Turmes die Lösung verlängert.
Honey zeigt keine Mattdistanz, sonder die Bewertung 0.00. Den Matt sieht er aber natürlich.

Grüße Christian
Parent - By Peter Martan Date 2020-07-24 23:20 Edited 2020-07-24 23:43
Christian Paluch schrieb:

Hier die Ergebnisse:
Black Diamond XI NN Tactical 1 - 100 Punkte!
Honey XI NN Tactical 1 - 96 Punkte.
Beachtlich, bei so moderater Hardware wie meine. Die Einstellung Tactical 1 ist wahrscheinlich für Analyse besser geeignet, als für Turnierschach.

100 bei 15" ist schon ganz passabel.

Über 104 kommt man dann schon nicht mehr so leicht, weil ein paar von den Stellungen sind einfach wirklich schwer.
Ich hab mir mal den Spaß gemacht, Houdini 4 die Stellungen lernen zu lassen, der hat's dann auf 109/111 gebracht, aber einen Stellungstest lernen zu lassen ist natürlich nicht sehr sinnvoll.
Es sei denn, man will wissen, mit wieviel Zeitaufwand die Engine wieviel speichert. Für meinen Begriff sind ja die neuen Experience- Dateien eher zu sparsam im Speichern, Houdini konnte man adaptieren im Treshold, der zu Einträgen geführt hat, die Kinyama- Lerndateien wachsen deutlich langsamer als die alten Lern- Files, dafür bremsen sie natürlich weniger, auch wenn mal wirklich viel Lernen drinsteckt.

MV natürlich für Analysen nützlicher als fürs Spielen mit kurzer TC, aber wie man an taktischen Teststellungen sieht, ist die Time to Depth, die er kostet, oft mehr als wettgemacht durch weniger Time to Solution und die ist in Wirklichkeit natürlich schon immer die einzig zählende.

Die Lerndatei vom SF PA (persisted analysis) war für meinen Begriff, weil auch adaptierbar, nicht im Treshold aber in der Suchtiefe, ab der gespeichert wurde, die beste, die ich kannte, nämlich halt für meinen Bedarf und für das, was SF damals konnte, jede Engine kann nur das speichern, was sie zuerst berechnet hat (und sei's auch durch Zuhilfenahme einer Super-Eval inform eines NNs).

Und ich halte zum persönlichen Gebrauch auch nichts von einer Experience für alle Eröffnungen, ich lege am liebsten für jede neue Fernpartie eine eigene neue an.
Mag sein, das ändert sich jetzt wieder mit NNUE, wenn sich ein bestimmtes Buch oder Repertoire schon mit einem eigenem Netz unterstützen ließe, könnte sich das Stellungslernen auch ökonomischer speichern lassen vielleicht. Optimaler Weise, weil in kürzerer Rechenzeit mehr relevante Einträge hinein kämen.
Up Topic Hauptforen / CSS-Forum / SugaR NN

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill