Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Komodo 11.3
1 2 Previous Next  
- - By Rainer Maikowski Date 2018-03-04 19:57
ist da!
Parent - - By Peter Martan Date 2018-03-04 20:52 Edited 2018-03-04 20:57
Danke, Rainer!
Im CCC laufen schon zwei Threads mit Beteiligung von Larry Kaufman.
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=753217&t=66736
ist der von Larry gestartete.
Parent - - By Guenter Stertenbrink Date 2018-03-05 02:16
10 Elo , genau der Durchschnitt der letzten 7 aufeinanderfolgenden Versionen

10.4 war ein etwas groesserer Sprung



A : score for my 1231 (asmFish-filtered) FCP-testpositions
B : average of C,D,E,F,G
C,D,E,F,G : rating at 5 rating lists
H : Komodo Version number
I,J,K : scores related to A , taking solution time into account

  A      B      C    D    E    F    G     H        I      J     K
------------------------------------------------------------------------
5247., 3250 , 3351,3325,3094,3236,3244,  9.42   2312639  58.4 2296998
5125., 3261 , 3356,3329,3105,3249,3268,  10     2387367  59.3 2377766
5122., 3267 , 3372,3326,3115,3255,3269,  10.1   2442237  60.6 2466892
5170., 3274 , 3365,3342,3111,3263,3291,  10.2   2446635  61.3 2401530
5015., 3277 , 3378,3339,3122,3275e,3270, 10.3   2859225  70.0 2859827
4811., 3300 , 3383,3378,3147,3288,3305,  10.4   2905071  69.1 2891391
4901., 3303 , 3393,3380,3150,3302,3291,  11.01  2923890  70.1 2959196
4700., 3319 , 3402,3402,3166,3319,3308,  11.2   2986308  69.9 2972193

Parent - - By Peter Martan Date 2018-03-05 07:30
Guenter Stertenbrink schrieb:

10 Elo , genau der Durchschnitt der letzten 7 aufeinanderfolgenden Versionen

10.4 war ein etwas groesserer Sprung

<code>

A : score for my 1231 (asmFish-filtered) FCP-testpositions
...
I,J,K : scores related to A , taking solution time into account

Kannst du die Sache mit den Scores näher erklären, Günter?
Haben die was mit Evals zu tun?
Parent - - By Guenter Stertenbrink Date 2018-03-05 11:00 Edited 2018-03-05 11:07
score = Zahl der Teststellungen in denen der "Fehler" in der entsprechenden FCP-Partie wiederholt wurde

http://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=107546
http://rybkaforum.net/cgi-bin/rybkaforum/topic_show.pl?pid=572714

aus den 5356 sind 1231 rausgefiltert, wo verschiedene asmFish Versionen unterschiedliche Zuege machten.
Das ist vermutlich der Grund warum Komodo hier besser abschneidet als asmFish
Parent - By Peter Martan Date 2018-03-05 12:18
Verstehe, erinnert etwas an den double blind test von Marco Costalba, der hat dann noch ein automatisches Zurücknehmen des Lösungszuges und den entsprechenden Evalsprung danach gewertet.
Parent - - By Thorsten Czub Date 2018-03-05 11:35
10 elo. Da kann ich den Computer auch vom Boden auf den Tisch heben und habe auch 10 elo mehr
Parent - - By Peter Martan Date 2018-03-05 12:15
Parent - - By Frank Quisinsky Date 2018-03-05 13:25
Hallo zuammen,

finde das gar nicht lustig.
Streng genommen sind es nur 7.7 Elo.

Musste mal gesagt werden!

Gruß
Frank

Ist doch gut wenn Programme weiter entwickelt werden.
Elo ist bei den hohen Spielstärken eher nebensächlich.
Parent - - By Damir Desevac Date 2018-03-05 14:19
und das ding kostet gerade 100 dollars für ein ganzes Jahr. 7 elo für 5-6 Monaten.... Wieviel elo man macht sollte man auch dafür zahlen. 100 dollars für nur 7 elo ist einfach zu viel. Komodo ist nicht des Geld wert.
Parent - - By Frank Quisinsky Date 2018-03-05 14:34
Hi,

für mich stellt sich nicht die Frage nach Elo.
Ob 3.000 oder 3.500 ... haben eh keine Chance.

Eher was im Detail verbessert wurde.
Elo wird immer unwichtiger.

Kann mit bloßer Elo einfach nichts anfangen.
Sehe aus Elo gar nichts bis auf die Gesamtspielstärke.

Die Gesamtspielstärke ist nur ein Punkt von vielen!!

Gruß
Frank
Parent - - By Guenter Stertenbrink Date 2018-03-06 00:03
da stehst du allein auf weiter Flur
Parent - By Frank Quisinsky Date 2018-03-06 06:53
Hallo Guenter,

vielleicht bei den Elo Freaks?!

Gibt viele andere die sich zurückziehen aus solchen Diskussionen.
Wie ich finde völlig zu Recht.

Elo ist nicht alles wenn der Schwellwert erreicht wurde.

Gibt x andere Teilbereiche bei denen die Entwicklung steht und die meines Erachtens interessant sind.
Meine die Zeit hierfür zu verwenden.

z. B. eine wirklich gute Abstufung an Elo.
Spielstile nach einem logischen Muster zu entwickeln ohne das der Eindruck erweckt wird spekulativer Natur zu sein.

Gruß
Frank

Schreibe nie wenn Du von etwa nicht überzeugt bist, das andere die es sind alleine damit dar stehen.
Das kannst Du nicht beurteilen.
Mit solchen Ausführungen schwächt du nicht die andere Ansicht sondern stärkst diese eher.

Andere halten auch die 4. Bundesliga als deutlich interessanter als die Bundesliga.
Schreibt der Bundesliga Fan dann ... in der 4. Bundesliga wird kein Fussball gespielt macht er sich eher unbeliebt.
Parent - - By Michael Rohleder Date 2018-03-08 11:38 Upvotes 1
Nein, damit steht er ganz bestimmt nicht alleine da.

Spielstärke heisst in erster Linie Geschwindigkeit und diese ist beim analysieren und Fernschach eher nebensächlich.

Viel wichtiger ist, wieviel die engine von der Stellung "versteht" und mit welchen "Plänen" weiter gespielt wird.

Ich erlebe mit komodo zB immer wieder, dass er in Endspiele mit ungleichfarbige Läufer abwickeln will, weil er diese
mit +0.3 oder so bewertet, wo Du als Mensch nur denkst "was fürn Quatsch, das ist tot remis, auch mit nem Bauern mehr".
Meiner Meinung nach ein echtes leak bei komodo (evtl. das grösste).

Ich würde als komodo Fan eine Version sofort kaufen, wo das abgeschwächt/behoben ist, selbst wenn dabei elo flöten gehen.

Oder bei stockfish finde ich die Bewertungen meistens schwer zu interpretieren, denn sie pendeln (nach wie vor, auch wenn das
in den letzten Jahren immer besser geworden ist) nahe bei 0.0 herum. Für Spielstärke ist das nicht tragisch, hauptsache die richtigen
Züge werden gespielt. Fürs Analysieren ist die Bewertung aber wichtiger, weil man Züge (bzw Varianten) miteinander vergleichen möchte...

Ich bin mir sicher, dass (kommerzielle) engine Entwickler sich viel mehr auf features statt auf elo konzentrieren sollten, denn die elo
Gewinne werden immer schwerer zu erreichen.

Wie wäre es zB mit den (alten) Ideen bzgl. persistant hash, den es zB bei rybka (und anderen) engines mal gab?

Für die Spielstärke bringt das garnix, im Gegenteil (und deshalb ist das in der sf community auch uninteressant...), aber fürs Analysieren wäre es ein Quantensprung...
(Ich versuche gerade aktuell eine PH Implementation für sf2 auf aktuellen sf code zu portieren... mal gucken was dabei raus kommt...)

Aber allein dieses Beispiel zeigt doch, dass elo nicht das wichtigste sein kann... (zumindest nicht für alle Anwender...)
Parent - By Tom Paul Date 2018-03-08 17:50
Michael Rohleder schrieb:

Nein, damit steht er ganz bestimmt nicht alleine da.

Spielstärke heisst in erster Linie Geschwindigkeit und diese ist beim analysieren und Fernschach eher nebensächlich.

Viel wichtiger ist, wieviel die engine von der Stellung "versteht" und mit welchen "Plänen" weiter gespielt wird.

Ich erlebe mit komodo zB immer wieder, dass er in Endspiele mit ungleichfarbige Läufer abwickeln will, weil er diese
mit +0.3 oder so bewertet, wo Du als Mensch nur denkst "was fürn Quatsch, das ist tot remis, auch mit nem Bauern mehr".
Meiner Meinung nach ein echtes leak bei komodo (evtl. das grösste).

Ich würde als komodo Fan eine Version sofort kaufen, wo das abgeschwächt/behoben ist, selbst wenn dabei elo flöten gehen.

Oder bei stockfish finde ich die Bewertungen meistens schwer zu interpretieren, denn sie pendeln (nach wie vor, auch wenn das
in den letzten Jahren immer besser geworden ist) nahe bei 0.0 herum. Für Spielstärke ist das nicht tragisch, hauptsache die richtigen
Züge werden gespielt. Fürs Analysieren ist die Bewertung aber wichtiger, weil man Züge (bzw Varianten) miteinander vergleichen möchte...

Ich bin mir sicher, dass (kommerzielle) engine Entwickler sich viel mehr auf features statt auf elo konzentrieren sollten, denn die elo
Gewinne werden immer schwerer zu erreichen.

Wie wäre es zB mit den (alten) Ideen bzgl. persistant hash, den es zB bei rybka (und anderen) engines mal gab?

Für die Spielstärke bringt das garnix, im Gegenteil (und deshalb ist das in der sf community auch uninteressant...), aber fürs Analysieren wäre es ein Quantensprung...
(Ich versuche gerade aktuell eine PH Implementation für sf2 auf aktuellen sf code zu portieren... mal gucken was dabei raus kommt...)

Aber allein dieses Beispiel zeigt doch, dass elo nicht das wichtigste sein kann... (zumindest nicht für alle Anwender...)


Das Problem wird doch mit Stockfish Zero behoben.
Parent - - By Peter Martan Date 2018-03-08 18:22 Edited 2018-03-08 18:25
Michael Rohleder schrieb:


(Ich versuche gerade aktuell eine PH Implementation für sf2 auf aktuellen sf code zu portieren... mal gucken was dabei raus kommt...)


Du weißt aber schon, Michael, dass Jeremy Bernstein einen SF PA(-GTB für die damals noch aktuellen Gaviota-Tablebases) mit einer Lerndatei versehen hatte und Marco Zerbinati das voriges Jahr aufgegriffen hat.
Er hat dann noch einige Patches der aktuellen SF- Versionen hinzugefügt, seit Oktober 17 ist das wieder zum Stillstand gekommen offenbar, in seinem eigenen MZ-Forum kann man die jeweiligen Updates herunterladen, dort muss man aber registriert sein.

Ich glaube, es wäre der kürzere Weg, den Persistent Analysis- Code in den momentanen dev.- Stand einzubringen, ganz so einfach dürfte das aber wohl auch nicht sein, sonst hätte es schon jemand gemacht, denke ich.

Der "Persistent Hash" vom SF-PA war meiner Meinung nach schon eine Nummer besser als die bloße Speicherbarkeit des Hashes , die's ja bei einer eigenen SF- Version von Daniel Jose und auch bei asmFish schon länger gibt.
Diese Bernstein- Lerndatei war gut adaptierbar in der Menge dessen, was automatisch beim Spielen und Analysieren hinzugefügt wurde, ganz wie bei den Lerndateien von H4 (ein Jammer, dass Houdart damit auch wieder aufgehört hat), Critter und von den Shredder- Versionen bis 12. Derzeit gibt's bei aktuellen Engine- Versionen nur noch bei Hiarcs so eine Lerndatei, glaube ich.

Halte uns doch bitte auf dem Laufenden, wenn du etwas zusammenbringst, Michael, ein Hoffnungsgebiet ist das sehr wohl für sehr Viele, denke ich, ein wirklicher SF Zero auf der Basis neuronaler Netze wird meiner Meinung nach noch lange auf sich warten lassen, bis er am Stand der SF- Entwicklung von heute ist.
Parent - By Tom Paul Date 2018-03-08 18:47
Peter Martan schrieb:

Michael Rohleder schrieb:


(Ich versuche gerade aktuell eine PH Implementation für sf2 auf aktuellen sf code zu portieren... mal gucken was dabei raus kommt...)


Du weißt aber schon, Michael, dass Jeremy Bernstein einen SF PA(-GTB für die damals noch aktuellen Gaviota-Tablebases) mit einer Lerndatei versehen hatte und Marco Zerbinati das voriges Jahr aufgegriffen hat.
Er hat dann noch einige Patches der aktuellen SF- Versionen hinzugefügt, seit Oktober 17 ist das wieder zum Stillstand gekommen offenbar, in seinem eigenen MZ-Forum kann man die jeweiligen Updates herunterladen, dort muss man aber registriert sein.

Ich glaube, es wäre der kürzere Weg, den Persistent Analysis- Code in den momentanen dev.- Stand einzubringen, ganz so einfach dürfte das aber wohl auch nicht sein, sonst hätte es schon jemand gemacht, denke ich.

Der "Persistent Hash" vom SF-PA war meiner Meinung nach schon eine Nummer besser als die bloße Speicherbarkeit des Hashes , die's ja bei einer eigenen SF- Version von Daniel Jose und auch bei asmFish schon länger gibt.
Diese Bernstein- Lerndatei war gut adaptierbar in der Menge dessen, was automatisch beim Spielen und Analysieren hinzugefügt wurde, ganz wie bei den Lerndateien von H4 (ein Jammer, dass Houdart damit auch wieder aufgehört hat), Critter und von den Shredder- Versionen bis 12. Derzeit gibt's bei aktuellen Engine- Versionen nur noch bei Hiarcs so eine Lerndatei, glaube ich.

Halte uns doch bitte auf dem Laufenden, wenn du etwas zusammenbringst, Michael, ein Hoffnungsgebiet ist das sehr wohl für sehr Viele, denke ich, ein wirklicher SF Zero auf der Basis neuronaler Netze wird meiner Meinung nach noch lange auf sich warten lassen, bis er am Stand der SF- Entwicklung von heute ist.


Was meinst du mit lange?
Ich gehe von einem halben bis ganzen Jahr aus, wenn man die Hardwarepower des Frameworks verwendet.
Dann wäre der neueste Stockfish maximal 50 ELO stärker und Houdini und Komodo wären so stark wie Stockfish Zero.
Ganz zu schweigen vom dem Fortschritt den Stockfish Zero in den Monaten danach machen würde.
Parent - - By Michael Rohleder Date 2018-03-08 19:45
Vielen Dank, Peter!

Seh grad die sourcen von Zerbinati und die sind 5 Monate alt. Das spart jede Menge Zeit, von da aus nen patch zu machen, als von dem Asbach Orginal Bernstein code... Danke nochmal!

(Ist leicht OT, evtl. sollten wir nen neuen thread irgendwo anders aufmachen...)

Ich kaempf mich nun seit paar Tagen durch die Bernstein sourcen, meine c++ Kenntnisse sind (seit 20 Jahren) leicht eingerostet...
Aber ich verstehe inzwischen, was er da tut... er speichert ja nicht die ganze HT, sondern nur ganz wenige Werte... kA, ob man das nun als "Lerndatei" bezeichnen mag...
Der Vorteil ist ganz bestimmt, dass das Ding schoen klein bleibt, die Frage ist aber, wie gross die Auswirkungen dieser Werte auf die aktuelle Suche ist. (Sollte evtl. einfach mehr Erfahrung mit dem Ding sammeln, statt in den sourcen zu wuehlen

PS: Mit alpha0 usw hat das alle nu ueberhaupt garnichts zu tun... das ist nen ganz anderes Paradigma, anderer Ansatz usw...
Parent - By Peter Martan Date 2018-03-08 20:10 Edited 2018-03-08 20:42
Michael Rohleder schrieb:

Aber ich verstehe inzwischen, was er da tut... er speichert ja nicht die ganze HT, sondern nur ganz wenige Werte... kA, ob man das nun als "Lerndatei" bezeichnen mag...
Der Vorteil ist ganz bestimmt, dass das Ding schoen klein bleibt, die Frage ist aber, wie gross die Auswirkungen dieser Werte auf die aktuelle Suche ist. (Sollte evtl. einfach mehr Erfahrung mit dem Ding sammeln, statt in den sourcen zu wuehlen

PS: Mit alpha0 usw hat das alle nu ueberhaupt garnichts zu tun... das ist nen ganz anderes Paradigma, anderer Ansatz usw...


Ich kann nur Erfahrungen aus dem Stellungstesten beitragen. Da sind wie immer die taktischen Hotshots, bei denen die Engine eine Weile braucht, bis sie "findet", es sei denn, man "zeigt" ihr den kniffligen Lösungszug, dann behält sie ihn bei den klassischen "Teststellungen" gleich im Output, weil der Hash mit den richtigen Einträgen gefüllt ist.
Das funktioniert bei J.Bernstein- PA- SF ziemlich zuverlässig auch, bei Eröffnungsstellungen ist's schwerer nachweisbar, aber das Prinzip, dass Einträge, die die Eval steigen lassen, beim Wiederladen von gespeichertem Hash und von Persistent Hash ala PA-SF (bei denen von Zerbinati genau so) auch geladen werden, funktioniert auch hier. Die positionellen Stellungen haben halt nicht die Evalsprünge, auf die's vermutlich ankommt.

Der Clou muss wohl sein, dass das "Filtern" von bestimmten Treshold- Grenzen irgendwie durch die Eval- Relationen passiert, ich hab da mal mit Mark Uniacke ein paar Mails gewechselt, so wie ich ihn damals verstanden habe, geht das prinzipiell schon irgendwie so ähnlich auch bei seiner Lerndatei, wie auch immer man sie nennen will.

Bei H4 konnte man noch die Learning Treshold der Learning File eigens über UCI- Parameter einstellen, bei SF-PA ist es die Persistent Hash Depth (die Suchtiefe, ab der Einträge "gelten"), über die man die Geschwindigkeit des Wachsens beeinflussen kann, die 1024Mb maximal erreicht man bei vernünftigen Suchtiefen praktisch nie.

P.S. Dass das mit A0 alles praktisch nichts zu tun hat, ist mir wohl bewusst, dass es aber auch "funktioniert", weiß ich aus eigener Erfahrung. Was ich meinte, war nur, bis man als kleiner User eigene Erfahrungen mit dem Prinzip des Lernens über neuronale Netze wird sammeln können, die sich ähnlich positiv beim Analysieren in den Spielstärke- Bereichen der Engines, an die man halt mittlerweile gewöhnt ist, sehe ich außer bei Giraffe  derzeit nicht, und das war nicht nur "Selbstlernen", worauf  das Programm von Mattew Lai noch basiert war (Einlesen von Meisterpartien beim Lernen), siehe auch den thread im SF- Subforum zu SF Zero, was da z.B. Günter Stertenbrink so zuletzt gezeigt hat, war wenig ermutigend.
Dass Lai, der ja jetzt auch für Deep Mind arbeitet, soviel ich weiß, an Google verloren ging, ist schade, weil er damit offenbar auch zum Geheimnisträger gemacht worden ist.

Nicht, dass ich nicht auch sehr neugierig wäre, wie das weitergehen mag, man ist halt als verwöhnter User schon auch nicht mehr soo mit Geduld gesegnet, wie man in den Anfängen der Computerschachstory war, vor allem war man damals jünger.


PPS: Die "Kompliziertheit" des Lernens von Engines, wie wir sie kennen, müsste meinem geringen programmiertechnischen Verständnis nach, eigentlich bei der Lerndatei dieselbe sein wie beim Hashlernen selbst, was da an Einträgen wie sehr und wie schnell was überschreibt, dieses Hash- Aging ist ja wohl ohnehin eines der bestgehüteten Geheimnisse bei den verschiedenen Engines. Allein, was ich da so mit Mark Lefler alles per Mail gelernt habe, weil er immer wieder meinte, dass komodo bei meiner Meinung nach viel zu vielen GUI- Befehlen seinen Hash einfach löscht (z.B. auch immer noch bei 11.3 beim Wechseln der Zahl der Varianten von Single- auf Multivariant Mode) das sei kein Bug, sondern ein Feature.

Hab's bei 11.3 noch gar nicht probiert, aber bei 11.2 war's immer noch ein ziemlich kniffliges Workaround, den Hash in verschiedenen GUIs zu speichern und wieder zu laden, so, dass die relevanten Einträge dabei nicht gelöscht werden.
Parent - - By Guenter Stertenbrink Date 2018-03-09 07:23
save hash geht bei mir nicht mit asmFish in Droidfish
ich suche ein tool das eine Stellung mit eval zum hash hinzufuegt
und die Stellungen mit evals aus dem hash in Klartext printet
Parent - By Peter Martan Date 2018-03-09 07:56
DroidFish hab ich nicht.
Das Hinzufügen von Stellungen über load epd to hash hat Daniel Jose in seinem SF- Branch, ob's den aber für DroidFish gibt?
Parent - By Frank Rahde (Mod.) Date 2018-03-05 18:56
Larry also said: "In the event that we have another long interval between releases in the future, we will guarantee that any subscribers who have not received three versions in one year will have their subscriptions extended until they do receive the third version."
Parent - By guest171218 Date 2018-03-05 19:18 Upvotes 1
Hallo,

Damir Desevac schrieb:

und das ding kostet gerade 100 dollars für ein ganzes Jahr. 7 elo für 5-6 Monaten.... Wieviel elo man macht sollte man auch dafür zahlen. 100 dollars für nur 7 elo ist einfach zu viel. Komodo ist nicht des Geld wert.


wie sich die zeiten und ansprüche doch ändern oder immer verrückter werden!
früher als ich noch viele schachcomputer gekauft hatte, konnte man für 100 USD
keines der top-programme bekommen. heute kauft man ein billiges windows 10
tablet und zum beispiel komodo, zusammen für dann ca. 180 USD, und hat eines
der stärksten schachprogramme der welt samt updates für die nächste zeit!
und, noch besser, man kann auch noch jedes andere schachprogramm darauf nutzen.

Gruß Mika.
Parent - - By Benno Hartwig Date 2018-03-05 21:08

> Ist doch gut wenn Programme weiter entwickelt werden.
> Elo ist bei den hohen Spielstärken eher nebensächlich.


Woran erkennt man denn im Allgemeinen die Weiterentwicklung der Top-Engines, wenn nicht an ihren wachsenden Erfolgen, ihren steigenden Elo-Werten?
Benno
Parent - - By Frank Quisinsky Date 2018-03-05 21:30
Hallo Benno,

gibt doch vielfältige Einsatzmöglichkeiten und daraus resultierend auch Test-Methoden.

10 Elo mehr bei der Beurteilung der Gesamspielstärke?
Gegen welche Gegnerschaft?

Wo wurden die 10 Elo erzielt, zu welcher Spielphase.
Wo wurde das Programm verbesert, war es gar bei Eröffnungszügen?

10 Elo mehr ohne weitere Informationen ist so interessant als wenn in China ein Sack Reis umfällt.
Damit kann ich gar nichts anfangen.

Vielleicht werde ich anspruchsvoller aufgrund Dinge die ich selbst so mache.
Es wird schwieriger für mich interessante Infos zu finden.

Nun gut, selbst ist der Mann!

Gruß
Frank
Parent - - By Benno Hartwig Date 2018-03-05 23:52
Ich überlege gerade, ob ich mal davon las, dass die Weiterentwicklung einer Engine beklatscht wurde, obwohl gleichzeitig festgestellt wurde, dass sie dabei gar nicht stärker geworden ist.
Könnte mir ja vielleicht entfallen sein.
Benno
Parent - - By Frank Quisinsky Date 2018-03-06 06:48
Hallo Benno,

wenn z. B. der Spielstil aufregend war aber aufgrund von mehr Elo negativ beeinflusst wurde.
Da gab es unzählige Beispiele in der Vergangenheit, angefangen bei den Schachcomputern von einst.

Wir haben heute schon lange die Grenze erreicht.
Es spielt für Menschen keine Rolle mehr ob eine Engine 3.000 oder 3.500 hat.
Selbst ob eine Engine 2.500 oder 3.500 hat.
Und selbst einen Schachcomputer müssen wir abschwächen damit Menschen noch eine Chance haben.

Schon daran kannst Du erkennen wie lächerlich es ist sich bei 3.400 um 10 Elo zu unterhalten.
Die Zeiten wo wir jede Elo Verbesserung herbeigerufen haben sind vorbei.

Es wäre wesentlich interessanter wenn z. B. Engines für jede neu gefundene Hauptvariane eine komplette Analyse ausgeben.

Siehe Doku FEOBOS Projekt!
Andscacs macht das z. B. ... damit können wir mehr anfangen als mit 10 Elo.

Gruß
Frank

Wenn wir nicht langsam weg kommen vom Elo Tripp wird dieses Hobby in der Versenkung verschwinden.
Parent - - By Michael Scheidl Date 2018-03-07 12:39
Zitat:
Es spielt für Menschen keine Rolle mehr ob eine Engine 3.000 oder 3.500 hat.
Selbst ob eine Engine 2.500 oder 3.500 hat.

Eine spielstärkere Engine wird tendenziell:

1. öfter die stärksten Züge finden
2. stärkste Züge schneller finden
3. Stellungen öfter/schneller trefflicher bewerten

was auch 4. zu besseren Hauptvarianten führt. Nicht immer, aber immer öfter. Aus all dem zusammen ergibt sich der Mehrwert einer Elosteigerung für die User, insbesondere fürs Analysieren oder Enginekibitzen.

Ein schöner Spielstil manifestiert sich darin, daß Züge und Zugfolgen gewählt werden, die für das menschliche Auge attraktiv bzw. ästhetisch ansprechend sind, oder auch überraschend, besonders unterhaltsam und dergleichen mehr. Mir gefallen solche Momente immer sehr gut. Doch ich denke, der Stil einer Engine ist eine Art Metaeffekt, ein unbewußtes Ergebnis der zu Grunde liegenden Programmierung die sich - notwendiger Weise - auf Spielstärke ausrichtet und nicht auf Schönheit...

Was zum Glück in vielen Fällen kein Widerspruch ist
Parent - By Frank Quisinsky Date 2018-03-07 13:17
Hi Michael,

genau ...

Wobei sich trotz aller Lust und Liebe auf verschiedene Spielstile immer die Frage stellt:
Gibt es überhaupt Spielstile aus menschlicher Sichtweise bei Schachprogrammen auf einen extrem hohem Level?

Liegt die Spielstärke zu weit über unseren Horizont, können wir das selbst nicht mehr korrekt deuten.
Es entsteht eher der Eindruck, dass alle Bereiche gleich gut abgehandelt werden.

Viele Grüße
Frank
Parent - - By guest171218 Date 2018-03-05 19:57
Hallo,

Guenter Stertenbrink schrieb:

10 Elo , genau der Durchschnitt der letzten 7 aufeinanderfolgenden Versionen

10.4 war ein etwas groesserer Sprung

<code>

A : score for my 1231 (asmFish-filtered) FCP-testpositions
B : average of C,D,E,F,G
C,D,E,F,G : rating at 5 rating lists
H : Komodo Version number
I,J,K : scores related to A , taking solution time into account

  A      B      C    D    E    F    G     H        I      J     K
------------------------------------------------------------------------
5247., 3250 , 3351,3325,3094,3236,3244,  9.42   2312639  58.4 2296998
5125., 3261 , 3356,3329,3105,3249,3268,  10     2387367  59.3 2377766
5122., 3267 , 3372,3326,3115,3255,3269,  10.1   2442237  60.6 2466892
5170., 3274 , 3365,3342,3111,3263,3291,  10.2   2446635  61.3 2401530
5015., 3277 , 3378,3339,3122,3275e,3270, 10.3   2859225  70.0 2859827
4811., 3300 , 3383,3378,3147,3288,3305,  10.4   2905071  69.1 2891391
4901., 3303 , 3393,3380,3150,3302,3291,  11.01  2923890  70.1 2959196
4700., 3319 , 3402,3402,3166,3319,3308,  11.2   2986308  69.9 2972193

</code>


diese etwas kryptische auflistung endet mit komodo-version 11.2.
was hat dies mit der neuen komodo-version 11.3 (drei) zu tun?

Gruß MiKa.
Parent - - By Guenter Stertenbrink Date 2018-03-06 00:07
die 10 Elo

motiviere mich selber, 11.3 nun zu testen und einzufuegen.
Fuer die 5 Ranglisten-Elos dauerts aber noch ne Weile
Parent - By guest171218 Date 2018-03-06 20:00
Hallo,

bei der cegt laufen bereits die ersten tests, auf die leute
ist einfach verlass, vielen dank:
http://cegt.forumieren.com/t958-testing-komodo-11-3-x64
diesmal sieht das test-posting etwas anders aus als üblich,
es werden nur noch %-zahlen aufgelistet. weshalb?
wenn ich das alles richtig verstehe bisher, dann liegt die
neue komodo-version 11.3 etwas besser als version 11.2.2:
+0.4%, + 3.5% und +1.% zur zeit gegen die selben programme.
verstehe ich das richtig?

Gruß MiKa.
Parent - - By Klaus S. Date 2018-03-09 18:19
Guenter Stertenbrink schrieb:

die 10 Elo

motiviere mich selber, 11.3 nun zu testen und einzufuegen.
Fuer die 5 Ranglisten-Elos dauerts aber noch ne Weile

In der Ipon Rating-List wird gerade Komodo 11.3 getestet.

Im Moment steht er nach 1124 Partien bei 3276 Elo

Was sogar eine Verschlechterung gegenüber 11.2.2 (der mit  3322 gelistet ist) bedeutet.

Ich weiß daß dies eine Berechnung der Shredder-Gui ist, die sich am Ende mit Ordo noch meistens
erhöht, aber soviel das 11.2.2 übertrumpft wird ?  Bin mal gespannt.

http://www.inwoba.de/K1131.html
Parent - - By guest171218 Date 2018-03-09 19:10
Hallo,

bei der cegt steht es nach 1200 partien wohl (?) ein ganz wenig besser
für die komodo-version 11.3, so ich denn alles korrekt interpretiere?!

http://cegt.forumieren.com/t958-testing-komodo-11-3-x64

so ganz blicke ich diesmal allerdings nicht durch, es stehen nun %-zahlen
anstatt der üblichen "perf" da, bisher zumindest. und bei der ipon spielt
die komodo-version 11.3.1?

Gruß MiKa.
Parent - By Wolfgang Battig Date 2018-03-10 12:50
Ja, es spielt die 11.3.1
Ist bei der Bedenkzeit eigentlich egal, da der Bug nur "x Züge in y Minuten" betraf
Parent - By Tom Paul Date 2018-03-09 19:19
Es ist doch eine Verschlechterung in Form von ELO.
Dafür sind andere Bereiche für die Analyse besser geworden.
Wo ist das Problem?
Parent - - By Wolfgang Battig Date 2018-03-10 12:58
Einfach die Prozentwerte vergleichen (wurde hier schon x-mal geschrieben).

11.3.1 kurz vor Schluss: 77,16%
11.2.2: 78,1%

Also dürfte die neue Version hier (sehr) knapp hintendran sein, max. 10 ELO

Eine Verbesserung dürfte die Version nicht sein, aber selbst das Team hatte ja nur +10 erwartet, also quasi nix
Parent - By Thorsten Czub Date 2018-03-10 15:51
Ein Hauch von Nichts.
Parent - - By Peter Martan Date 2018-03-06 07:04 Edited 2018-03-06 07:08
Hat außer mir (und John Hartmann, siehe Link, er schreibt von chessbase15) noch jemand das Problem, dass im Fritz(14)- und im Shredder(13)- GUI die automatische Rückwärtsanalyse von Partien nicht funktioniert?
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=753351&t=66736
Parent - By Peter Martan Date 2018-03-06 11:19
- - By Guenter Stertenbrink Date 2018-03-07 11:37
mein erster Lieblingstest ist immer die Zeit, die benoetigt wird, um 13.g4 zu finden
im beschleunigten (Topalov-?) Drachen , nach
1.e4 c5 2.Nc3 Nc6 3.Nf3 g6 4.d4 cxd4 5.Nxd4 Bg7
6.Be3 Nf6 7.Bc4 O-O 8.Bb3 d6 9.f3 Bd7 10.Qd2 Nxd4
11.Bxd4 b5 12.h4 h5?

altes Notebook, 1 Thread , 32bit

Stockfish 8 : 146s
Stockfish 9 : 684s
Komodo 11.2 : >28239
Komodo 11.3 : 3813s
Houdini 5 : 248s
Houdini 6 : 475s
Parent - - By Horst Sikorsky Date 2018-03-07 16:18
Topalov - Beschl-Drachentest,  2018
r2q1rk1/p2bppb1/3p1np1/1p5p/3BP2P/1BN2P2/PPPQ2P1/R3K2R w KQ - 0 1

Analysis by Brainfish 030318 64 POPCNT:

13.0-0-0 a5 14.e5 dxe5 15.Lxe5 a4 16.Ld5 Tb8 17.Dg5 Sxd5 18.Lxg7 Kxg7 19.Sxd5 f6 20.Dd2
  +/= (0.45)  Tiefe: 13/21   00:00:00  611kN
  = (0.14)  Tiefe: 22/38   00:00:11  49345kN
13.0-0 a5 14.a3 Tc8 15.Tad1 Lc6 16.g3 Sd7 17.Se2 a4 18.La2 Se5 19.Sf4 Sc4 20.Lxc4 bxc4 21.Lxg7 Kxg7 22.Sxh5+ gxh5 23.Dg5+ Kh7 24.Dxh5+ Kg7 25.Kg2 Db6
  = (0.22 ++)  Tiefe: 23/34   00:00:14  60482kN
13.g4
  = (0.29 ++)  Tiefe: 23/36   00:00:15  68470kN
13.g4
  +/= (0.40 ++)  Tiefe: 23/36   00:00:16  69883kN
13.g4
  +/= (0.56 ++)  Tiefe: 23/36   00:00:16  73228kN
13.g4
  +/- (0.78 ++)  Tiefe: 23/37   00:00:18  80397kN
13.g4 a5 14.Lxf6 Lxf6 15.gxh5 e6 16.hxg6 fxg6 17.Dxd6 Lxh4+ 18.Ke2 Df6 19.f4 Dxf4 20.Dxf4 Txf4 21.Tad1 a4 22.Txd7 axb3 23.axb3 b4 24.Sb5 Tc8 25.Kd1 Td8 26.Txd8+ Lxd8 27.Tg1 Txe4 28.Txg6+ Kf7 29.Sd6+ Kxg6
  +/- (0.83)  Tiefe: 23/38   00:00:20  88979kN
13.g4 a5 14.Lxf6 Lxf6 15.gxh5 e6 16.hxg6 fxg6 17.Dxd6 Lxh4+ 18.Ke2 Df6 19.f4 Dxf4 20.Dxf4 Txf4 21.Tad1 a4 22.Txd7 axb3 23.axb3 b4 24.Sb5 Tc8 25.Kd1 Td8 26.Txd8+ Lxd8 27.Tg1 Txe4 28.Txg6+ Kf7 29.Sd6+ Kxg6
  +/- (0.91 ++)  Tiefe: 24/38   00:00:21  96858kN
13.g4 a5 14.Lxf6 Lxf6 15.gxh5 e6 16.hxg6 fxg6 17.Dxd6 Lxh4+ 18.Ke2 Df6 19.f4 Dxf4 20.Dxf4 Txf4 21.Tad1 a4 22.Txd7 axb3 23.axb3 b4 24.Sb5 Tc8 25.Kd1 Td8 26.Txd8+ Lxd8 27.Tg1 Txe4 28.Txg6+ Kf7 29.Sd6+ Kxg6
  +/- (0.98 ++)  Tiefe: 24/38   00:00:22  98940kN
13.g4 a5 14.Lxf6 Lxf6 15.gxh5 e6 16.hxg6 fxg6 17.Dxd6 Lxh4+ 18.Ke2 Df6 19.f4 Dxf4 20.Dxf4 Txf4 21.Tad1 a4 22.Txd7 axb3 23.axb3 b4 24.Sb5 Tc8 25.Kd1 Td8 26.Txd8+ Lxd8 27.Tg1 Txe4 28.Txg6+ Kf7 29.Sd6+ Kxg6
  +/- (1.10 ++)  Tiefe: 24/39   00:00:23  108MN

i5 3570 3cpu 8192MB
Parent - - By Horst Sikorsky Date 2018-03-07 16:28
13.a4 bxa4 14.Lxa4 a5 15.b3 Lxa4 16.Txa4 Sd7 17.Lxg7 Kxg7 18.Sd5 Sc5 19.Ta1 e6 20.Dd4+ e5 21.Df2 f5 22.exf5 Txf5 23.0-0 Se6 24.Tfd1 e4 25.Se3 Tf4 26.c4 exf3 27.g3 Tf6 28.Sd5 Sc5 29.Sxf6 Dxf6
  = (0.28)  Tiefe: 30   00:02:48  712MN
13.g4 e5 14.Le3
  +/= (0.32 ++)  Tiefe: 30   00:03:20  852MN
13.g4 e5 14.Le3
  +/= (0.53 ++)  Tiefe: 30   00:03:40  943MN

i5 3570 3cpu 8192MB

Grüße Horst
Parent - - By Guenter Stertenbrink Date 2018-03-08 02:48 Edited 2018-03-08 03:38
obwohl das Turmendspiel welches Stockfish anstrebt in der Hauptvariante

1.e4 c5 2.Nc3 Nc6 3.Nf3 g6 4.d4 cxd4 5.Nxd4 Bg7
6.Be3 Nf6 7.Bc4 O-O 8.Bb3 d6 9.f3 Bd7 10.Qd2 Nxd4
11.Bxd4 b5 12.h4 h5 13.g4 a5 14.Bxf6 Bxf6 15.gxh5 e6
16.hxg6 fxg6 17.Qxd6 Bxh4+ 18.Ke2 Qf6 19.f4 {Rh3} Qxf4 20.Bxe6+ Bxe6
21.Qxe6+ Kg7 22.Raf1 Qg3 23.Qd7+ Kh6 24.Qh3 Rxf1 25.Qxf1 Rc8 {Kg7 !?}
26.Qh3 Qxh3 27.Rxh3 g5 28.Kd3 Kh5 29.Rh1 Rd8 30.Nd5 g4
31.Ke2 Rf8 32.e5 Rf5 33.Nf6+ Kg5 34.Ne4+ Kf4 35.Rxh4 Kxe4
36.Rxg4+ Kxe5

natuerlich tod Remis ist  (37.c3 Kd5 38.a4 ist sogar +1.11 ,
aber dann schiebend [shuffling] )

oder 28.e5 Kg6 29.e6 Kf6 30.Re3 Ke7 31.Re4 Rc5 32.Kf3 g4+ 33.Kxg4 Bf6
34.Nd1 Be5 etc. mit TB sollte das auch bald Remis sein

gute Strategie, in ein schlechteres, aber remisliches Endspiel, mit wenig Material gegen Stockfish
einzulenken

--------------------------------------------------------------

After 1.e4,c5,2.Nf3,Nc6,3.d4,cxd4,4.Nxd4,g6,5.Nc3,Bg7,
6.Be3,Nf6,7.Bc4,O-O,8.Bb3,d6,9.f3,Bd7,10.Qd2,Nxd4,
11.Bxd4,b5,12.h4,h5
Komodo 10.2 found 13.g4 after 540-640 GN at depth 44,
it had previously favoured 13.a4 with an eval of +0.12-+0.18
at depth 43 it had spent 0.2GN on g2g4

Given g4, Komodo 10.2 realized an eval of > 0.39 for white
after 0.7GN at depth 27.

sf8 and ho5 found 13.g4 after a few minutes

Komodo was afraid of 13....e5,14.Be3,hxg4 , but the
white attack becomes strong immediately.
Indeed, given 13.g4,e5,14.Be3 , Komodo 10.2 goes to eval
+0.62 for white at depth 21 after 0.047GN already.

-------------------------------------------

mittlerweile nach ueber 63000s fand Komodo 11.2 ebenfalls 13.g4

-----------------------------------------------
Parent - By Horst Sikorsky Date 2018-03-08 08:53
man spielt einfach g4 und danach so gut man kann.

 
Parent - - By Benno Hartwig Date 2018-03-08 06:36
Warum interessiert dich denn gerade dieser Test so sehr, wo du doch beobachtest, dass die Mehrzhl der Top-Engines in der spielstärkeren Version mehr Zeit brauchen als in der älteren?
Gerade diese Stellung erscheint mir dann doch wenig aussagefähig zu  sein, mit Blick auf die Qualitäten, die man für ein starkes Spiel braucht.

Benno
Parent - - By Peter Martan Date 2018-03-08 22:05 Edited 2018-03-08 22:09
Benno Hartwig schrieb:

Gerade diese Stellung erscheint mir dann doch wenig aussagefähig zu  sein, mit Blick auf die Qualitäten, die man für ein starkes Spiel braucht.

Abgesehen von den Qualitäten, die man für ein starkes Spiel in genau der einen Stellung braucht, die getestet wird.

Bei dem, was du mit "starkes Spiel" vermutlich meinst, nimmst du als Teststellung einfach immer wieder die Grundstellung, weißt du, du kannst dich mittlerweile ruhig 5 bis 8 Züge weit von ihr entfernen mit deinen Teststellungen oder Büchern, von denen aus du testest, wenn du dabei das auch nach wie vor unter den Urgesteinen der  Ersteller klassischer Ranglisten unumstrittene Prinzip der "Ausgeglichenheit" deiner Startstellungen beachtest, dann hast du nämlich diese 5-8 Züge so schnell im Hash moderner Engines auch von der Grundstellung aus, also buchlos gestartet, dass du selbst bei kurzen, wenn jetzt nicht auch schon bei ultrakurzen TCs dieselben Ergebnisse kriegst, egal ob buchlos oder mit "klassischen" Testbüchern oder Testsets.

Du testest einfach immer nur die Qualitäten, die die Engines für ein "starkes Spiel" gegen andere, einander immer ähnlich werdende Engines von der Grundstellung aus brauchen.
Self fulfilling Autotuning, self fulfilling Autodevelopment. Test-Inzucht, könnte man auch sagen, nicht nur, aber in der Folge natürlich auch auf Code- Ebene, die Ursache ist aber nicht, dass der SF- Code offenliegt, das ist schon die Folge der viel früheren Ursache, dass eine Nivellierung der Engines durch die Nivellierung der Testmethoden stattgefunden hat.
Ob Bob Hyatt oder Vasik Rajlich am meisten in diese Richtung Pionierarbeit geleistet hat, ist auch eigentlich schon ziemlich egal, der eine mit offenen Sourcen, der ander mit geschlossenen, Meilensteine haben aber sicher beide in diese Richtung gesetzt, aber beide auch schon einfach als Reaktion auf die Monopolisierung der Celo und der Art, wie sie erspielt werden müssen, als Maß aller Dinge. Das SF- Framework ist die momentane Speerspitze der Entwicklung auf dieser Basis.

Soviel mal wieder zur "Overall Playing Strength", ich muss es einfach immer mal wieder etwas anders formulieren, damit es nicht sofort offensichtlich wird, dass ich seit 10 Jahren immer wieder so ziemlich dasselbe zu dem Thema schreibe.
Parent - - By Guenter Stertenbrink Date 2018-03-09 12:09
Peter M , ich weiss nicht , was du meinst, was du willst.

Teststellungen taugen nichts , man muss Partien spielen ?
Parent - - By Peter Martan Date 2018-03-09 12:27 Edited 2018-03-09 12:33
Nein, Günter, beides hat seine Berechtigung, das Stellungstesten und das Ausspielen, und beides sagt aber nur etwas über die Spielstärke in Hinblick auf die jeweils verwendeten Stellungen aus.

Hingegen werden die "herkömmlichen" Ranglistenmatches mit Testsets und Büchern, die alle grundstellungsnahe und ausgeglichen gestartet werden, immer mehr dem reinen Grundstellungsmatch ähnlich, je schneller die Engines in die Tiefe rechnen und je mehr sie das auch von der Grundstellung aus in genau die Stellungen hinein tun, die man ihnen ansonsten ein paar Züge weiter als Startstellungen vorsetzt.

Eigentlich könnten diese Matches daher genau so gut auch gleich buchlos gespielt werden.

Dass man damit dann hauptsächlich und weit überwiegend die Spielstärke von der Grundstellung aus abbildet, wird nur übereinkommensgemäß als "Overall Playing Strength" definiert, genau so gut aber eigentlich genauer gesagt, könnte man dabei auch von ausgespielten Stellungstests der Grundstellung sprechen.

Es ist schon gut, dass ich es immer wieder anders zu formulieren versuche, wie man sieht, versteht man mich immer wieder überhaupt nicht.
Parent - - By Guenter Stertenbrink Date 2018-03-09 21:35
du meinst, die wahre Spielstaerke (z.B. in Zufallsstellungen) unterscheidet sich
(stark) von der ueblicherweise in Elo gemessenen ?
Gemessen in Partien, die starten in Stellungen aehnlich der Grundstellung
Up Topic Hauptforen / CSS-Forum / Komodo 11.3
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill