Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Monte Carlo mit Fritz 15
- - By Michael Scheidl Date 2017-12-13 08:48
Aus aktuellem Anlaß habe ich die Monte Carlo-Analysefunktion von Fritz 15 ausprobiert.

i7-7700HQ ~3.4 GHz, 2 GB Hash
Grundstellung
Tiefe 5 (vermutlich 7+ intern mit Rybka)
breiter Baum, 4 Engines gleichzeitig


Nach über 42.000 Partien kam folgendes heraus:



Der Algorithmus hat für die Züge jeweils eine unterschiedliche Anzahl von Partien ausgespielt. Besondere Aufmerksamkeit widmete er 1.e3, ein bekanntlich ganz gut spielbarer, jedoch unpopulärer erster Zug. Seltsame Probleme scheint es mit 1.Sf3 gegeben zu haben; der Zug blieb knapp unter 50%. Geht man "in die Varianten", treten noch mehr Seltsamkeiten zu Tage, z.B. hat die Funktion auf 1.e4 c5 ausschließlich 2.Sc3 ausprobiert. Unter einem breiten Baum stell ich mir was anderes vor.

Fazit: Gut... aber nicht sehr
Parent - - By Robert Bauer Date 2017-12-13 09:06
Hallo Michael,

sehr interessant!

Welche 4 Engines hast Du benutzt?

Zitat:
(vermutlich 7+ intern mit Rybka)


Was meinst Du damit? Bezieht sich das auf die erste Version mit Monte Carlo, die Rybka in der GUI benutzte?

Meine Anregung wäre, Monte Carlo-Analyse durchzuführen vor den "berühmten" Zügen von AlphaZero.
z.B. vor dem Zug 21.Lg5 der 5.Partie.

Vielleicht "entzaubern" wir dann AlphaZero oder kommen ihm auf die Schliche, dass seine Partien mit weniger Hardware-Power auch nachvollziehbar wären.
Dies wäre ein erster Schritt in die richtige Richtung, nämlich erst mal zu verstehen, wie AlphaZero auf die Züge kam und ob diese ohne KI auch reproduzierbar sind.
Parent - - By Michael Scheidl Date 2017-12-13 09:46
Zitat:
Welche 4 Engines hast Du benutzt?

Viermal dieselbe das ist Teil der Funktion. Man kann nur eine M.C.-fähige Engine auswählen, und es liefen vier Instanzen der F15-Engine gleichzeitig. Außer Rybka 4+ bzw. F15 und wie ich annehme F16, ist mir keine Engine bekannt welche diese Funktion unterstützt. Mit Deep Fritz 13 geht es beispielsweise nicht. - Mit +7 meine ich daß Rybka ja intern seit jeher mehr Iterationen macht als im Output angegeben. Die Rede war von +2 bei Rybka 1 und 2, und möglicherweise +3...4 später. Das wurde beim Reverse Engineering entdeckt.

Ich fürchte, die M.C.-Funktion in F15 und die Engine sind nicht gut genug - und mein Computer schon garnicht - um eine hinreichende "Erkenntnisqualität" über A0-Züge zu liefern... aber mal schauen, ich setze das Ding auf die Position vor 21.Lg5 an. Ergebnis später.
Parent - - By Michael Scheidl Date 2017-12-13 10:49
Diese M.C.-Analyse ist gescheitert, denn trotz Einstellung auf breiten Baum hat die Funktion ausschließlich 21.b3 und 21.b4 untersucht. Ich komme zur Ansicht daß das Feature falsch programmiert ist, wenn es nicht wenigstens zum Anfang alle Züge auf eine gewisse Tiefe hin analysiert, bevor es sie verwirft. So hätte Lg5 eine Chance bekommen.
Monte Carlo schaut meines Erachtens anders aus; ich lege diesen Mist ad acta (und ärgere mich ein paar Stunden) 
Parent - - By Walter Eigenmann Date 2017-12-13 11:20
Fritzi hat ein paar tolle Funktionen - das M-C-Feature gehört nicht dazu...
Tipps:
a) Experimentieren mit den Breiten und Tiefen
b) ChessAquarium (für vergleichsweise wenig Geld) kaufen...

Gruss: Walter
Parent - - By Michael Scheidl Date 2017-12-13 12:11
Sehe ich ganz genauso, nur daß mich Experimentieren mit den Breiten und Tiefen nicht interessiert, da eine geistesgestörte Funktion sinnlos ist, und ChessAquarium ist mir auch wurscht. Ich brauch keine Eröffnungsbäume oder so'n Schais. Wozu?
Parent - By Peter Martan Date 2017-12-13 13:40
Michael Scheidl schrieb:

Ich brauch keine Eröffnungsbäume oder so'n Schais. Wozu?


Na gut, du musst ja nicht alles gut und nützlich finden, wovon ich so schwärme, da hättest du schon viel zu tun und mit den vielen eventuellen noch krankeren Userwünschen der "vielen" Anderen, erst recht.
Dennoch:
Ein gutes Buch zur rechten Zeit, spart oftmals viel Rechenarbeit.
Parent - By Walter Eigenmann Date 2017-12-13 14:35
Michael Scheidl schrieb:

Sehe ich ganz genauso, nur daß mich Experimentieren mit den Breiten und Tiefen nicht interessiert...

Warum postest du dann ein Thema, das dich gar nicht interessiert?!?

Michael Scheidl schrieb:
Ich brauch keine Eröffnungsbäume oder so'n Schais...


Na na na, bitte hier keine Fäkaliensprache...

Gruss: Walter

...
Parent - By Peter Martan Date 2017-12-15 08:09 Edited 2017-12-15 09:00
Morgähn!
Walter Eigenmann schrieb:

b) ChessAquarium (für vergleichsweise wenig Geld) kaufen...

Gutes Thema!

Wenn Google das vielleicht doch auch irgendwie gemacht hat, um ins Geschäft zu kommen mit einer bestimmten Zielgruppe und nicht nur als Held der Wissenschaft wieder mal zu glänzen, die Computerschächer und die Schachspieler als solche sind ja auch nur dann knausrig, wenn sie sich keinen Vorteil gegen andere Schachspieler davon erhoffen können, Geld für Hard- und Software zu verpulvern, um dann erst recht stundenlang selbst vor dem PC zu sitzen, damit sich die Investitionen schachlich rentieren mögen, uups, Außenprojektion?), und sei es nur, sie als Werbeträger zu rekrutieren, sollte man den Google- Verkaufsstrategen dann vielleicht doch auch vice versa mit der Wurst nach der Speckseite werfen?

Also ich würde gleich einen A0 mieten um das Geld, das sich Rajlich für seinen Cluster vorgestellt hatte, vor allem zuletzt, als die Einheiten auch über Fritz hätten verkauft werden sollen und immer kleiner wurden in den kleinsten Zeiteinheiten, oder hab ich mir das dann nur mehr eingebildet, kann mich gar nicht mehr erinnern.
Liest vielleicht Lucas Cimiotti mit?
Oder Vasik Rajlich?
Oder Chrilli Donninger?
Hallo Chrilli, wie geht's dem Scheich?

Und ich würde die Ergebnisse meiner Analysen dann teuer weiterverkaufen.

Ach, was bin ich wieder lustig heute Morgen, ich geh wieder ins Bett.

Nein, doch nicht, wenn man schon mal wieder angefangen hat damit und eh gerade nichts Vernünftiges zu tun, kann man ja auch noch im CCC ein bisschen weiterstänkern:
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=743155&t=66005
Parent - - By Peter Martan Date 2017-12-13 11:09 Edited 2017-12-13 11:25
Hallo Michael!

Das, was Fritz da macht, könnte durchaus auch ein nützlicher Ansatz sein (es gibt mittlerweile ja auch einen SF, der MC- Suche betreibt von "Ipman" im Immortal, leider noch ohne Compiles und es scheinen die Versuche dazu auch noch nicht wirklich zu funktionieren).

Ich frage mich aber immer, was eigentlich der prinzipielle Unteschied zwischem dem Superüberdrüber- Lernen von DeepMind ist und, in Hinblick auf Schach, dem, was wir unter Hash- Lernen verstehen.

Ich fürchte, man wird es mir auch nicht so erklären können, dass ich es verstehe, vor allem, weil ja das Lernen von DeepMind auch die Programmierer, die das erfunden haben, nicht mehr verstehen (wollen, nur kein Human Imput mehr, sonst wär's ja nicht so toll).


Bevor ich wieder ins Polemisieren komme, im Ernst:

Die ganzen YouTube- Meister, die da jetzt die wenigen A0-SF- Partien wieder- und wiederkäuen und sich und einander immer wieder vor den selben Super- Über- Drüberzügen auf die jeweiligen Bäuche in den Staub werfen (möchte mal sehen, welcher dieser vielen Analysanten das ohne terrestrische Engine- Unterstützung überhaupt selbst durchschaute, was da am Brett abgelaufen ist), würden vermutlich einfach nicht so werbewirksame Video- Auftritte haben, wenn das einfach nur ein länger rechnender Houdini im Taktik- Modus gegen SF ohne Buch mit fixierter 1'/Zug TC gezaubert hätte, und vielleicht auch noch das Never Cleard Hash aktiveriert und das Ganze wäre buchlos gelaufen.

SF immer mit leerem Hash neu gesartet, H6 mit immer wieder zwischen den Patien abgespeichertem und neu geladenem Hash und ein neues Buch wäre ihm dabei mit Buchlernen ein vom GUI auch ständig aktualiserte worden. Dazu noch ein praktisch beliebig großer Hardware- Vorteil, eigenes Zeitmanagement und vielleicht eine 5fache Bedenkzeit, die bei nicht mehr hilfreichem Hardware- Vorteil immer noch hilft.

Hat jemand, der derlei Experimente auch schon hin und wieder gemacht hat, mit Settings, mit Engines mit höherem Contempt, mit all diesen kleinen Tricks, mit denen Fernschachspieler schon lange arbeiten, um einfach zu Ideen zu kommen, nicht auch das sichere Gefühl, es hätte kein 100 Partien gebraucht, um 10 herzeigbare zu bekommen mit erstaunlichen Engine- Zügen, gegen die der kastrierte SF- Gegner einfach zu Fehlern auf hohem Niveau gezwungen wäre?

Und nicht alle waren auf hohem Niveau, das 49...Tf8 ?? aus der dritten Partie war einfach ein Hardware- Software- Armutszeugnis, ich vermute mal, wenn nicht Herr- Professor Althöfer mit seinem Vorschlag, das könnte auch schlicht ein Mouseslip eines manuellen Bedieners gewesen sein, (...Kf8 statt ...Tf8?? und die Welt schaut schon wieder ganz anders aus, falsche Figur angeklickt, hmh?) ansonsten hat da SF vielleicht einfach in Erkenntnis der bereits an der Grenze der haltbaren Stellung im Fail Low die nächstschlechteste Iteration auszuspielen von der Minutengrenze gezwungen worden sein.

Oder es wären die Superüberdrüberzüge im Fernschach aufs Brett gekommen, kein Hahn würde danach krähen, sag ich mal.

Forward- Backward heißt doch da schon ewig lang das einzige Zauberwort, das es brauchte und braucht, um die "übermenschlichen" Züge, die die Engines halt nicht eh schon alle sofort aus dem Ärmel schütteln, sondern für die sie ein bisschen länger brauchen, vielleicht ein bisschen Parameter- Tuning oder nur schlicht und einfach durch Eingeben der nächsten paar Züge bis zum Kippen der Eval, und schon ist ihnen mit ein bisschen größerem Hash, das Matt in 45 oder das 0.00 des 50- Züge- Horizonts im Hash rückwärts fast beliebig lange Zugstrecken behaltbar.

Wenn eine Engine, die wir heute schon haben, und bis vor Kurzem doch auch gerade dafür noch recht lieb gehabt haben, Hardware, Zeit und Hash genug hat, automatisiert Forward Backward zu spielen (Fritz Stellungsanalyse, cb Tiefe Analyse, Aquarium IdEA...), war das doch bis vor Kurzem auch noch ein recht approbates Mittel, Zugzwang, Festungen und Eröffnungstellungen besser als im Single Variant Mode im Standrechnen oder gar im Schnellschach- Autoplay "finden" zu lassen.

Könnte man aus dem A0- Debakel nicht auch mal einfach die Folgerung ziehen, dass Hash- (und Buch-) Lernen (in seinen verschiedenen Formen, SF- PA z.B., Lerndateien im Allgemeinen, automatisch vom GUI editiertes Buch, übrigens das, was die Fritz- MC- Analyse tut, sie erstellt so ein Buch, die Stellungsanalyse ebenso...) sei's auch ohne Monster- Hardware (aber natürlich gerade auf solcher) auch für die terrestrischen Blechis ein Ansatz und ein Way to Go war und ist?

Macht der (hoffentlich auch wirklich irgendwann dem User zugängliche) Sirius- Cerebellum- Algorithmus etwas soo wesentlich Anderes als Stellungslernen, ist das nicht auch AI im modernen Sinn?

Ich will ja gar nicht davon anfangen, dass jeder Fernschachspieler, der mit ein bisschen mit EDV- Unterstützung arbeitet, nichts anderes macht als gegen bestimmte Gegner bestimmte Datenbankrecherchen, die mit FW-BW interaktiv zu beackern und zu ordnen und die zu einem eigenen Buch oder Baum für die jeweilige einzelne Partie abzuspeichern?

Sind alle diese Arten von Stellungslernen mit oder ohne menschlichen Input wirklich soo viel anders als das ganz und gar neue AI- Lernen von DeepMind?

Und wenn ja, warum lässt Google dann nicht gleich gegen einen SF spielen, der, wenn er schon ohne Buch antreten muss, wenigstens nicht zwischen den Partien immer wieder den Hash löscht, A0 hatte ja diesen Nachteil auch nicht.

Ich kann mir nicht helfen, das was wir vom DeepMind- Lernen zum Thema Schach derzeit wissen, befriedigt mich einfach in keiner Weise, und das liegt nicht nur an meinen fehlenden Programmierkenntnissen.
Weder als Schachspieler noch als Computerschachspieler, und durch Ehrfurcht allein werden wir auch nicht mehr dazu von Google erfahren, schätze ich halt mal.
Was hätten die Google- Götter davon, ihr "Wissen" wirklich mit der Programmierer- und Userschaft zu teilen?
Werbung geht anders.
Parent - - By Michael Scheidl Date 2017-12-13 11:25
Zitat:
Ich kann mir nicht helfen, das was wir vom DeepMind- Lernen zum Thema Schach derzeit wissen, befriedigt mich einfach in keiner Weise

Mich auch nicht! Ich neige dazu es ignorieren zu wollen.

Permanentes Stellungslernen wird offenbar leider von einigen Top-Programmiern gering geschätzt. Es ist zwar nur wirksam wenn exakt dieselbe Position wieder erscheint, aber das ist doch in der frühen Eröffnungsphase oft der Fall! Man braucht keine Riesenfiles (ich hab eine Abneigung gegen Hash-Speichern), sondern nur die Evals für die Partiepositionen abspeichern welche die Engine erlebte, sozusagen. Das sind am Homecomputer keine Millionen.

Ein gutes Beispiel dafür ist Critter, mit einer wunderbar konfigurierbaren Lernfunktion. Leider auch mit einem bekannten Endspielbug den der Autor nicht mehr ausgebessert hat, weil er ein Kind bekam (komische Prioritäten...).
Parent - By Peter Martan Date 2017-12-13 12:06
Ich wusste, du würdest mich verstehen, Michael, deshalb hat die unnötig lange Suada auch ausgerechnet deinen Thread getroffen, mit dem er nur am Rande zu tun hat.
Jetzt les noch brav all das, was ich geändert habe, während du schon geantwortet hast.

Nein, musst du nicht, den echten Computerschächern ist eh schon lange klar, was ich meine.
Ich hoffe vor allem, dass auch ein paar Programmierer mitlesen,  Thomas Zipproth z.B.

Für mich wäre ein Sirius- Cerebellum- Algorithmus, so wie ich ihn mir vorstelle, vom User für alle UCI- Engines bedienbarer Weise, in den man auch de novo ausschließlich eigene Partien zum automatischen Bearbeiten (Lassen) für die Engine oder das Setting der eigenen Wahl einspeisen könnte, sowieso auch AI  im heutigen Sinn, was Schach angeht.

Die guten alten Lerndateien, so sie denn wirklich so funktionierten, wie man sich das wünschen könnte, auf einen überschaubaren Speicherplatz (für Google allerdings wirklich nicht DAS Problem ) beschränkbar, damit er auch in den Arbeitsspeicher passt, aber auch nicht zu sparsam, "Merge" klappt auch automatisch, die Grundanforderungen halt.

SF- PA (derzeit in der Entwicklerhand von Marco Zerbinati) auf dem jüngsten Stand der SF- Entwicklung (ok, das ist viel verlangt, was ich so von ihm lese), aber wenigstens nicht auf 16G Hash im Rechnen beschränkt (das eine G für den persistent Hash würde, so wie der lernt, eh ewig reichen) und die Sache läuft schon, mit oder ohne MC von Ipman für SF und mit und ohne Fritz'sche Stellungsanalyse und mit und ohne Shared Hash, der ja mit Rybka- Fritz auch schon lange funktioniert, aber halt nur für diese eine Engine.

Aber alles diese Dinge mal vielleicht auch mehr von ein paar GUI- Programmierern unter einen Hut gebracht, Ed Schröders Pro Deo hat ja auch schon die Möglichkeit, die Q3- Engine mit der Default- Engine shared hash zu rechnen, programmiert, Mehrhirn- Andwendungen, die nicht nur die Evals der bestgereihten Single Variant- Züge von zwei Engines im GUI zu einem Schnitt ausrechenen und dadurch einen dritten auswählen (Shredder- GUI- Dreihirn), sondern wirklich der jeweils zweiten, dritten, vierten Engine oder deren Setttings die Züge der HV, muss ja gar nicht gleich der ganze Hash sein, wechselseitig automatisch zukommen lassen für eine gemeinsame Stellungsanalyse....

Ideen für AI im Schach auf der Basis der Programmierleistungen der letzten Jahrzehnte gibt's ja wohl genug, wir müssen nicht unbedingt von Google gezeigt bekommen, dass wir selbst bei Weitem noch nicht alle Möglichkeiten der Programme ausnutzen, indem wir sie ständig hauptsächlich bis nur bei kurzer Bedenkzeit für Ranglisten gegeneinander Celo- bolzen lassen, wie Thorsten Czub sehr richtig meint.

Es wird einfach immer noch viel Strom und Manpower verschendet im Computerschach, will ich sagen.

Ob all das, was sich Google allein da leistet (Hardwarezeit, Strom und Manpower) wirklich soo viel effizienter ist, diesen Beweis ist man uns im Schach jedenfalls auch einfach noch schuldig.
Ceterum censeo, Googlem pro vindictam esse postulandam.
Parent - - By Ludwig Buergin Date 2017-12-13 16:11
Google-gibt-selbstfahrendes-Auto-auf

   Da können wir die Hoffnung haben, dass sie sich von jetzt an verstärkt mit dem Computer-Schach beschäftigen.

    Gruß Ludwig
Parent - By Peter Martan Date 2017-12-13 16:12
Ludwig Buergin schrieb:

Google-gibt-selbstfahrendes-Auto-auf

   Da können wir die Hoffnung haben, dass sie sich von jetzt an verstärkt mit dem Computer-Schach beschäftigen.

Parent - - By Robert Bauer Date 2017-12-14 00:41
Hallo Peter,

Zitat:
Und nicht alle waren auf hohem Niveau, das 49...Tf8 ?? aus der dritten Partie war einfach ein Hardware- Software- Armutszeugnis, ich vermute mal, wenn nicht Herr- Professor Althöfer mit seinem Vorschlag, das könnte auch schlicht ein Mouseslip eines manuellen Bedieners gewesen sein, (...Kf8 statt ...Tf8?? und die Welt schaut schon wieder ganz anders aus, falsche Figur angeklickt, hmh?) ansonsten hat da SF vielleicht einfach in Erkenntnis der bereits an der Grenze der haltbaren Stellung im Fail Low die nächstschlechteste Iteration auszuspielen von der Minutengrenze gezwungen worden sein.


Schwer zu sagen, ob der Zug 49...Kf8 statt 49...Tf8 rettet. Sugar's Bewertung ist ziemlich schwankend:

Analysis by S_XPrO 251117 x64 BMI2:

...
50.Df4 Dg8 51.Dc7 c4 52.Dxc4 Td8 53.g4 Ke8 54.Dc3 Df8 55.g5 Te6 56.Tf3 a6 57.Kh3 Ke7 58.Ld5 Ke8 59.Td3 Te2 60.Kg2 Te7 61.Kf1 Te6 62.Lxe6 fxe6 63.Tf3 Dg8 64.Df6 Tc8 65.Dd4 Td8 66.Dd6 Ta8 67.a4 a5 68.De5 Ke7 69.Dc5+ Ke8 70.Kg2 Dh8 71.Dd6 Dg8 72.De5 Ke7 73.Td3 Td8 74.Dc7 Df7 75.Tf3 De8 76.Dxa5 d6 77.Dc3 e5 78.a5 Dd7 79.Kg3 Dc8 80.Db4 Db8 81.Tb3 Dxb4 82.Txb4 Ke6 83.Tb7 d5 84.a6 d4 85.a7 Ta8 86.Kf3 Kf5 87.Tf7+ Kxg5
  Weiß steht deutlich besser: +- (1.88)  Tiefe: 51/76   00:07:31  36212MN, tb=36262429
...
50.Df4 Dg8 51.Dc7 c4 52.Dxc4 Td8 53.g4 Ke8 54.Dc3 Df8 55.g5 Te6 56.Tf3 De7 57.Dh8+ Df8 58.Dxh7 Ke7 59.Lxe6 dxe6 60.Tc3 Td5 61.Tc7+ Kd6 62.Dxf7 Txg5+ 63.Kf1 Dxf7 64.Txf7 Th5 65.h7 a5 66.Ta7 Kc6 67.Kg2 a4 68.Kf3 e5 69.Ke4 Kd6 70.f4 Th4 71.Ta6+ Kc5 72.Kxe5 Txh7 73.Txa4 Th2 74.Ke4 Kb6 75.Ta8 Tg2 76.Tg8 Kc7 77.a4 Tg4 78.Kf3 Tg1 79.Tg7+ Kb6 80.Ke3 Tg3+ 81.Kd4 Tg1 82.Tg8 Tg4 83.Ke3 Ka5 84.Kf3 Tg1 85.Ta8+ Kb6 86.Tb8+ Kc7 87.Tg8 Kb7 88.Ke4 Kb6 89.Kd5 Tg4 90.Tb8+ Kc7
  Weiß steht besser: +/- (0.95)  Tiefe: 53/82   00:10:02  48870MN, tb=54202860
...
50.Df4 Dg8 51.Dc7 c4 52.Dxc4 Td8 53.g4 Ke8 54.Dc3 Df8 55.g5 Te6 56.Tf3 Dd6 57.Dg7 De7 58.Dg8+ Df8 59.Dxh7 Ke7 60.Lxe6 dxe6 61.Tb3 Td5 62.Tb7+ Kd6 63.Dxf7 Txg5+ 64.Kf1 Dxf7 65.Txf7 Th5 66.h7 a5 67.Ta7 Kc6 68.Kg2 a4 69.Kf3 e5 70.Ke4 Kd6 71.f4 Th4 72.Ta6+ Kc5 73.Kxe5 Txh7 74.Txa4 Th2 75.Ke4 Kb6 76.Ta8 Th1 77.Tc8 Ta1 78.Tc2 Tg1 79.Tc3 Kb7 80.Kf3 Kb6 81.Tc8 Tf1+ 82.Ke3 Ta1 83.Tc2 Kb7 84.Kf3 Tf1+ 85.Tf2 Tc1 86.Tg2 Tc3+ 87.Kg4 Tc5 88.Te2 Tc1 89.Te7+ Kc8 90.a4 Tg1+ 91.Kh4 Th1+ 92.Kg5 Tg1+ 93.Kf6 Tf1 94.Te8+ Kb7 95.Te4 Tg1 96.Tb4+ Ka7 97.Tb2 Tg4 98.Ke5 Tg1 99.Tb5
  Weiß steht deutlich besser: +- (1.71 ++)  Tiefe: 56/50   00:17:39  86493MN, tb=105106675
...
50.Df4 Dg8 51.Dc7 c4 52.Dxc4 Td8 53.g4 Ke8 54.Dc3 Df8 55.g5 Te6 56.Tf3 De7 57.Dh8+ Df8 58.Dxh7 Ke7 59.Lxe6 dxe6 60.Tb3 Td5 61.Tb7+ Kd6 62.Dxf7 Txg5+ 63.Kf1 Dxf7 64.Txf7 Th5 65.h7 a6 66.Kg2 e5 67.Ta7 Kd5 68.Kg3 e4 69.Tg7 Ke5 70.Kg4 Kd5 71.Td7+ Ke6 72.Tb7 Ke5 73.a3 Ke6 74.Kf4 Kd5 75.Tf7 Ke6 76.Tc7 Kd5 77.Td7+ Ke6 78.Ta7 Kd5 79.Kg4 Ke5 80.Td7 Ke6 81.Tg7 Ke5 82.Ta7 Kd5 83.Te7 Kd6 84.Tf7 Ke6 85.Tb7 Kd5 86.a4 Ke6 87.Kg3 Kf6 88.a5 Ke5 89.Te7+ Kf6 90.Ta7 Ke5 91.Td7 Tg5+ 92.Kh4 Th5+ 93.Kg4
  Weiß steht besser: +/- (0.75)  Tiefe: 56/95   00:28:33  142243MN, tb=181663930

Ich bin mir ziemlich sicher, dass A0 nicht wie in der letzten Variante von Sugar die Dame nach h7 bucksiert hätte.

Sugar hält 42....Kf8 statt Sc7 für ok. Leider favorisiert Stockfish 8 den Zug Sc7 mit +0.00 gegenüber Kf8 mit +0.09, siehe chess24 alphazero-vs-stockfish

Zitat:
es gibt mittlerweile ja auch einen SF, der MC- Suche betreibt von "Ipman" im Immortal, leider noch ohne Compiles und es scheinen die Versuche dazu auch noch nicht wirklich zu funktionieren


Das "es gibt" musst Du genauer erklären, wenn andrerseits Compiles fehlen. Meinst Du Source Code?
Kann man diesen dann unter der Fritz-GUI mit Monte Carlo Analyse einsetzen?

Aquarium hat die Funktion "Rybka Randomizermatch". Leider braucht auch diese eine dafür ausgelegte Engine wie Rybka.
Parent - By Peter Martan Date 2017-12-14 06:55 Edited 2017-12-14 07:30
Hi!
Robert Bauer schrieb:

Das "es gibt" musst Du genauer erklären, wenn andrerseits Compiles fehlen. Meinst Du Source Code?

Ja.
Auf dieser Site beginnt's mit dem 5. Posting von oben, Ipman, von dem sind die Compiles, die bei Anderen (ich hab sie noch nicht probiert) nicht funktioniert haben dürften.
http://immortalchess.net/forum/showthread.php?t=32274&page=72
Der Source Code um den's zu gehen scheint, ist wohl von  Stephan Nicolet
http://immortalchess.net/forum/showpost.php?p=806751&postcount=1797
https://github.com/snicolet/Stockfish/commits/montecarlo

Übrigens, im CCC
http://www.talkchess.com/forum/viewtopic.php?topic_view=threads&p=743015&t=66005
ist dieser Artikel
https://medium.com/@josecamachocollados/is-alphazero-really-a-scientific-breakthrough-in-ai-bf66ae1c84f2
gebracht worden, den ich ausgesprochen gut finde.
Jose Camacho Collados scheint mir ein ausgesprochen kompetenter Autor zu sein in der Sache.

Übrigens, weil ich mich wieder selbst mit dem unnötigen vom Hundersten ins Tausendste wahrscheinlich eher unleserlicher gemacht haben dürfte in den Monsterpostings oben, was ich eigentlich nur sagen wollte zu dem Ganzen:
Anstatt etwas anzuhimmeln, wovon man (noch?) keine Ahnung hat, wäre es vielleicht nicht dumm, das Lernen, dass die Engines schon sehr lange sehr gut beherrschen, das Hash-Lernen auch als eine Art AI zu betrachten.
Warum nicht?
Das Buchlernen und die Tablebases und ihre Verwendbarkeit für die Engines sind auch Anwendungen von Gelerntem, aber sie beruhen weit überwiegend auf menschlichem Input, dass das schon prinzipiell etwas Schlechtes sein müsste heutzutage, ist allerdings vielleicht auch einfach ein Irrtum.
Parent - - By Stefan Pohl Date 2017-12-14 12:51 Upvotes 1
Peter Martan schrieb:


Könnte man aus dem A0- Debakel nicht auch mal einfach die Folgerung ziehen, dass Hash- (und Buch-) Lernen (in seinen verschiedenen Formen, SF- PA z.B., Lerndateien im Allgemeinen, automatisch vom GUI editiertes Buch, übrigens das, was die Fritz- MC- Analyse tut, sie erstellt so ein Buch, die Stellungsanalyse ebenso...) sei's auch ohne Monster- Hardware (aber natürlich gerade auf solcher) auch für die terrestrischen Blechis ein Ansatz und ein Way to Go war und ist?

Macht der (hoffentlich auch wirklich irgendwann dem User zugängliche) Sirius- Cerebellum- Algorithmus etwas soo wesentlich Anderes als Stellungslernen, ist das nicht auch AI im modernen Sinn?
Sind alle diese Arten von Stellungslernen mit oder ohne menschlichen Input wirklich soo viel anders als das ganz und gar neue AI- Lernen von DeepMind?



Ja, es ist sooo viel anders. Und das ist auch genau der Punkt. Mark Lefler hat sehr zurecht auf talkchess darauf hingewiesen, daß das Wesentliche bei AlphaZero das neuronale Netz ist, welches eben ganz anderes Lernen möglich macht, als das Stellungslernen, wie es bisher praktiziert wurde und auch das, was Cerebellum macht. Denn letzteres bezieht sich immer auf ganz bestimme Stellungen. Bei geringsten Abweichungen (ein unbedeutender Bauer steht ein bißchen woanders etc.) findet das klassische Stellungslernen/Persistent Hash/Cerebellum etc. eben keinen Treffer. Und AlphaZero erkennt eben auch Stellungstypen, also einander ähnliche Stellungen. So wie der Facebook-Gesichtserkennung Algorithmus eben auch Gesichter erkennt, wenn Leute eine Brille tragen oder einen Bart etc. Und so, wie auch ein Mensch im Schach Stellungstypen erkennt.
Daher kann man in klassische Schachengines soviel MonteCarlo oder Stellungslernen einbauen, wie man will. Ohne neuronales Netz-Lernen wird das nie zu solch einer Spielstärke und Spielweise wie bei AlphaZero führen.
Parent - - By Peter Martan Date 2017-12-14 15:11 Edited 2017-12-14 15:21
Stefan Pohl schrieb:

Und AlphaZero erkennt eben auch Stellungstypen, also einander ähnliche Stellungen. So wie der Facebook-Gesichtserkennung Algorithmus eben auch Gesichter erkennt, wenn Leute eine Brille tragen oder einen Bart etc.

Naja, Stefan, ich will ja auch gerne glauben,  dass es etwas anderes ist als das schon Bekannte.
Soo genau, wie sehr anders und neu, weiß man's aber höchstens als Einer, der mit der Entwicklung direkt befasst ist.

In dem Artikel, den ich schon in der Antwort an Robert Bauer verlinkt habe,
https://medium.com/@josecamachocollados/is-alphazero-really-a-scientific-breakthrough-in-ai-bf66ae1c84f2
ist sich der Mathematiker, AI- Forscher und Schach- IM Jose Camacho Collados da gar nicht so sicher.

Und selbst wenn A0 ein wesentlicher Durchbruch im Schach werden könnte oder schon ist, sollte er das meiner Meinung nach erst einmal im Vergleich mit Schach auf höchstem Niveau unter Beweis stellen, das heißt auf jeden Fall zumindest gegen eine sich die Zeit selbst einteilende Engine mit guter Buchunterstützung und nicht nur gegen 1'/Zug Fixzeit (was A0 auf seiner Monsterhardware ja vielleicht einfach viel weniger schadet als SF) und buchlos, was SF gegen die Lernmaschine sicher viel mehr schadet, weil er sich in seinen Eröffnungen immer wieder wiederholt, das ist das Eine.

Und das Andere ist, finde ich, dass es nicht zwingend als das Nonplusultra angesehen werden müsste, das Lernen des Programms nur auf Selfplay beruhen zu lassen.
Es mag ja sein, das wirkt besonders bemerkenswert, dass es wirklich die Jahrhunderte alte Tradition des Eröffnungswissen bereits obsolet gemacht hat, ist erstens noch in keiner Weise gezeigt, und zweitens würde ich dann nicht einfach davon ausgehen, dass es so ist.

Es kann sich einfach immer noch in einem nächsten, praktisch genau so wenig aufwändigen Versuch als kompletter Irrtum heraustellen.

Und um es wirklich genau zu wissen, müsste man dann erst noch, selbst wenn jetzt SF mit Buch und vernünftiger TC wieder genau so abstinkt, (oder noch schlimmer, kann ja auch sein) auch noch den Gegenversuch machen, ob A0 ohne Buchwissen nur im Selfplay "ausgebildet", nicht immer noch haushoch gegen eine Version, auf der alten aufbauend, mit zusätzlich eingespeistem Eröffnungswissen aus großen guten Datenbanken seinerseits wieder den reinen Selfplayer wegputzt, wäre ja auch noch möglich, nein?

Dann erst könnte man sagen, Eröffnungswissen, wie wir es kennen, schadet der dann erst erwiesener Maßen besten Schachentität der AI in ihrer Performance, oder nutzt ihr vielleicht erst recht gewaltig. In der Auseinandersetzung mit dem reinen Selbstlerner UND ODER in der gegen die herkömmliche Schach- Engine mit dem für sie besten Buch.
Theoretisch könnte es ja sogar auch so sein, dass A0-Selfplay gegen A0+Eröffnungstheorie verliert, aber besser gegen SF mit Buch abschneidet als A0B(uch), bei der Intransitivität von Schachratings durchaus alles möglich.

Zum Thema Stellungslernen hat Michael Scheidl schon richtig gesagt, dass es bei der bekannten Schachengine streng auf die einzelne Stellung bezogen ist.
Es wirkt sich also nur in identischen Stellungen aus.
Bei der Typenerkennung der AI könnte sich diese hingegen auch nachteilig auswirken, würde sie sich nämlich hin und wieder einfach "irren", was doch wohl auch für möglich gehalten werden sollte, nein? Das kennen wir von anderen Anwendungen, die du auch nennst, erst recht gut, oder?

Michael hat aber auch recht, dass es in den frühen Eröffnungsstellungen doch sehr viel häufiger identische sind, als nach 20 Zügen, insbesonders, wenn man wie bisher im Schach üblich (und so wie übrigens auch A0) bestimmten Bahnen in den ersten Zügen folgt.
Dann ist Stellungslernen (und Buchlernen) sehr wohl auch im konventionellen Sinn wert- und sinnvoll, meiner (und nicht nur meiner) Erfahrung nach.

Was, wenn jetzt einfach die Superlernmaschine in den 100 Partien schnell gelernt hätte, bei genau diesen wenigen (wer weiß, wie viel öfter die wenigen Lines in den ersten Zügen in den 90 unbekannten noch vorgekommen sind?) Eröffnungszügen zu bleiben, wenn's ihr SF erlaubt, weil sich da bald herausgestellt hatte, dass sich das für A0 gegen diesen SF bewährt hatte?

Dann hat der Versuch einfach nichts anderes gezeigt, als dass A0 unter diesen Bedingungen gegen diesen SF diese paar Eröffnungslines zu der bestimmte Performance besser gelernt hatte umzusetzen, was schon deshalb kein Wunder wäre, weil, wie auch immer A0 jetzt wirklich lernt, SF einfach keine Chance hatte, etwas zu lernen, schlimmer als das, er war durch das fehlende Buch verurteilt, immer wieder dieselben Berechnungen von vorne anzustellen und dort, wo er durch dieselben Fixzeiten zu denselben Ergebnissen kam, dieselben Züge wieder zu spielen.

Ich finde das einfach deshalb so unfair, (der Ausdruck ist unnötig emotional, biased ist ein viel besserer Ausdruck in dem Zusammenhang, weil er diesen nüchternen neuhochdeutschen Gehalt aus der Welt der wissenschaftlichen Publikationen hat) weil es die besten Voraussetzungen für jede Art von lernender Engine waren, umso mehr, wenn sie besonders gut lernfähig ist, und die schlechtesten für SF.
Parent - - By Stefan Pohl Date 2017-12-14 15:18 Edited 2017-12-14 15:24
Ich stimme dir durchaus zu, daß der Wettbewerb unfair war. Und auch damit, daß Stellungslernen gerade im Eröffnungsbereich sinnvoll ist. Letzteres beweisen ja meine Testruns von Brainfish auch eindrücklich. Cerebellum bringt hier einen Gewinn von um die 50 Elo!
Was AlphaZero macht, ist aber eben doch etwas ganz anderes. Das neuronale Lernen ermöglicht eben, für Stellungstypen etwas zu lernen. Das hat mit althergebrachtem Stellungslernen eigentlich gar nichts zu tun. Zu lernen, was in bestimmten Stellungstypen, bei bestimmten Figurenmustern zu tun ist, gleicht eher einer sich selbst optimierenden Bewertungsfunktion (und daraus resultierend auch sich selbst optimierendem Pruning). Also ein sich selbst erhöhendes Schachverständnis. Und das ist bahnbrechend, denn bei allen anderen Schachengines ist eben dieses alles menschengemacht. Und es wirkt eben auch jenseits des Eröffnungsbereiches, denn andernfalls wäre AlphaZero mit seinen lächerlich geringen Knotenzahlen im Mittelspiel gegen Stockfish mal so richtig badengegangen.

Grüße - Stefan
Parent - - By Peter Martan Date 2017-12-14 16:06 Edited 2017-12-14 16:12
Stefan Pohl schrieb:

Das neuronale Lernen ermöglicht eben, für Stellungstypen etwas zu lernen. Das hat mit althergebrachtem Stellungslernen eigentlich gar nichts zu tun. Zu lernen, was in bestimmten Stellungstypen, bei bestimmten Figurenmustern zu tun ist, gleicht eher einer sich selbst optimierenden Bewertungsfunktion (und daraus resultierend auch sich selbst optimierendem Pruning). Also ein sich selbst erhöhendes Schachverständnis.

Wenn's funktioniert.

Wir sind uns einig über die Faszination an der Sache, aber

aus den 10 Herzeigepartien die vielleicht 5 schönen Züge, die jetzt schon tagelang durch alle Foren und YouTube- Analysen geistern, werden nicht mehr und nicht übermenschlicher, wenn man sie sich mit ein bisschen Forward- Backward auf halbwegs modernen Hardware mit guter Engine anschaut.
Da hat SF in den Games schon jedesmal mitgeholfen, dass sie so durchgeschlagen haben, vor allem aber, dass sie überhaupt aufs Brett gekommen sind.

Bei ein paaren davon meinten ja auch schon immer wieder Schachspieler, für Menschen gar nicht soo schwer zu finden, der eine oder andere dieser Züge, dass Menschen das dann natürlich auch besonders gut gefällt, wenn sie meinen, menschliche Züge (im doppelten Wortsinn ) an einer Maschine zu erkennen, liegt nahe.

Ob statt der altbekannten Engine- Schwächen nicht doch auch ein paar neue bislang noch unbekannte Engine- Schwächen von A0 gelernt worden sein mögen, bleibt abzuwarten, und auch ob wirklich alles, was wir an den Blechis bisher noch auszusetzen hatten, jetzt plötzlich Vergangenheit ist mit A0.

Meine Hauptbefürchtung ist aber sowieso nach wie vor eine ganz andere, nämlich dass wir's nie erfahren werden, und dass die Google- Karawane einfach nach diesem kurzen Triumph flott weiterziehen wird, am Schach vorbei.
So wie ja jedem von uns immer wieder so dies und das am A...ufmerksamkeitsfenster vorbei geht, das eine schneller, das andere langsamer.

Bei Go haben sie sich noch recht bemüht, Schach hingegen kam jetzt schon nur mehr in einem Aufwaschen mit Shogi gemeinsam dran, die Dinge verlieren durch ihre Wiederholung allein oft schon schnell an Reiz.
Parent - - By Michael Scheidl Date 2017-12-14 17:00
Du sprichst Weisheit, und ich fürchte die Herausforderung für ein Rematch

https://groups.google.com/forum/#!topic/fishcooking/ExSnY8xy7sY

wird ignoriert werden. Aber wer weiß. Der Initiator dieses Protests führt an, den Text an alle verfügbaren Emailadressen gesendet zu haben. In der Forumsdiskussion finden wir einige bewährte Männer sozusagen, wie Uri Blass, Nelson "Cato" Hernandez oder Ronald de Man der die Syzygy-Tabellen erfunden hat.

Bis zum Beweis des Gegenteils behaupte ich, daß ein gut konfigurierter Stockfish stärker als Alpha Zero ist.

(höchstwahrscheinlich auch ein gut konfigurierter Houdini oder Komodo)
Parent - By Peter Martan Date 2017-12-15 07:41 Edited 2017-12-15 07:46
Michael Scheidl schrieb:

Du sprichst Weisheit, und ich fürchte die Herausforderung für ein Rematch

<a class='ura' href='https://groups.google.com/forum/#!topic/fishcooking/ExSnY8xy7sY'>https://groups.google.com/forum/#!topic/fishcooking/ExSnY8xy7sY</a>

wird ignoriert werden.

Für diesen Fall hätte ich noch eine Idee, das Interesse wach zu halten, so es denn je bestanden hat:
Google soll A0 vermieten, wie das schon Rajlich mit seinem Rybka- Cluster probiert hatte, vielleicht funktioniert's ja mit einer echt extraterrestrischen Anwendung diesmal doch?
Was wär's dir wert, so  das eine oder andere Stündchen vom lieben Schachgott nutzen zu können, Michael?

Und A0 würde dabei immer wieder mal ein bisschen was dazu lernen?

Ahnst du schon, woran das wieder scheitern würde, außer an der Knausrigkeit von Computerschachspielern?

An der Geheimniskrämerei von Computerschachspielern und an der noch größeren Geheimniskrämerei von Schachspielern. Es würde sofort jeder Profischachspieler, auch wenn er nach den Varianten lechzte, gleichzeitig furchtbar besorgt sein, dass sie allgemein zugänglich würden.

Übrigens ist das vielleicht immer schon der größte Hemmschuh in der (Computer)Schach-Entwicklung gewesen, neu erworbenes "Wissen" muss immer gleich geheim bleiben.
Wetten, dass von Google nix mehr kommt, nämlich halt in der Öffentlichkeit?
Die wollen auch Wissen verkaufen, aber es soll erst recht trotzdem immer auch noch ihr Wissen bleiben, so geht Wissenschaft aber nicht.
Parent - By Ludwig Buergin Date 2017-12-14 16:50
Jeder der Google benutzt weiß auch wie Google funktioniert.Man gibt einen Wunschgegenstand ein und schon bekommt man eine ganze menge Angebote.Wenn man den gleichen Wunsch mehrfach eingibt, dann weiß Google schon  ganz viel von mir.Er sagt mir, was ich schon alles angeschaut habe.Zudem sagt er mir, was Andere angeschaut haben und als Gipfel der "Verführung" zeigt er mir ,was andere Leute gekauft haben.
  Da nun beim Enginematch die gegnerische Engine zwangsläufig auf dem PC von Google mitlaufen muss und dabei ihre errechneten Varianten offen legt ,ist es ein leichtes für Google den Gegner dahin zu bringen,wo er sich selber in den Verlust rechnet.
  Google kann ganz sicher beim Computer-Schach nicht in die Zukunft sehen,aber  haben mit ihren Möglichkeiten schon die Computer-Schächer verunsichert.In relatiev kurzer Zeit ist das ganze Vergangenheit.

    Gruß Ludwig
Up Topic Hauptforen / CSS-Forum / Monte Carlo mit Fritz 15

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill