Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Neues von den Leela-Machern
- - By Lothar Jung Date 2019-05-14 14:43 Edited 2019-05-14 14:48
1. Zitat aus dem aktuellen Blog zum gewählten Leela-SuFi-Netz:
...it can be summarized as a T40 net forked from 42000 with an additional 3x LR (learning rate) drop applied at the fork and partial 7-man tablebase rescoring. It was trained only on games produced in the main training pipeline and doesn't include any non-zero features that distinguish it from any other T40 net (LR drops and TB rescoring are a standard part of Leela's training process).
Also kein Abweichen vom reinen „zero“-Ansatz, wie gelegentlich kolportiert wurde.

2. Folgendes zukünftiges Fp16-Feature für NVIDIA-GPUs ohne Tensorcores:
Fp16 nchw for cudnn-fp16 backend (support GTX 16xx GPUs)
https://github.com/LeelaChessZero/lc0/commit/fa926e568f67b6bad2e6227f519d428ef776e0fd

Lothar
Parent - By Werner Schüle Date 2019-05-14 15:36
Danke Lothar,
darauf habe ich gewartet.

Werner
Parent - - By Clemens Keck Date 2019-05-14 15:57
Danke Lothar.

Auch wenn der Lc0 hype schon manchmal sehr im Vordergrund steht,

wann gab es das letzte Mal so frischen Wind im engine Schach?
Mir fällt da nur ein als Rybka erschien, so ein Einschlag, das war eigentlich nicht vorstellbar damals.

C.K.
Parent - - By Benno Hartwig Date 2019-05-14 18:28
Ja, und andererseits faszinierend, wie die damalige über-Engine Rybka-3 heute in Grund und Boden gespielt wird von den heutigen Cracks.
Parent - - By Guenter Stertenbrink Date 2019-05-14 19:35
wie konnte diese neue Methode so lange verborgen bleiben trotzt vieler enormer Anstrengungen
Parent - - By Benno Hartwig Date 2019-05-14 21:33
Ich zumindest war blind genug, um überhaupt nicht zu erwarten, dass sich so bemerkenswerte Spielstärken ergeben.
Zu sehr gefangen war ich in der Vorstellung, dass klassische Suchbäume einfach dem Wesen einer Zugsuche im Schach besonders gut entsprechen.
Pustekuchen. Gefangen eben. Manch anderer auch?
Benno
Parent - By Guenter Stertenbrink Date 2019-05-14 21:54
ich versteh bis heute nicht richtig, wie das funktioniert und warum

welche der Trainingspartien benutzt wurden, um in einer bestimmten Stellung einen bestimmten Zug zu spielen
Parent - By Benno Hartwig Date 2019-05-15 00:07
Asche auf mein Haupt: Nein, kannte ich nicht.
Danke für den Link auf diesen schönen Text, der ja insbesondere auch etliche Links auf weitere sehr interessante Aufsätze enthält. 
Benno
Parent - - By Peter Martan Date 2019-05-14 21:59 Edited 2019-05-14 22:06
Guenter Stertenbrink schrieb:

wie konnte diese neue Methode so lange verborgen bleiben trotzt vieler enormer Anstrengungen


Also ich würde einfach mal vermuten, die Anstrengungen waren bei weitem noch nicht groß genug und jetzt sind sie dann halt, wenn man die Hardware- Zeitleistung von Deep Mind und LC0 zusammenzählt, sind sie dann halt doch noch eine Nummer enormer geworden.
Es waren halt nicht mehr die enormen Anstrengungen von Programmierern allein und nicht Muskelkraft, die enormes bewirkt hat, sondern ein für mich schon auch irgendwie enormer Aufwand an Manpower (die vielen Leute die da Hardware spenden, haben ansonsten schon auch was anderes zu tun, denke ich, weil die Hauptarbeit ihre Rechner machen, kommt da in Summe schon auch etwas Manpower- Zeit zusammen), Hardware-Investition und -Leistung, Strom, auch nicht völlig zu vergesssen, ein gewisses persönliches Risiko von Leuten, die ihre Rechner  nicht nur rechnen lassen, sondern in einem wahreren Sinn "zur Verfügung stellen", im Sinne von Zugänge freigeben, die ganz beachtliche Sicherheitslücken darstellen. Mag einem einzelnen versierten User kein Problem sein, in Summe ist es allerdings doch auch wieder erwähnenswert, und ob da wirklich alle soo genau wissen, was sie da alles freigeben?

Für mich einfach ein leuchtendes Beispiel von Umschlag von Quantität in Qualtität, ganz im Engel'schen Sinn.
Parent - - By Guenter Stertenbrink Date 2019-05-15 05:51 Edited 2019-05-15 06:08
es geht ja auch ohne die Zigmillionen Trainingspartien.
Siehe DeusX,Antifish,AllieStein

Vielleicht nicht ganz so gut, aber gut genug fuer ~2010

und was ist mit Komodo MCTS ? Warum kommt das erst jetzt ?

----------------------------

von Rybka,Stockfish,Komodo,Houdini  hatte ich nichts gehoert, bis 2016. Das letzte was ich erinnere ist
Ruffian oder so. Und eine Diskussion in ca. 2005 wo jemand Artikel veroeffenlichte
(chessbase ?) dass die Spielstaerke der Computer nun nicht mehr weiter ansteigen wuerde
--------
hab's gefunden, es war 2003 : https://en.chessbase.com/post/are-che-computers-improving-faster-than-grandmasters-
Parent - By Tom Paul Date 2019-05-15 07:07
Guenter Stertenbrink schrieb:

und was ist mit Komodo MCTS ? Warum kommt das erst jetzt ?


Weil du dich vorher nicht an die Arbeit gemacht hast, also haben das jetzt andere Leute übernommen .
Parent - - By Peter Martan Date 2019-05-15 07:12 Edited 2019-05-15 07:39
Guenter Stertenbrink schrieb:

und was ist mit Komodo MCTS ? Warum kommt das erst jetzt ?

Hör mal, komodo gibt's schon ein bisschen länger, auch länger als 2016, als du begonnen hast von Rybka zu hören.

Und MCTS ist auch nix wirklich Neues per se, auch für diese Suche hat's halt offenbar erst einmal eine Zeit der Verfeinerung und des Hardware- Fortschritts gebraucht.

Ist dir eigentlich klar, dass Larry Kaufman auch schon an Rybka mitgearbeitet hat? Das tolle Fortschritts- Liebkind, neben der Verbindung von Fruit und Bitboard (Crafty), hieß damals Piece Square Tables, (erfunden hat sie natürlich auch nicht erst Rajlich) heute haben wir halt die NNs, weil wir's uns leisten können.

Auch nicht Rajlich war es, der das Parametertuning durch große Mengen von Selfplay- Partien eingeführt hat, das war auch schon spätestens um einiges früher Bob Hyatt für Crafty.

Aber zur ersten Hochblüte, die in Elo umrechenbar war, hat's Rybka gebracht. Rajlich war für mich überhaupt in erster Linie dahingehen ein Pionier, als er verstanden hat, Vorhandenes zu einer so viel besseren Hardwware- Nutzung zusammenzuschrauben, dass es eine Zeit lang die Konkurrenz in Grund und Boden gespielt hat. Ein weiteres wesentliches Geheimnis war das Rybka- Buch, zu einem erheblichen Teil von Jeroen Noomen, natürlich auch nicht nur, aber das Editieren der vielen Computerpartien, die da erstmals so richtig zugrunde gelegt wurden, das wird schon immer noch viel Handarbeit gewesen sein, denke ich.

Auf die Frage, wieso hat das alles so lange gedauert, kann man eigentlich immer nur sagen, weil es davor schon zu spät war für das, was du früher rechtzeitiger gefunden hättest.

"Zwerge auf den Schultern von Riesen", dieses Gleichnis ist laut Wiki von Bernhard von Chartres 1120 erstmals schriftlich überliefert.

Du hast einen Artikel von 2003 ausgegraben von einem gewissen Jeff Sonas, bezeichnender Weise einem Statistiker, der damals meinte, es sei nicht absolut sicher, dass sich das Spiel der Computer weiter um so viel schneller entwickeln würde, als das der GMs.

Und jetzt mal ganz provokant: beweise mir doch bitte, und nicht nur statistisch, wobei du dich auch damit schwer tun wirst, dass das wirklich falsch war, was er da als Frage in den Raum gestellt hat.
(Übrigens, vielleicht wollte er ja auch nur zum Ausdruck bringen, dass er es für so eine Vorherberechnung nicht schafft, in eine zumutbare Errorbar zu kommen.)

Weder haben damals soviele GMs gegen Computer gespielt, noch tun sie es erst recht nicht heute. Also woher hast du hier mal wieder dein Zahlenmaterial, um es statistisch zu beweisen, und vor allem, womit beweist du, dass das, was du da ausrechnest irgendetwas mit einer wirklich relevanten Spielstärke zu tun hat, erst recht mit einer, die nicht z.B. total eröffnungsabhängig ist?

Was ist, wenn ich einfach behaupte, die Spielstärke von Computern und erst recht die von GMern sei zu einem ganz überwiegenden Teil auf "Eröffnungswissen" aufgebaut. Bei Computern nicht unbedingt direkt auf Engine- Büchern, wobei die ja meistens auch irgendwie zu Hilfe genommen werden zum Testen, und sei's anhand von vorgegebenen Eröffnungsstellungen.
Aber die Parameter der Stellungs- Evaluierung gehen doch alle davon aus, dass die Stellung am Brett, bzw. die unmittelbar durch die nächsten Züge zu erreichenden, anhand ihres Fortschrittes relativ zur Grundstellung verglichen werden, und mit dem, was man da gelernt hat, an "Entwicklung" gut zu finden. Was, wenn diese Vergleichsdaten, die man aus praktischen Spielen über die Jahrhunderte als "Schachtheorie" zusammengefasst hat, grundlegend falsch sind?

Jetzt erst fangen die Zero- NN- Projekte an, teilweise zu beweisen (es sei denn, die haben auch den einen oder anderen systemimmanenten Fehler in dem, was sie sich selbst beibringen) und teilweise in Frage zu stellen, dass man auch anders eröffnen könnte, als das bisher gegolten hat, und damit eventuell sogar besser punkten.

Und der Clou: selbst wenn die ersten paar Züge im Wesentlichen gleich in der Beurteilung der frühen Mittelspiele geblieben sind (sind sie das?), wer sagt, dass sich nicht erst im späten Mittelspiel und höchstwahrscheinlich sowieso erst im Endspiel herausstellen wird, ob der eine oder andere frühe Zug, mit dem GMs und Computer jetzt noch ihre Punkte sammeln gegen ebenso blinde Gegner in dieser Hinsicht, einfach ein objektivierbarer Fehler ist, und schon könntest du dein ganzes Zahlenmaterial an Partien, die mit diesen Fehlern gespielt wurden, in die Tonne treten, ginge es beim Schach wirklich um so etwas wie "objektivierbare Wahrheit".

Und womit beweist du, dass das Spiel der GMs nicht auch um ungefähr so viel besser geworden ist, wie das der Computer?
Deren Elo sind ebenso relativ zueinander, wie die der Computer. Direkt miteinander verglichen wurden und werden sie nicht wirklich.

Ja, irgendwie so ungefähr wird's schon stimmen, was du dir da hinmalst, aber wie sehr genau und wie sehr daneben die Zahlen sind, mit denen du dauernd auftrumpfst, das weißt du eben absolut nicht.
Genau so gut kann ich sagen, das halbvolle Glas irgendwas, dass du da als exakte mathematische Erkenntnis verkaufst, ist in Wirklich nicht einmal halb sondern nur45/50el voll, also eigentlich immer noch mehr leer als voll.
Jedenfalls immer noch rein subjektiv das alles, ob du nun schon schön langsam ungeduldig wirst (ich ja nicht, dir geht das alles viel zu langsam, oder glaubst du wirklich, dass jetzt gerade eine explosionsartige Acceleration stattfindet, und wenn ja, wohin? Zum Remis doch wohl höchstens vermutlich, oder?) oder ob du schon schwindlig wirst, weil sich die Dinge so überstürzen, und du nicht mehr Schritt halten kannst als Mensch.

Ein Fakt, der bei alledem Error- Bar- Getue immer diskret verschwiegen wird, die Zahlen stimmen höchstens im Vergleich zu denen, die man als Ausgangswerte einsetzt, und selbst die Errorbar hängt nocheinmal von diesen übernommenen Vorwerten ab, den wirklichen Zahlenwert als Ergebnis in Elo beziehst du also einfach aus grauen Vorzeiten.

Man hat sich Jahrzehnte, fast könnte man sagen, das eine oder andere Jahrhundert lang darauf geeinigt, dass die, die man da immer wieder aus der Vergangenheit übernimmt, tatsächlich taugen zum Vergleich mit der Gegenwart, mit den schon verstorbenen GMs kannst du dir deine Vergleiche sowieso aufmalen, macht ja nix, ist ja eh schon alles statistisch bewiesen, und mit denen der Gegenwart müssen wir's erst gar nicht mehr probieren, weil wir eh schon alles soo genau wissen, und weil wir keine GMs mehr finden, die um finanzierbares Geld die Hose over the board gegen die Engines runterlassen, wenn sie nich wenigstens einen Springer Vorgabe kriegen, das alles kratzt uns nicht, weil wir ja Statistiker sind, und uns daher die praktische Bedeutung dessen völiig egal sein kann, was wir uns da ständig an Zahlen aus den Fingern saugen (im wahrsten Sinn des Wortes digital errechnet heutzutage, du verstehst, digitus, der Finger, haha, was für ein Wortwitz aber auch wieder)

Jetzt rechne mir mal die Errorbar dafür aus, dass ich da ziemlich wahrscheinlich total daneben liege.
Parent - - By Guenter Stertenbrink Date 2019-05-15 07:55
hallo Peter,

> Auf die Frage, wieso hat das alles so lange gedauert, kann man eigentlich immer nur sagen,
> weil es davor schon zu spät war für das, was du früher rechtzeitiger gefunden hättest.

versteh ich nicht

> Du hast einen Artikel von 2003 ausgegraben von einem gewissen Jeff Sonas,
> bezeichnender Weise einem Statistiker, der damals meinte, es sei nicht absolut sicher,
> dass sich das Spiel der Computer weiter um so viel schneller entwickeln würde, als das der GMs.

das ist ja nur die Ueberschrift. In Wirklichkeit tischte er "Evidenz" auf, dass die GMs werden
mithalten koennen. Das war ja der Tenor der ganzen Serie. Die ganze Diskussion muesste
noch im Usenet sein, und irgendwo auf einer meiner Festplatten.
Es wird nix "bewiesen" , nur Evidenz, Wahrscheinlichkeitsprognosen

> Was ist, wenn ich einfach behaupte, die Spielstärke von Computern und erst recht
> die von GMern sei zu einem ganz überwiegenden Teil auf "Eröffnungswissen" aufgebaut.

testest du sie einfach mit unbekannten Eroeffnungen oder Zufallsstellungen

> Und womit beweist du, dass das Spiel der GMs nicht auch um ungefähr so viel besser
> geworden ist, wie das der Computer?
> Deren Elo sind ebenso relativ zueinander, wie die der Computer. Direkt miteinander
> verglichen wurden und werden sie nicht wirklich.

werden sie doch. Es gibt immer auch etliche Partien von neu gegen alt

> Ja, irgendwie so ungefähr wird's schon stimmen, was du dir da hinmalst, aber wie
> sehr genau und wie sehr daneben die Zahlen sind, mit denen du dauernd auftrumpfst,
> das weißt du eben absolut nicht.

es funktioniert doch. Die Ergebnisvorhersagen an Hand der Elos sind ziemlich zuverlaessig.
Die verschiedenen Ratinglisten zeigen im Wesentlichen dieselben Resultate.

> glaubst du wirklich, dass jetzt gerade eine explosionsartige Acceleration stattfindet,
> und wenn ja, wohin?

NNs

> Zum Remis doch wohl höchstens vermutlich, oder?)

zum drawkiller , zu immer extremeren Noomen-Sets

Sag konkret, welche Elo(s) deiner Meinung nach falsch sind, dann koennen wir das gezielt untersuchen

Guenter
Parent - - By Peter Martan Date 2019-05-15 08:51 Edited 2019-05-15 09:20
Guenter Stertenbrink schrieb:


> Auf die Frage, wieso hat das alles so lange gedauert, kann man eigentlich immer nur sagen,
> weil es davor schon zu spät war für das, was du früher rechtzeitiger gefunden hättest.

versteh ich nicht


Ein Beispiel zur Erklärung:
Schüler kommt zu spät zum Unterricht. Lehrer: Warum? Schüler: weil ich zu spät aufgestanden bin.
Lehrer: Warum nicht früher aufgestanden?
Schüler: Weil es, als ich aufstand, schon zu spät war, rechtzeitig aufzustehen.

Haha

Du verstehst vielleicht den Witz auch nicht, nämlich in seinem Haha- Wert, aber was ich nur sagen wollte, war: die Frage, warum etwas nicht früher passiert ist, stellt sich immer erst später und meistens ist es eine rhetorische Frage. Dass du fragst, warum dieses und jenes nicht früher passiert ist, kann man eigentlich auch nicht wirklich als informative Frage beantworten, ich interpretierte sie daher im Sinne von: das hätte alles schon längst passieren können! (und sollen?)

Darauf wäre die Antworte einfach: richtig! Es sei denn, man nimmt die Feststellung bzw. Frage zum Anlass zu rekapitulieren, was alles anstatt dessen, was man gerne früher gehabt hätte, passiert ist. Ich dachte irgendwie, dass es dir auch hauptsächlich um die Aufarbeitung dessen ging.

Guenter Stertenbrink schrieb:

das ist ja nur die Ueberschrift. In Wirklichkeit tischte er "Evidenz" auf, dass die GMs werden
mithalten koennen. Das war ja der Tenor der ganzen Serie. Die ganze Diskussion muesste
noch im Usenet sein, und irgendwo auf einer meiner Festplatten.
Es wird nix "bewiesen" , nur Evidenz, Wahrscheinlichkeitsprognosen


Die, wie man anhand des Beispiels sieht, immer auch mal falsch sein können, sind sie es, steht dennoch, wenn es sich um quantitative Fragen handelt, die nächste im Raum: um wieviel sind sie falsch, und um wieviel sind sie richtig, oder könnten es zumindest sein.

Guenter Stertenbrink schrieb:

> Was ist, wenn ich einfach behaupte, die Spielstärke von Computern und erst recht
> die von GMern sei zu einem ganz überwiegenden Teil auf "Eröffnungswissen" aufgebaut.

testest du sie einfach mit unbekannten Eroeffnungen oder Zufallsstellungen


Warum ich? Du weißt doch ohnehin schon, dass es genau so oder so ausgehen würde. Wolltest du das bezweifeln und quantifizieren, müsstes du das Testen.
Du müsstest die Stellungen aussuchen oder den Zufall aussuchen lassen, und viel Spaß dabei mit den schon verstorbenen GMern.
Um die geht's ja auch, dachte ich, um die Menschen, nämlich im Vergleich zu den Maschinen.

Jetzt lass mal den GM, der noch lebt, und dem du das bezahlen kannst, eine ausreichend große Zahl von Stellungen deiner oder der Wahl des Zufalls, unter Bedingungen, die du auch recht willkürlich wählen musst, im Vergleich zum Engine ausspielen oder sonstwie evaluieren. Dabei solltest du eigentlich, um Fairness mit der Maschine herzustellen, den GM seines Schachwissens entkleiden, weil der hat ja schon viel mehr biologische Stellungsmuster gespeichert als die Engine, selbst die NN- Engine, weil deren "Stellungsmuster" ja ganz andere sind.

Und zum Kern dieser Frage, die du durch die Methode, die du willkürlich vorschlägst, noch nicht beantwortet hast: glaubst du wirklich, das brächte auf ein paar einzelne Elo auf oder ab dasselbe Ergebnis, wie das, das du auf "herkömmlichem Weg" errechnet hast?
Und wie groß wird die Errorbar sein?

Und wie schaut eigentlich dein "herkömmlicher Weg" aus, mit dem du die Evidenz des Artikel- Autors widerlegst?
Nimmst du genau seine Partiensammlung, vertraust du der blindlings? Nimmst du deine eigene? Was hast du für Selektionskritierien? Woher weißt du, dass seine Daten nicht nur denseöben Erhebungsbias haben wie deine, oder beide haben ganz verschiedene, aber beide haben welche, die eine mehr, die andere weniger, du weißt nicht einmal, welche mehr.

Anders gefragt, wie schaut's mit der Randomisierung deiner und seiner Daten aus?
Und sag jetzt nicht wieder, dass das meine Aufgabe wäre, das alles zu untersuchen.

Ich bin mir ja meiner Meinung nach eh sogar mit dir über den eigentlich Kern unserer Diskussion einig: so, wie das der Autor gemacht hat, hätte man das halt wahrscheinlich nicht machen sollen, ich sehe dabei halt auch noch, vermutlich mehr als du, die Fragestellung als solche nicht wirklich repräsentativ und reproduzierbar beantwortbar.

Du wirst mir aber sich das Gegenteil mit einer ordentlichen Studie widerlegen, der ordentlich gesammelte und randomisierte Daten zugrunde liegen, in ausreichender Zahl dokumentiert und innerhalb einer noch so großen Errorbar, die aber jedenfalls natürlich, wenn sie nicht innerhalb des üblichen 95%- Konfidenzintervallls läge, dazu ausgewiesen wird werden.

Guenter Stertenbrink schrieb:


> Und womit beweist du, dass das Spiel der GMs nicht auch um ungefähr so viel besser


> geworden ist, wie das der Computer?
> Deren Elo sind ebenso relativ zueinander, wie die der Computer. Direkt miteinander
> verglichen wurden und werden sie nicht wirklich.

werden sie doch. Es gibt immer auch etliche Partien von neu gegen alt


Werden sie nicht. Es gibt keine Partien von verstorben gegen noch lebend, es gibt keine Partien von neu, der nicht will, gegen alt, der will, aber nicht mehr kann, und es gibt jedenfalls keine halbwegs vernünftige Partienzahl, die eine vernünftige Errobar hätte, schon gar nicht, wenn die Partien alle unter halbwegs vergleichbaren Bedingungen gespielt werden müssten.

Du zweifelst ja sogar schon die statistische Verlässlichkeit einer Turnierperformance unter lebenden GMs an, die gerade alle gegeneinander gespielt haben. Siehe deine, von mir zunächst fälschlich als Scherz missverstandene  Frage nach der Errobar in dem Genke- Thread:
http://forum.computerschach.de/cgi-bin/mwf/topic_show.pl?pid=121120#pid121120
Guenter Stertenbrink schrieb:

> Ja, irgendwie so ungefähr wird's schon stimmen, was du dir da hinmalst, aber wie
> sehr genau und wie sehr daneben die Zahlen sind, mit denen du dauernd auftrumpfst,
> das weißt du eben absolut nicht.

es funktioniert doch. Die Ergebnisvorhersagen an Hand der Elos sind ziemlich zuverlaessig.
Die verschiedenen Ratinglisten zeigen im Wesentlichen dieselben Resultate.

Natürlich, sie gehen ja auch alle von ziemlich denselben überlieferten Ausgangswerten aus.
Und ab welchen Partiezahlen stimmen die Vorhersagen "ziemlich genau". Was ist "ziemlich genau" für dich?

Und nun kannst du ja auch recht haben, dass die Relationen trotz alledem ziemlich genau stimmen, es kann aber auch genau so gut ziemlich falsch sein. Und natürlich sind die Relationen sowieso nur so genau richtig oder ziemlich falsch, wie die Absolutwerte, die du zugrunde legst.
Weil 100 Elo zu 2000 addiert, ist eine Relation von 100 Plus, aber eine von 100/2000 als Quotient, der Absolutwert bestimmt bei entsprechend relevanter Rechenart auch die Relation.
Self fulfilling prophecy ist ansonsten einfach, was du machst.

Guenter Stertenbrink schrieb:

> glaubst du wirklich, dass jetzt gerade eine explosionsartige Acceleration stattfindet,
> und wenn ja, wohin?

NNs

Upps, die NNs accelerieren die Elo- Fortschritte der Engines?
Ich dachte, wir sind, seit es sie gibt, immer noch (in Relation zu dem, was sich vorher so alles an Fortschritt zahlenmäßig beweisen ließ) am SF- Niveau, nein?

Kann sein, die Explosion findet jetzt dann demnächst endlich wirklich statt, kann sein auch nicht, kann sein, wir werden's der Remisquote wegen nicht mehr wirklich beweisen können.
Guenter Stertenbrink schrieb:

> Zum Remis doch wohl höchstens vermutlich, oder?)

zum drawkiller , zu immer extremeren Noomen-Sets

Also weg von der Grundstellung und weg vom eigentlichen Schach. Ok. Nennen wir es Günter- Schach, du musst aber dann genau die Bedingungen, die für Günter- Schach gelten, definieren. Sonst stehst du zwar immer noch solide auf den Schultern von Riesen, aber deine Aussichten sind um nichts besser als die von denen, auf denen du ruhst, weil du die Grundlage deiner eigenen Erkenntnisse nicht mehr kennst und sie dich auch nicht mehr interessieren. Du siehst immer noch gut nach oben, nach unten verschwimmt dir die Sicht zusehends.

Guenter Stertenbrink schrieb:

Sag konkret, welche Elo(s) deiner Meinung nach falsch sind, dann koennen wir das gezielt untersuchen

Guenter


Du glaubst an die Verlässlichkeit von Elo, du musst konkrete Zahlenbeispiele mit entsprechend verlässlichen Untersuchungen unter reproduzierbaren Bedingungen bringen. Dir geht's um bestimmte Zahlenwerte, du musst sie nennen, die Abolutwerte, die Relationen, die Quellen aus denen du schöpfst, die Art der Berechung und die zahlenmäßgen Ergebnisse, gemeinsam mit der Errorbar.

Ich bin ja damit zufrieden, dass es sehr relative Werte sind, die mir einfach viel weniger sagen als dir.
Ich gebe zu, du hast es etwas schwerer, dein Theorem zu beweisen als ich meines. Du müsstest vor allem mal eines zahlenmäßig eingegrenzt aufstellen, sonst redest du einfach auch immer nur von "ziemlich falsch" und "ungefähr richtig".

Du müsstest die Behauptung, alle Schwäne seien weiß, dadurch beweisen, dass du alle Schwäne auf ihrer Farbe untersuchst, und übersieh bloß keine Schwan, und definiere möglichst genau die Farbe weiß.
Am Elo- Beispiel: alles, was so durch die "Literatur" geistert, z.B. auch der chessbase- Artikel, muss auf den quantitativen Wahrheitsgehalt überprüft werden, um zu einer exakten und velässlichen Summary zu kommen.

Ich muss nur einen einzigen schwarzen Schwan anschleppen und dein Theorem vom uneingeschränkt weißen Schwan ist widerlegt. Sagst du, ok, ich habe einen einzelnen schwarzen Schwan übersehen, aber alle anderen sind sicher weiß, muss ich nur einen zweiten zum Widerlegen deines neuen Zahlentheorems bringen.

Am Elo- Beispiel: eigentlich hat schon dein chessbase- Artikelt gezeigt, wie falsch gerade Statistiker mit ihren Zahlen, Prognosen, Wahrscheinlichkeitsberechnungen in Punkto Elo (und jedem anderen Rating- Maß) liegen können.

Du musst per exclusionem argumentieren, um Beweiskraft zu haben, und du musst die Kraft deiner Beweise und die Ergebnisse zahlenmäßig verteidigen, ich muss nur berechtigte Zweifel begründen, für meinen Geschmack habe ich das in den letzten Jahrzehnten ausreichend getan, ich kann ja nichts dafür, dass dir das noch immer nicht reicht.
Parent - - By Guenter Stertenbrink Date 2019-05-15 09:25
ich nannte als Referenz die Ratinglisten, du kennst sie.
Verschiedene Buecher, verschiedene Hardware, verschiedene Gegner , gleiche Elos.
Erinnerst du die kuerzliche drawkiller-Statistik ? Alle Elo-Reihenfolgen waren gleich.
Trotz vollkommen anderer Eroeffnungen. Nur "gespreizt" wegen niedrigerer Remisquote.
Und auch ERET,fcp1231 etc. (ganz ohne Eroeffnung, trotzdem gute Elo-Prognose)
Wo ist deine Referenz zur "Unzuverlaessigkeit" der Elos ?
Parent - - By Peter Martan Date 2019-05-15 12:13 Edited 2019-05-15 12:24
Guenter Stertenbrink schrieb:

Wo ist deine Referenz zur "Unzuverlaessigkeit" der Elos ?

Na, dannn nehme ich doch der Einfachheit halber gleich dieselben Beispiele wie du.
Dir dienen sie als Beispiele für Verlässlichkeit, mir als ein paar erste einfachste, bei denen ja noch zugeben relativ große Vergleichbarkeit besteht, als Beispiele für Abweichungen.

Du sagst, dies und das sei "nur" gespreizt, ich sage, schau, da ist ja was "durchaus nachweisbar" gespreizt.

Du sagst, ist egal in Hinblick auf die Relationen, ich sage, ist es schon einfach berechenbar dann auch nicht mehr, wenn in zwei Listen, von denen eine gespreizte Ergebnisse hat, die andere nicht, nicht genau dieselben Engines vorkommen, weil sich dadurch die Ranglistenplätze automatisch um die Verschiedenheit der Teilnehmerzahl verschiebt.

Dir ist das wurscht, mir eigentlich auch, aber du willst ja immer, dass alles auf eine Errorbar genau stimmt.

Und den Beweis dafür, dass die Zahlen nicht schon aus dem Jahre Schnee völlig aus der Luft gegriffen waren, als begonnen wurde, auf Vergleichen mit unter Menschen erspielten Elowerten beruhend, die der Engines zu eichen, den bist nach wie vor du schuldig.

Du weißt so gut wie ich, dass das damals einfach gemacht wurde, um ein Verkaufsargument für die Engines zu haben, damals haben ja die meisten noch was gekostet, und man hat einfach mit minimal vorhandenen Partiezahlen so getan, als wäre es statistisch irgendwie untermauert, dass dieser oder jener Schachcomputer so und so viel Elo im Vergleich zum Menschen habe. Nämlich man hat die Elo halt einfach so berechnet wie bei Menschen: anhand einzelner Partien.

Dann haben sich auf dieser Eichung beruhend, die Engines weit über die Menschen hinaus entwickelt und man begann, immer wieder anhand von "Eichengines" nachzuadjustieren, damit die Engine- Elo- Bäume nicht zu schnell in den Himmel gewachsen sind.

Ich behaupt jetzt einfach, damals hat viel mehr Elo- Fortschritt bei den Engines stattgefunden, als im Vergleich zu den Menschen dokumentiert werden konnte und sollte, und man hat einfach angefangen, willkürlich die Engine-Elo nach unten zu adjustieren, die wahre Acceleration war damals noch viel stärker als in Elo ausgedrückt wurde, dafür muss man sich jetzt umso mehr bemühen, noch irgendwoher nachweisbare Steigerungen zu dokumentieren, man muss dazu schon dauernd noch und noch im Vergleich zur Spitze schon sehr viel schwächere Engines mitspielen lassen, die Hardware- TC kurz halten, die Bücher kastrieren oder gleich willkürlich reine Testbücher schreiben, und das alles, um nach wie vor zu den menschlichen Spielern und den Engines aus dem Jahre Schnee, scheinbar Relation zu halten.

Du wirst von mir wieder entsprechende eigene Tests fordern, mit denen ich das beweise, ich sage dir wieder, ich weiß es eh so auch, wenn du's nicht glaubst, geh du her und fang von vorn zu testen an, und verlass dich nicht einfach auf die Überlieferungen aus Zeiten, in denen die Hardware eine ganz andere war, die Voraussetzungen von Software- Entwicklung schon allein daher auch, und selbst das Menschenschach war noch ein anderes, allein schon deshalb, weil nicht alle Profis soviel Hardware-Software- Kombis so preiswert zur Verfügung hatten zur Vorbereitung, und die Größe und die Zugänglichkeit der Datenbanken eine ganz andere war.

Die Theorie aus dem chessbase- Artikel war ja unter anderem auch, dass es durchaus sein könnte, dass sich das Menschenschach auch weiterentwickeln würde und wie sehr im Vergleich zum Engine- Schach, sei zu hinterfragen.
Wie widerlegst du denn quantitativ die Schieflage dieser Vermutung, wenn seither nur mehr Menschen gegen Menschen und Engines gegen Engines gespielt haben?
Gerade erst hast du eine Errobar für ein bestimmtes Turnier gefordert, und bei den Jahrzehnte lang nur mehr auf Vermutungen und Interpolation mit willkürlicher Nacheichung auf beiden Seiten, der der Menschen- und der Engineelo, ist dir die Überprüfung einfach schnurzpiep.

Und dann bleiben wir noch kurz bei dem Beispiel, das du als ein leuchtendes für Falschprognose gebracht hast, das von 2013, da stimmen wir also überein, dass da was etwas ungenau vorher berechnet wurde. Da hätten wir ja qualitativ eine Übereinstimmung aber du bist der Quantifizierer und es wäre also an dir, den Irrtum in Elo und mit Errorbar zu beziffern.
Wohlgemerkt, nicht einfach aus irgendwelchen vorhandenen Listen abzuschreiben, selbst nachrechnen wäre hier die Aufgabe der Beweisführung, einfach glauben kann ich auch viel oder eben nicht.

Und dann wäre es an dir, der du auf Genauigkeit, Verlässlichkeit, Übertragbarkeit und konsequenter Weise dann also schon auch Absolutwerten bestehst, eine genaue Angabe darüber zu machen, was genau für dich genau ist.
Wie weit genau dürfen Spreizungen gespreizt sein, um wieviel dürfen bei der einzelnen Engine die Absolutwerte differieren, ab wo sagst du Abweichung, und wie hoch sind die Errobars für welches deiner Beispiele. Wieviel Unterschied darf in den Bedingungen deiner Ratinglisten sein, damit du die Bedingungen überhaupt noch wie gut vergleichbar findest?

Jetzt nämlich nicht nur innerhalb von Listen, die in der jüngsten Vergangenheit ständig aktualisiert wurden und in denen nur aktuelle Engines gelistet werden.
Wie steht's mit den Engines von annodazumal, die in manchen Listen immer noch ohne neue Partien mitgeschleppt werden und in anderen nicht? Wie steht's mit Listen, die nicht mehr aktualisiert werden? Kann ich die auch alle als einzelne Beispiele nehmen, in denen Errorbars und Grenzwerte, wie du sie halt ersteinmal genau definieren müsstest, vielleicht doch ein bisschen ausreiten?

Ich weiß schon, dass ich Ansprüche stelle, die nicht leicht zu befriedigen sind, aber noch einmal: ich hätte mich ja auf gar kein bestimmtes Maß festgelegt oder mich auch einfach mit deinem zufrieden gegeben, du willst mir ja aber ständig beweisen, wie genau für dich genau ist.

Lass gut sein, Günter, ich finde mich damit ab, dass meine Ansprüche quantitativ geringer sind als deine, wenn du dich damit abfindest, dass ich dir keine genaue (und halbwegs verlässliche) Zahl nennen kann, wie groß die Wahrscheinlichkeit für das Ausbrechen einer Vogelgrippe unter Menschen in absehbarer Zukunft ist, die von Mensch zu Mensch übertragen wird.
Nur so als Beispiel für Forderungen nach exakten Zahlen deinerseits, die auch nicht leicht zu erfüllen sind.
Parent - - By Guenter Stertenbrink Date 2019-05-15 15:05
Wahrscheinlichkeitsprognosen sind leicht zu erfuellen. Gibst du just deine derzeitige
gefuehlsmaessige Wahrscheinlichkeit, ohne viel nachzudenken. Aber die Leute weigerten sich.
Mit Nachdenken waer natuerlich besser, und besonders die Experten,
wenigstens einige davon- sollten das tun , und die Zahlen oeffentlich diskutieren.
------------------------------------------------------
Jeff Sonas' Hauptaugenmerk war ja gerade eine verlaesslichere Ratingliste, die eben die alten und
neuen Elos vergleicht. Die Computer-prognose war sozusagen nur ein Abfallstueck davon.
https://en.chessbase.com/post/the-sonas-rating-formula-better-than-elo
http://www.chessmetrics.com/cm/

> has served the chess world quite well for a long time

Hauptproblem sind die wenigen Partien und Spielstaerkeschwankungen
und TC-differences ... kein Problem fuer Computer.
Parent - - By Peter Martan Date 2019-05-15 19:30 Edited 2019-05-15 19:39
Guenter Stertenbrink schrieb:

Wahrscheinlichkeitsprognosen sind leicht zu erfuellen. Gibst du just deine derzeitige
gefuehlsmaessige Wahrscheinlichkeit, ohne viel nachzudenken. Aber die Leute weigerten sich.
Mit Nachdenken waer natuerlich besser, und besonders die Experten,
wenigstens einige davon- sollten das tun , und die Zahlen oeffentlich diskutieren.

Und wozu soll das gut sein?
Guenter Stertenbrink schrieb:

Jeff Sonas' Hauptaugenmerk war ja gerade eine verlaesslichere Ratingliste, die eben die alten und
neuen Elos vergleicht. Die Computer-prognose war sozusagen nur ein Abfallstueck davon.
<a class='ura' href='https://en.chessbase.com/post/the-sonas-rating-formula-better-than-elo'>https://en.chessbase.com/post/the-sonas-rating-formula-better-than-elo</a>
<a class='ura' href='http://www.chessmetrics.com/cm/'>http://www.chessmetrics.com/cm/</a>

> has served the chess world quite well for a long time

Hauptproblem sind die wenigen Partien und Spielstaerkeschwankungen
und TC-differences ... kein Problem fuer Computer.

Schön langsam erinnere ich mich, den Namen und den Succus schon mal irgendwo gelesen oder gehört zu haben.
Schwere Kost für mich, aber so weit ich's verstehe, klingt's eigentlich ganz schlüssig für mich.

Zurück zum Thema Vergleich zwischen Computer- Rating und dem von Menschen, ohne Partien ist es alles rein digitale Berechnung (von digitus=Finger) im Sinne von, man saugt sich etwas aus den Fingern.


Und während einem das beim Schach ja noch Spaß machen mag und nicht viel schaden wird, finde ich die Idee, sich als Experte oder auch nur als jemand, auf den irgendwie geachtet wird in einer Diskussion, irgendwelche Phantasiezahlen zum Thema Pandemien bestimmter möglichst schlimm vorstellbarer Erreger mit möglichst schlimmem Ausbereitungsweg, Krankheitsverlauf und Therapieresistenz  aus den Fingern zu saugen, nur damit du zufrieden bist, einigermaßen doof.

Und übrigens, auf welcher Basis, wenn ich mir da was aus den Fingern sauge, willst du denn dann mit mir darüber diskutieren, Günter?
Woher würdest du deine Zahlen beziehen, um sie meinen entgegen zu halten?
Für mich wären die Quellen, die da irgendwelche Wahrscheinlichkeiten angäben, dubios in der Sache als solche, nenne mir mal welche, aber komm mir nicht mit Virusdatenbanken und Genomforschung von bekannten existenten Viren, das Virus, das du dir ausmalst, gibt es nicht, zumindest mit einer sehr sehr hohen Wahrscheinlichkeit nicht und das war's dann, was man halbwegs exakt dazu sagen kann. Natürlich müsstest du es aber auch erstmal genau definieren, einfach Virus eines bekannten Grippestammes mit einem bekannten Vogelgrippestamm kombiniert, sozusagen ein Doppelvirus, das beides kann, ohne dabei selbst zu Schaden zu kommen, ist keine Definition von einem Virus auf eine diskussionwürdigen Basis.

Es gehört sich einfach nicht, mit sowas völlig haltlos zu spekulieren, drum werde ich's weiterhin nicht in irgendwelchen Zahlen tun, nur weil du das gerne hättest, und schon gar nicht im CSS- Forum.

Und dann sterben wir alle bald mal am Klimawandel, und deine Promille- Wahrscheinlichkeit, die du dir zur Beruhigung ausgerechnet hast, dass du wahrscheinlich eh nicht an Grippe sterben wirst, sind buchstäblich mit denen gestorben, die da Prognosen in einer noch viel unberechenbareren Frage erstellt haben.

Was stellst du dir eigentlich unter der Wahrscheinlichkeit vor, die eine Virusmutation einer bestimmten Art haben könnte?
Woher willst du bei der Berechnung wissen, was genau für Eigenschaften das mutierte Virus haben würde?

Genau das Genom, das du jetzt kennst, wird's nicht sein, sonst ist's keine Mutation, eine x-beliebige andere ist nicht ganz so wahrscheinlich wie eine beliebig andere oder eine Spur wahrscheinlich, und beide zusammen ergeben immer noch eine praktisch Null- Wahrscheinlichkeit.
Vor allem werden mit einer praktisch beliebig hohen Wahrscheinlichkeit, die weitaus überwiegenden Mutationsmöglichkeiten nicht überlebensfähig sein, nicht ansteckend, nicht für Menschen ansteckend, ansteckend aber harmloser als die Viren, die wir sonst so haben, und ein Schreckgespenst, wie es Leute wie du immer wieder gerne mal an die Wand malen, weil sie sich mit Zahlen weniger dafür fürchten, kann zwar natürlich auch vorkommen, immerhin sind ja bei der Vogelgrippe selbst auch immer wieder mal Menschen erkrankt, die entsprechen engen Kontakt zum infizierten Geflügel hatten.
Aber dass das dann eine Überlebensfähigkeit in Trägermedien, einen Übertragungsweg, eine Infektiosltät, eine Wirtsreaktion und einen Krankheitsverlauf wie die humanpathogenen Grippeviren hätte, hängt von so vielen Faktoren ab genetisch, dass der Phantasie keine Grenzen gesetzt sind, dementsprechen viel solchen (Phantasie) brauchst du, um dir da Zahlen digital aufzumalen, das mit dem digital und den Fingern muss ich dir jetzt nicht mehr erklären.

Die existenten bekannten Grippeviren sind ja auch Legion in ihren Stämmen, die Wahrscheinlichkeit eines bestimmten solchen Stammes vorherzusagen, von dem man die genetischen Eigenschaften schon ziemlich genau kennt, die nächste lokale Grippewelle auslösen zu können, ist Sache der Impfforschung schon, aber auch wenn du glaubst, man könnte so wie beim Schach zwischen Menschen und Maschinen hochrechnen auf irgendwelche Phantasieviren, dann hast du halt, entschuldige, keine Ahnung, ich auch nicht im Vergleich zu Wissenschaftlern, die an der Sache dran sind, aber dir fehlt da, fürchte ich, Ahnung hoch zwei oder drei, also mach dir mal lieber einfach keine Sorgen, Günter, die Zahlen, die ich mir für dich aus den Fingern saugen könnte, sind jedenfalls so klein, dass du sie getrost gleich wieder vergessen kannst.

Bleiben wir lieber bei den Elo und oder anderen Schach- Ratingsystemen und trennen wir die der Maschinen, wenn du mich fragst, ruhig auch einfach von denen der Menschen, letztere zu berechnen ist sicher ungleich schwieriger, weil sie nicht so viele Partien gegeneinander spielen und weil es mehr verschiedene Menschen als Schachengines gibt, vor allem solche, die irgendjemanden in ihrem Rating interessieren.

Ich finde halt, man müsste sich viel weniger Arbeit machen, ein Ranking für Schachengines allein zu erstellen, wenn man's jetzt auf das Ausrechnen allein beschränkt, das Spielen lassen geht auch leichter als bei Menschen, ist dabei dann erst ein Thema für sich, die Bedingungen nämlich, unter denen die Partien abgehalten werden sollten.

Dieses Ranking für Schachengines völlig abgekoppelt von dem der Menschen zu berechnen, würde es schon um einiges leichter machen, nämlich das eine, die getrennte Betrachtung und Berechnung ist möglich, das andere praktisch nicht in einer statistischen Anforderung, wie man sie ans Computerschach stellt, und aber es ist jedenfalls einfach ein ganz anderes Problem.

Tatsächlich ist es ja de facto ohnehin  schon langst voneinander völlig abgekoppelt, kein Mensch, der sich halbwegs auskennt, nimmt das noch für bare Münze, dass das wirklich irgendwie lineare Beziehungen zueinander hätte oder wenigstens beschreibbar proportional zueinander wäre.

Was war noch gleich das Thema?
Parent - - By Guenter Stertenbrink Date 2019-05-15 20:05 Edited 2019-05-15 20:08
aber die Regierungen mussten Pandemieplaene entwickeln und Antivirale Medikamente
einlagern und Impfstofffabriken bauen. Aber wieviel ? Ohne Expertenschaetzung ?
Das ist dann ein Politikum stattdessen und orientiert sich an der lokalen historischen
Sensibilitaet des Themas in der Bevoelkerung, obwohl natuerlich eine Pandemie glabal ist
und die Bevoelkerung keine Ahnung hat.
ich erinnere z.B. dieses Paper :
https://www.jstor.org/stable/43315647?seq=1#page_scan_tab_contents
ist nicht mehr online, ich kann das volle .pdf emailen
auch hier diskutiert :
http://www.psandman.com/gst2013.htm  sowie in den Foren flutrackers,fluwikie etc.
Die Diskussion in den Expertenrunden wurde dann stattdessen emotionalisiert und
mit Wortkreationen fuer Wahrscheinlichkeiten und Erwartungswerte gefuehrt.
wie "half of mankind could die" .

---------------------------------

vielleicht kann Frank, der eifrige Mensch-engine Tester und Fuehrer der FCP-Rangliste
was zum Thema Elovergleich Mensch-Computer sagen.
Oder vielleicht war das ja schon ein Thema hier bevor ich euch fand ?!
Parent - By Ingo Althöfer Date 2019-05-15 20:23
Lieber Guenter,

ich erinnere mich gut, wie Du auch mich damals in manchen
Emails genervt hast.

Guenter Stertenbrink schrieb:

aber die Regierungen mussten Pandemieplaene entwickeln ...
Das ist dann ein Politikum stattdessen und orientiert sich an der
lokalen historischen Sensibilitaet des Themas in der Bevoelkerung, ...

Richtig. Aber nach wie vor glaube ich, dass es gut war, (intelligente)
Hysteriker wie Dich NICHT einzuweihen.

Ingo.
Parent - By Peter Martan Date 2019-05-15 20:40 Edited 2019-05-15 20:45
Günter, das sind doch völlig verschiedene Sachen, Pandemie- worst case- Szenarien zu erstellen und die gesundheitspolitischen Vorkehrungen im Rahmen das berechenbar Machbaren auf der einen Seite und Spekulationen, wie wahrscheinlich genau was für ein (nur am exakten Genom definierbaren) Virus aus den derzeit bekannten Datenbasen abschätzbar ist, das kannst du einfach nicht vergleichen, vielleicht wolltest du das ja auch gar nicht, aber ohne so eine Grundlagenforschung ist die Rechnung einfach auf das beschränkt, was es jetzt schon gab und gibt an Pandemien.
Und dann kannst du hochrechnen, was wäre wenn noch virulentere Stämme noch umweltresistenter wären und noch infektiöser und der Mensch noch weniger Kreuzimmunität gegen Bekanntes hätte, die unspezifische Abwehr noch weniger entgegenzusetzen hätte und und, und dann kommst du natürlich locker auf die Hälfte der Menschheit in kurzer Zeit in einem Phantasiefall, aber ebenso locker auf die ganze in einem anderen. Natürlich ist theoretisch alles möglich, ja und, so what?
Dagegen kannst du sowieso keine vernünftigen Katastrophenpläne erstellen, da kannst du nur hoffen, dass du's eh nicht mehr erlebst, weil dich vorher der Blitz trifft. Auf der anderen Seite wieder, dadurch könntest du mit ziemlicher Wahrscheinlichkeit erst recht einen nicht unerheblichen Teil an Lebenserwartung einbüßen, fürchte dich doch lieber davor, das ist immerhin ein konkrete und auch irgendwie berechenbare Befürchtung. Und das andere worst case- Ding hätte ja auch wieder das irgendwie Tröstliche, dass wir alle gemeinsam stürben und, falls das Supervirus nur Menschen killt aber keine Tierlein, kann die Evolution von vorn anfangen und wir behindern sie wenigstens nicht mehr so wie jetzt oder stellen sie überhaupt durch unser erdunwürdiges Verhalten ganz in Frage.

Nein, wirklich, sollten wir uns da heutzutage nicht besser andere Sorgen machen, um reale Bedrohungen und Katastrophen, die ständig wirklich passieren?
Seuchenhygiene ist praktisch relevant für überschaubare Zeit- und Ortsfenster. So funktioniert sie und ist ein sicher wichtiges und interessantes Thema, aber eigentlich auch nicht für ein Computerschachforum.

Und das unbehandelbare Killervirus, das durch nichts an der Ausbreitung gehindert werden kann, wenn es erst mal aus dem Labor raus ist, das man gerade mit militärischen AI- Anwendungen ausrechnet und zusammenbastelt, wird eh unter Verschluss gehalten, sowohl räumlich als auch nachrichtentechnisch. Es sei denn, es ist ein Rechenfehler passiert, uups.
Parent - By Peter Martan Date 2019-05-14 22:38
Clemens Keck schrieb:

Mir fällt da nur ein als Rybka erschien, so ein Einschlag, das war eigentlich nicht vorstellbar damals.

ich erinnere mich noch gut, von heute auf morgen gab's nur mehr Rybka am Server, dabei war der die das damals taktisch noch so schwach, relativ zu seiner "positionellen" Stärke, dass er sich selbst immer wieder mal eine Partie versaut hat durch Selbstüberlistung.

Das erinnert mich auch an irgendwas Heutiges, aber für Viele wird das ein ganz schlechtes Beispiel sein, dass du da als Vergleich gebracht hast, Clemens.
Parent - - By Horst Sikorsky Date 2019-05-14 22:00
Lothar Jung schrieb:

1. Zitat aus dem aktuellen Blog zum gewählten Leela-SuFi-Netz:
...it can be summarized as a T40 net forked from 42000 with an additional 3x LR (learning rate) drop applied at the fork and partial 7-man tablebase rescoring. It was trained only on games produced in the main training pipeline and doesn't include any non-zero features that distinguish it from any other T40 net (LR drops and TB rescoring are a standard part of Leela's training process).
Also kein Abweichen vom reinen „zero“-Ansatz, wie gelegentlich kolportiert wurde.

2. Folgendes zukünftiges Fp16-Feature für NVIDIA-GPUs ohne Tensorcores:
Fp16 nchw for cudnn-fp16 backend (support GTX 16xx GPUs)
<a class='ura' href='https://github.com/LeelaChessZero/lc0/commit/fa926e568f67b6bad2e6227f519d428ef776e0fd'>https://github.com/LeelaChessZero/lc0/commit/fa926e568f67b6bad2e6227f519d428ef776e0fd</a>

Lothar

Hallo Lothar,
wie kämpfe ich mich da durch, damit meine GTX 1060 schneller wird?
Grüße Horst
Parent - By Werner Schüle Date 2019-05-14 22:04
..die 1060 kann das nicht, nur die neuen 16... Modelle.
Werner
Parent - - By Lothar Jung Date 2019-05-14 22:12
Sorry, genau wie Werner sagt, nur die neuen 16.. GPUs.
Lohnt sich Preis-/Leistungsmässig nicht besonders.
Besser warten auf billigere RTX 2060 GPUs.

Lothar
Parent - - By Horst Sikorsky Date 2019-05-14 22:22
Entschuldigung , da habe ich nicht richtig gelesen.
249 MB runterladen dauert bei mir ungefähr eine Stunde!!!!
oder länger  heute kann es noch bis morgen dauern.
Parent - - By Werner Schüle Date 2019-05-15 14:14 Edited 2019-05-15 14:17
Ich habe eine Vorabversion mal getestet, die Steigerung ist nicht so krass wie bei den Karten mit Tensor Cores, aber ich habe damit dann 1,75 mal höhere nps.
z.B. bei nach 15 Sekunden statt 2565 dann 4572 und nach 32 Sekunden 4966 nps in der Grundstellung bei meiner GTX 1650.
Werner
Parent - By Lothar Jung Date 2019-05-15 16:21
Danke für den Test, das bringt ja doch was.
Lothar
Up Topic Hauptforen / CSS-Forum / Neues von den Leela-Machern

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill