Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / RTX 3000er Serie erscheint bald
1 2 Previous Next  
- - By Eduard Nemeth Date 2020-08-16 00:46
Im September soll es soweit sein:

https://www.pcwelt.de/news/50-schneller-Alle-Infos-zu-Nvidia-RTX-3000-Leistung-Release-Preise-10862936.html
Parent - - By Thomas Lagershausen Date 2020-08-16 08:09 Upvotes 1
Ich bin von der GPU-Technik enttäuscht.

Eine solcher Stromhunger ist einfach nicht mehr zeitgemäß.

Ich geb mein Geld lieber für eine effiziente CPU aus.
Parent - - By Wolfgang Battig Date 2020-08-16 10:38 Upvotes 1
Kann ich nur zustimmen!
Völlig unnötig, zumal LC0 gerade in den Hintergrund rückt und mit NNUE (mal wieder) eine ganz andere "Sau durchs Dorf getrieben wird", bei der die GPU keine Rolle spielt.
Aber gut, jeder verschwende sein Geld und seinen - teuer bezahlten - Strom wie er mag
Parent - - By Benno Hartwig Date 2020-08-16 12:31 Edited 2020-08-16 12:37

> Völlig unnötig, zumal LC0 gerade in den Hintergrund rückt...


Das Interesse an superstarken Grafikkarten war IMHO dann besonders groß, als sich gerade damit das zur Zeit allerstärkste Schach realisieren ließ.
Und da haben die NNUE-Stockfishe solchen Lösungen zur Zeit wohl den Rang abgelaufen.

BTW:
Wenn sich jemand eine heutige Superduper-Grafikkarte in seinen Rechner setzt und mit LC0 darauf werkelt,
welche CPU-Ausstattung auf einem anderen Rechner wäre dann wohl nötig, um mit Stockfish-NNUE dort ein gleichgutes (gleicherfolgreiches) Schach zu erreichen?

PS
Und vielleicht erleben wir ja nochmal einen Spielstärkesprung (eine deutliche Geschwindigkeitssteigerung), wenn es jemandem gelingt, die NN-Logik von Stockfish mit Hilfe der Grafikkarte zu realisieren.
Und womöglich würden dann auch hier etwas größere Netze hantierbar, und vielleicht gäbe auch das nochmal einen Schub!
Wir werden wohl kurzfristig noch so einige echte Neuerungen, Synbiosen und Sprünge erleben.
Und das ist doch sehr, sehr fein!
Parent - By Hauke Lutz Date 2020-08-16 13:17
Es ist ein angenehmes Luxusproblem, dass nach der langen Dominanz von Stockfish endlich mal unterschiedlichste Ansätze bei Engines die leider oder zum Glück, da Vor- und Nachteile unterschiedliche Hardware benötigen auf spürbar höherem Niveau wieder mehr Breite zur Verfügung steht.
Das sich die Kosten/Nutzenfrage für viele nicht stellt, weil die 3000er Reihe vermutlich bei der Anschaffung und am Stromzähler ein teures Vergnügen wird liegt ja eher daran, dass es auf dem Leistungsniveau leider keinen Mitbewerber gibt.
Ich persönlich finde es sehr angenehm, dass ich mit 1 PC lc0 mit 100% und 1 CPU-Engine mit 80%+ CPU-Leistung gleichzeitig laufen lassen kann um bei Analysen just in time sehr zügig, weil unterschiedliche Hardware vergleichen zu können was die Engines vorschlagen.

Aufgrund der viel größeren Rechenleistung von GPUs im Vergleich zu CPUs (Vergleich Lc0 GPU-CPU-Versionen) wäre es wirklich vielversprechend, welche Leistung z.B. Stockfish_NNUE erbringen kann, wenn diese Effektiv eine GPU nutzen würde.
Parent - By Benno Hartwig Date 2020-08-16 12:40 Upvotes 2

> Aber gut, jeder verschwende sein Geld und seinen - teuer bezahlten - Strom wie er mag


Wohl die Mehrheit der Bevölkerung würde uns allesamt, die wir Engines gegeneinander antreten lassen, mit großer Überzeugtheit mit solch einem Statement (oder auch mit einem viel herberem!) bedenken!
Parent - - By Florian Wieting Date 2020-08-16 14:29
Euch ist aber schon bewusst, dass die bei den NNUE-Lösungen benutzten neuronalen Netze nur dadurch zur Verfügung stehen, weil bei https://lczero.org/ etliche Kilowattstunden Energie in GPUs "verschwendet" wurden.
Bitte nie vergessen, auf wessen Schultern man steht, damit man wie ein Riese wirkt.
Parent - - By Thomas Lagershausen Date 2020-08-16 14:55
Du weisst schon das Du Dich hier des sogenannten Strohmann-Arguments bedienst?

Die 175 Watt GPU's die wir heute in unseren PC haben taten diese Vorarbeit für SF-Nnue bereits.

Da ist eine teure Aufrüstung auf 320 Watt GPU's nicht mehr von nöten.
Parent - By Florian Wieting Date 2020-08-16 15:24
Hallo, Thomas,

da wolltest du mich aber bewusst missverstehen.

Gruß
Florian
Parent - - By Jörg Oster Date 2020-08-16 16:06 Upvotes 1
Florian Wieting schrieb:

Euch ist aber schon bewusst, dass die bei den NNUE-Lösungen benutzten neuronalen Netze nur dadurch zur Verfügung stehen, weil bei <a class='urs' href='https://lczero.org/'>https://lczero.org/</a> etliche Kilowattstunden Energie in GPUs "verschwendet" wurden.
Bitte nie vergessen, auf wessen Schultern man steht, damit man wie ein Riese wirkt.


Wieso denn das?

Soweit ich weiß, erzeugt Sergio Vieri Netze durch Reinforcement Learning.
Es werden Trainingsdaten mit dem aktuellen Netz erzeugt, und davon wird dann wieder gelernt, usw.
Siehe https://www.comp.nus.edu.sg/~sergio-v/nnue/

Und D. Kappe erzeugt seine Netze auch mit eigens erzeugten Trainingsdaten.

Von welchen Netzen also sprichst du?
Parent - By Florian Wieting Date 2020-08-16 17:45 Edited 2020-08-16 18:14
Wenn es sich so verhält, dann habe ich wieder etwas dazugelernt.

Meine Äußerung bezog sich auf diese Website:
https://lczero.org/play/networks/bestnets/

Da bauen die Netze von dkappe und sergio-v noch auf Daten von Lc0 auf.

PS.
Abgesehen davon, dass ich wegen der Raumtemperaturen in meiner Wohnung (zur Zeit 29,5°) meinen Account "Dithyrambus" bei lczero.org seit Wochen nicht mehr bediene, stellt sich mir dann aber die Frage, ob sich der Einsatz überhaupt noch lohnt, wenn einzelne wie dkappe und sergio-v bessere Ergebnisse liefern als das verteilte Rechnen der Gemeinschaft.
Bitte diese Bemerkung nicht ironisch deuten, die Frage ist ernst gemeint.
Parent - - By Benno Hartwig Date 2020-08-16 21:33
Basiert NNUE wirklich ganz konkret auf Lc0?
Oder basiert es einfach auf den Ideen, die damals bei Alpha0 für Aufsehen sorgten?

Und basiert die NNUE-Leistung heute wirklich auf den Lc0/A0-Analyseergebnissen, die mit Graphikkarten effizient erstellt werden konnten?
Oder basiert sie auf den Methoden und Algorithmen, die ja unabhängig sind von der Hardware?

Welche Schultern sind es denn tatsächlich, auf denen jetzt gestanden wird?!
Parent - By Peter Martan Date 2020-08-16 21:40 Edited 2020-08-16 21:45 Upvotes 1
Shogi mit NNUE- Eval. Das was dort, in Japan von Herrn Hisayori Noda hauptsächlich, hierzulande als nodchip bekannt

https://www.chessprogramming.org/Hisayori_Noda

, nachdem zuerst Ideen von SF fürs Shogi verwendet worden waren, wurde dann auf SF fürs Schach umgelegt.

So ähnlich wie's bei Leela für Go war (Gian-Carlo Pascutto).

Miteinander zu tun haben die beiden Entwicklungen praktisch nix, soviel ich weiß.
Parent - - By Frank Brenner Date 2020-08-19 20:58
Der Energieverbrauch pro Rechenoperation ist bei den neuen Grafikkarten sehr niedrig.
Jede CPU ist im Vergleich dazu eine Energieverschwender.

Aber ich weiß, das sind technische Details die jenseits des Horizontes liegen.

Jetzt wo Leela nicht mehr spielstärker wird, tritt der DAU einfach mal gegen die Grafikkartenhersteller.
Parent - - By Olaf Jenkner Date 2020-08-19 21:18 Upvotes 1
Frank Brenner schrieb:

Der Energieverbrauch pro Rechenoperation ist bei den neuen Grafikkarten sehr niedrig.
Jede CPU ist im Vergleich dazu eine Energieverschwender.

Wenn man Äpfel mit Tomaten vergleicht, kommt immer das richtige raus.
Parent - By Frank Brenner Date 2020-08-19 21:38
Äpfel und Tomaten ?  Es geht hier um die  GPU-Technik .
Parent - - By Thomas Lagershausen Date 2020-08-20 08:59 Upvotes 1
Frank Brenner schrieb:

Jetzt wo Leela nicht mehr spielstärker wird, tritt der DAU einfach mal gegen die Grafikkartenhersteller.


Halten wir also fest: Für Herrn Brenner sind viele hier im Forum der dümmste anzunehmende Nutzer.

Gut zu wissen welche Nettiquette hier gepflegt wird.

Wir merken uns das.
Parent - - By Frank Brenner Date 2020-08-20 15:43
Solange die Kuh zu melken war wurde sie mit freude gemolken.  Sobald (temporär) was besseres kommt wird die Kuh getreten und verteufelt.
Parent - - By Eduard Nemeth Date 2020-08-20 21:01 Edited 2020-08-20 21:03
Aktuell ist Stockfish NNUE ja noch ziemlich neu, und der Reiz damit zu spielen, ist natürlich gross. Auf dem Server spielen jetzt fast alle damit. Mal sehen wie lange das anhält (bevor Lc0 wieder im Trend sein wird)? Festzuhalten ist jedenfalls dass es mit NNUE fast nur noch Remisspiele gibt. Stärkere Hardware kommt kaum zur Geltung. Sie muss schon ziemlich schneller sein (Faktor 3 mindestens) damit man einen Schwächeren hin und wieder mal besiegt (ich spiele gerade eine lange Remisserie). Irgend etwas Neues wird jedenfalls passieren müssen, will man mehr Spass haben. Für mich heisst das Neue dann die neue Nvidia GPU (besser 2) und dann wieder Lc0 fahren.
Parent - By Peter Martan Date 2020-08-20 21:15 Edited 2020-08-20 21:25 Upvotes 1
Gut, dass wenigstens du nicht auch noch die arme Kuh GPU trittst und verteufelst.

Keiner rechnet so billig wie die arme Kuh GPU, leider braucht sie halt eine CPU auch noch, weil sie sonst nicht Schach spielen kann, so "effektiv" ihre "Rechenoperationen" für sich auch sein mögen, die Suche läuft auch bei LC0 auf der CPU.
Ich weiß, dass du das weißt, Eduard, nur ein Mathematiker unter uns Daus hat das unter den Tisch gekehrt, als er uns vorgerechnet hat, wie viel besser der Strom in die GPU investiert ist. Das Ganze erinnert mich an bestimmte Zahlenwerte, die uns bewiesen haben, wie ineffektiv schachlich das Pondern sei.

Und übrigens nein, ich hab' mir immer noch keine neue GPU geleistet, habe das arme Tier also wenigstens bisher auch noch nicht so richtig gemolken, missgönnte aber auch keinem die Freude daran.
Und ja, jetzt werde ich dann (aber sicher nicht gleich, wenn wieder was Neues rauskommt) auch bald mal eine GPU für LC0 kaufen, um mich auch endlich mal wieder etwas melken zu lassen, schon aus Solidarität mit der Kuh.
Parent - - By Benno Hartwig Date 2020-08-20 23:08

> Mal sehen wie lange das anhält (bevor Lc0 wieder im Trend sein wird)?


Wohl erst dann, wenn wir erleben, dass Lc0 wenigstens eine annähernd ausgeglichene Bilanz gegen SF-mit NNUE rausholt.


Ich vermute eigentlich eher, dass SF mit NNUE deutliche Fortschritte macht (mit Netzen der heutigen Größe, oder auch ein modifizierter SF mit anderen, vielleicht größeren), als dass wir bei Lc0 (Software, Netz, Hardware) einen deutlichen Schritt erleben.
Siehst du das denn anders?
Ich wäre nicht überrascht, wenn Lc0 auch mit starker Hardware jetzt deutlich und auch auf längere Sicht hinter SF bleibt.
Wenn Lc0 tatsächlich gar nicht mehr "im Trend" sein wird.
Aber, ok, mal sehen...

> Festzuhalten ist jedenfalls dass es mit NNUE fast nur noch Remisspiele gibt.


Sehe ich es richtig, dass in den Spielen Lc0 vs. SF-mit-NNUE vor allem beobachtet wird, das weniger Remisen da sind und dafür mehr Lc0-Niederlagen?
Aus Sicht eines Lc0-Spielers vermag ich darin eigentlich keinen Vorteil zu erkennen.

Mich interessiert auch:
Spielten die Lc0 untereinander wirklich weniger Remis als heute die SF-NNUE untereinander?
Parent - - By Eduard Nemeth Date 2020-08-21 04:10 Edited 2020-08-21 04:16
Leela spielt gegen Leela auch oft Remis. Das hatte auch keinen Spass mehr gemacht. Jetzt spielt Stockfish gegen Stockfish fast nur Remis (mit wenigen Ausnahmen, wenn jemand etwas Spezielles testet). Der Hardware-Vorteil ist dahin. Wer mit weniger als 32 Kernen spielt, kann fast genauso gut mit nur 6 Kernen spielen. Die Bewertung von NNUE ist so stabil, dass ein paar Suchtiefen mehr, fast nix mehr bringen. Und auch in extrem geschlossenen Stellungen kann man jetzt deshalb auch mit schwacher Hardware gut mithalten. Zuvor war das doch schwieriger gewesen.

Ohne die Serverspiele würde ich mich kaum noch für Computerschach interessieren. Ich betrachte alles immer im Hinblick darauf. Stockfish ist universeller und NNUE jetzt noch mehr. Dennoch weiss ich, dass es Stellungen (Eröffnungsvarianten) gibt die Lc0 besser kann als Stockfish NNUE. Und das Gute ist, man kann solche Stellungen fast erzwingen wenn beide Seiten den Gewinn suchen. Lc0 kann nämlich auch aus Wenig viel machen wenn ein bestimmter Stellungstyp auf dem Brett steht. Stockfish kann das nicht so gut. Lc0 ist für mich deshalb die ganz wichtige die Bonus-Engine (für gewichtige Turniere). Sie ist wie der Joker den man bringt! Darauf möchte ich nicht verzichten. Klar dass man dafür auch eine besondere Hardware benötigt - zum Glück ist sie ja auch da - und sie wird bald noch besser werden!

Au dem Server machen die Bücher extrem viel aus. Vor allem wenn man mit Stockfish spielt. Das hat sich nicht geändert. Lc0 benötigt weniger Buch, und wenn man sich schlau anstellt, kann man viel Theorie umgehen. Beispiel: Aus dem Buch wurde in einer geschlossenen Stellung mit noch 14 bis 16 Bauern, gerade Raf1 gezogen. Nun enthält das BIG-BOOK vieler Spieler auch da noch extrem viele Varianten, es gibt fast nichts was nicht im Buch steht. Aber nur fast! Lc0 beherrscht nämlich die Kunst, selbst wenn man als Nächstes den Turm wieder zurück nach a1 zieht, auch dann noch aus einer solchen schlechteren Stellung, trotzdem viel zu machen! Solche Züge würde ich aber niemals bei unwichtigen Turnieren anwenden. Es genügt ja, wenn ich eine solche Waffe 2 bis 3x im Jahr anwenden kann (zum Glück geht das nun wieder dank NNUE). Und genau dafür benötige ich Lc0! :->
Parent - - By Lothar Jung Date 2020-08-21 12:26
Ich kann Dir da nur zustimmen.
Mit meiner GPU-Hardware schaffe ich es derzeit nicht gegen 8/16 Kerne/Threads gegen SF NNUE zu gewinnen.
Remis gegen fast alle SF NNUE.
Gutes Computerschach ist preiswert und energiesparend geworden.
Ein Notebook mit 8 Ryzenkernen reicht vollständig aus, um immer remis zu spielen.
Es ist jedoch sehr langweilig.

Lothar
Parent - - By Volker Göbel Date 2020-08-21 13:00
Hi Lothar.
Ich erwäge deswegen auch, das Online-Engine-Schachspiel demnächst an den berühmten Nagel zu hängen. Wenn sich da nichts mehr tun sollte . Ist mir wie du schon sagtest, mittlerweile zu langweilig das ganze.
Parent - - By Lothar Jung Date 2020-08-21 13:27
Hallo Volker,
mache ich nicht, vielleicht etwas eingeschränkt.
Wir müssen auf bessere Netze warten.
Was mich am meisten stört sind da „Spieler“, die einen aus der Partie werfen.

Lothar
Parent - By Volker Göbel Date 2020-08-22 05:21
Spieler die einen aus der Partie werfen, wie meinst du das denn konkret?
Bei mir kommt es vor dass ich schon einige male verloren habe weil meine Engine plötzlich aufgehört hat zu rechnen.(caused an exception), wurde dann angezeigt.    
Meinst du damit sowas? Dass dies vom Gegner verursacht wird???

Volker
Parent - By Benno Hartwig Date 2020-08-21 13:59

> Gutes Computerschach ist preiswert und energiesparend geworden.


Gerade darin kann ich aber doch nun wirklich nichts anderes als einen Vorteil sehen!!!
Und "gutes Schach" ist bei ebenbürtigen Gegnern eben wohl besonders remisträchtig. Bei Rechnern und bei Menschen(!!!).

Es bleibt wohl dabei:
Wer meint, dass besonders spielstarkes Schach zu viele Remis herbeiführt, der wird sich mit Regeländerungen auseinandersetzen "müssen" (nein: natürlich "muss" keiner was!), die weniger Remis erhoffen lassen. Vorschläge gab es da ja schon.
- Regeländerungen, die die Zugmöglichkeiten betreffen
- Regeländerungen, die die Patt-Wertung betreffen
- Regeländerungen (Änderungen bei der Wertung), die Anreize schaffen, risikoreicher zu spielen, "Sieg und Niederlage" muss mehr zählen als "zwei Remis", ggf. auch farbabhängig.
- Vorgabestellungen (Schach960 oder andere Ansätze)
- noch ganz anderes???
Parent - - By Frank Brenner Date 2020-08-20 23:20
Das NNUE Netzwerk ist auch bereits seit knapp 2 Wochen austrainiert und es wird hier keine Verbesserungen mehr geben.

Verbesserungen erfolgen letze Zeit nur noch mit der Suchoptimierung.

Ich könnte mir vorstellen, daß in Zukunft völlig neue NN Architekturen ausprobiert werden.

Und zwar sowohl welche mit minimalen Matrizen die auch mit den SIMD Befehlen der CPUs berechnet werden können als auch
größere Netzwerke für die man dann wieder GPU's benötigt.

Wir haben ja bereits seit einigen Jahren gelernt, daß selbst bei LC0 die Netzwerke sehr schnell konvergieren. Bei den kleinen NNUE Netzwerken erfolgt die Konvergenz viel schneller.

Das Monatelange weitertrainieren führt zu nichts, das hat man jetzt aus den 2 Jahren Leela gelernt.

Die taktische schwäche von Leela liegt nicht an Leela, sondern liegt nur daran, daß eine Monte Carlo Suche veranstaltet wurde.
Leela ist Taktisch hervorragend, wenn man berücksichtigt wieviele Taktische Manöver allein durch die NN-Positionsbewertung erfasst werden.
Im Vergleich zur Leela Bewertung ist die handcrafted SF Bewertung taktisch super-blind.

Bei SF-NNUE sehen wir keine taktische Blindheit, weil die NNUE Bewertung in einer alpha-beta Suche eingebettet ist.

Ich hoffe dass wir in Zukunft eine größere Menge an unterschiedlichen (besser werdenden) NN-Architekturen erleben werden.
Egal ob GPU- (große Netzwerke) oder CPU-basiert (kleine Netzwerke)

Vielleicht, und da sehe ich auch noch chancen drin,  könnte die NN-Bewertung Steuersignale für die Suche erzeugen, um den Suchprozess auch durch ein NN zu optimieren.
Parent - - By Heinz Hagenstein Date 2020-08-21 00:59
Meine Meinung als Laie ,die Monte Carlo Suche scheint mir eine Brute Force Suche zu sein,
diese wiederum erscheinen in den Netzen durch die hohe Rechenleistung der GPU auf dem Stand der CPU zu sein,
also Gleichstand der Systeme zur Zeit, NNUE finde ich gut.
Parent - By Frank Brenner Date 2020-08-21 14:58 Edited 2020-08-21 15:03
Monte Carlo ist Zufallsbasiert und konvergiert im Limes gegen eine Minimax Suche.
Für scharfe taktische Manöver ist Monte Carlo sehr schlecht geeignet.

Leela benutzt Monte Carlo, da das neuronale Netz 1000 mal so lange für die Positionsbewertung benötigt wie die handgeschriebene Stockfish Bewertung.
Man könnte durchaus Leela auch in einem Alpha-Beta Programm einbetten und austesten. Warum das noch keiner probiert hat, weiss ich nicht.

Wären die GPU's 1000 mal so schnell, (reicht auch 1-100) so könnte Leela ebenfalls in eine Alpha-Beta Suche integriert werden und die taktische Schwäche
von Leela wäre ein für alle mal beendet. Leela wäre dann taktisch um ein vielfaches stärker als SF, denn allein die Leela Bewertung ist so dermaßen gut, daß der normale Stockfish hierfür manchmal bis zu 30 Halbzüge tief rechnen müsste um das zu sehen, was die Leela Positionsbewertung auf dem ersten Blick sieht.
Allerdings hat die Leela Bewertung auch schwächen. So kann Leela einfach nicht mattsetzen. Leela schafft König+Turm vs König nicht zu gewinnen.
Die Leela Bewertung ist in diesem 3 Steine Endspiel nicht fein genug eine Matt in 3 Position eine höhere Bewertung zu geben als eine Matt in 17 Position.
Parent - - By Tommy Tulpe Date 2020-08-21 01:27
Frank Brenner schrieb:

Das NNUE Netzwerk ist auch bereits seit knapp 2 Wochen austrainiert und es wird hier keine Verbesserungen mehr geben.

Verbesserungen erfolgen letze Zeit nur noch mit der Suchoptimierung.

Ich könnte mir vorstellen, daß in Zukunft völlig neue NN Architekturen ausprobiert werden.
(...)

Das Monatelange weitertrainieren führt zu nichts, das hat man jetzt aus den 2 Jahren Leela gelernt.


Hallo Frank, hallo liebe Experten,
ich habe mich schon vor rund 30 Jahren mit Grundlagen der Schachprogrammierung auf der Basis von Alpha-Beta-Suche beschäftigt und habe das Prinzip verstanden. Mit den neuronalen Netzweken kenne ich mich viel zu wenig aus.
Was ich nicht verstehe: Warum soll monatelanges oder jahrelanges Weitertrainieren keinen Spielstärkezuwachs bringen? Das geht nicht linear, aber ein Zuwachs müsste doch immer herausspringen, weil die Bewertung durch"ewiges" Trainieren immer besser wird. Begehe ich einen Denkfehler?

Wer klärt mich bitte auf?

Nette Grüße

Ulrich
Parent - - By Frank Brenner Date 2020-08-21 14:52 Edited 2020-08-21 15:06
Hallo Ulrich,

dann hast du 2 Jahre lang nicht die Entwicklung von Leela beobachtet.

Abgesehen von der zuletzt gestarteten größten 6er Netzwerkstruktur, waren alle anderen Netzwerke bereits nach einigen Wochen ausgelernt.
Die Community hat aber stets  noch monatelang weiterrechnen lassen, in der Hoffnung dass da noch was an Spielstärke kommt.
Die Korngrößensenkungen haben oft noch mal eine Hand voll Elo gebracht, aber die wurden auch stets sehr lange hinausgezögert.

Bis auf ein paar +/- 10 ELO Varianten kam da nichts mehr bei zustande.

Das aktuelle, sehr kleine NNUE Netzwerk, das so klein ist, daß es sogar von der CPU mit den SIMD (Vektorrechenoperationen) effizient ausgeführt werden kann, ist sogar nach noch kürzerer Zeit ausgelernt.

Mittlerweile hat man gelernt, daß das monatelange rechnen nicht mehr viel bringt.
Effizienter wäre es den Lernprozess viel früher stoppen und stattdessen mit einer völlig neuen Architektur das Glück zu versuchen.

Also konkret wäre es superschlau gewesen ,nach dem erste Leela Netzwerk (1er) auch einmal ein mikroskopisch kleines Netzwerk (ähnlich wie NNUE) zu versuchen.

Aber für NNUE mus man schon genial sein. Der Nodchip aus Japan, ist ein versierter Mathematiker.

NNUE (mir fehlt leider jede Art von Dokumentation dazu) ist ein deutlich anderes Neuronales Netz mit viel viel kürzeren Vektoren und viel kleineren Matritzen.
Es lernt auch viel schneller aus. Ein paar Tage reichen aus. Würde die gesamte Hardware welche für die Leela Entwicklung zur Verügung stehen für die optimierung des NNUE Netzwerk hergenommen, wäre das NNUE Netzwerk bereits nach einigen Stunden ausgelernt.

Für die Zukunft kann ich mir Fortschritte nur noch bei völlig neuen Netzwerken vorstellen, andere Architektur, Aufbau und vielleicht neue Steuersignale an die Suche.

Grüße Frank
Parent - - By Peter Martan Date 2020-08-21 19:37 Edited 2020-08-21 20:33
Frank Brenner schrieb:

NNUE (mir fehlt leider jede Art von Dokumentation dazu)

Nix für ungut, Frank, das merkt man aber auch, having that said machst du hier unter uns armen Daus dafür wieder mal ganz schön starke Ansagen über Vergangenheit und Zukunft des Computerschachs. Einerseits sinngemäß "eh schon wieder alles vorbei" und hingegen vage Hoffnung auf völlig andere Ansätze, ich persönlich finde die, dir wir derzeit haben, eigentlich nach wie vor (vielleicht 4Wochen, die mit NNUE im Schach überhaupt was passiert) ganz interessant, rein so praktisch von dem bisschen, was bei NNUE überhaupt schon probiert wurde und dem, was noch alles probiert werden kann und werden wird. Halt vielleicht weniger von Theoretikern wie dir und mehr von Praktikern.


Von hier

http://talkchess.com/forum3/viewtopic.php?f=2&t=74852

der direkte Link

https://github.com/official-stockfish/Stockfish/issues/2915#issuecomment-678112885

Von dort springst du zu

http://yaneuraou.yaneu.com/2020/08/21/3-technologies-in-shogi-ai-that-could-be-used-for-chess-ai/

Völlig fehlendes Grundlagenwissen (wie bei uns Daus) suchst du dir am besten vielleicht mal zunächst aus einem Thread wie diesem aus dem Chess Programming Unterforum vom CCC,, leider führt der eine Link von der, der vielleicht der interessanteste wäre, nur zu ganz wenig Englisch und ganz viel Japanisch


http://talkchess.com/forum3/viewtopic.php?f=7&t=74780

https://www.apply.computer-shogi.org/wcsc28/appeal/the_end_of_genesis_T.N.K.evolution_turbo_type_D/nnue.pdf

http://talkchess.com/forum3/viewtopic.php?p=856173#p856173

In dem Posting vom letzten Link ist etwas zum Runterladen drin, daher kein direkter Link dazu hier von mir.

Das Problem ist, dass die Grundlagen der Sache fürs Shogi erarbeitet wurden, viel Japanische Originalliteratur, die jetzt erst ans Schach angepasst und übersetzt wird.

Aber natürlich auch, wenn dir das nicht erst recht zu popelig (popolärwisschenschaftlich) ist:

https://www.chessprogramming.org/Stockfish_NNUE#NNUE_Structure
Parent - - By Frank Brenner Date 2020-08-22 03:19
Danke für die Links.

Ich finde da aber höchstens nur ein kurzes "Briefing", auch die Übersetzung aus dem Chinesischen(oder Jap.?)
Lehrbuchcharakter hat das alles nicht, dazu müsste es sehr viel ausführlicher sein.
Parent - - By Peter Martan Date 2020-08-22 09:20 Edited 2020-08-22 09:36 Upvotes 2
Frank Brenner schrieb:

Lehrbuchcharakter hat das alles nicht, dazu müsste es sehr viel ausführlicher sein.

Genau auf diese Antwort habe ich gewartet.

Der Witz ist nämlich der: selbst wenn du das alles aus dem Lehrbuch gelernt hättest, praktische Ahnung von der Anwendung hättest du immer noch keine.
Vielleicht solltest du dich lieber mit der auch wenigstens ein bisschen beschäftigen, bevor du den Daus verkündest, das habe ohnehin alles keinen weiteren Sinn mehr und die Netze seien schon alle austrainiert, bevor man überhaupt noch wirklich angefangen hat in die vielen verschiedenen Richtungen zu entwickeln, die's da gibt. Damit gab's jetzt gerade mal ein etwas größer angelegtes Reinforcement Learning von Sergio Vieri (Einzelperson), mag sein, das führt, wenn man's einfach immer weiter laufen lässt, nicht mehr zu den großen neuen Erkenntnissen, ja, und? Das war's dann für dich? Wahrscheinlich ist es tatsächlich alles, was du wahrgenommen hast, aber groß reden und die Anderen, die sich damit befassen, theoretisch und praktisch, alle für blöd erklären.
Unterhalte dich vielleicht, bevor du alle mögliche Primärliteratur weiter eh auch nicht liest, selbst wenn du sie hast, mit jemandem wie Dietrich Kappe (naja, da lese dich vielleicht doch lieber vorher noch etwas ein, um wenigstens ein bisschen theoretische Grundbildung zu haben, damit er überhaupt sinnvoll mit dir reden kann, wenn er will)  oder schau dir eines der vielen Netze näher an, die er gebaut hat in der kurzen Zeit.
Und wenn du dann ein bisschen Ahnung davo hast, was alles geht, stell dir ein beliebige Art von .pgn- Training vor, bevor du weiter von "austrainiert" herumprustest.
Und vom Zusammenspiel von verschiedenen Programmen (jetzt ist's in zeitlich vorhandenem Ansatz praktisch nur mit SF- Lerndateien von Hisayori Noda, genannt nodchip probiert worden) mit verschiedener Suche und eigenen von ihnen und für sie trainierten Netzen wollen wir dann etwas später reden, passieren tut das schon auch mittlerweile, es ist dir nur auch sch...einbar egal.

Was mich immer am meisten verblüfft, ist die völlige Ignoranz demgegenüber, was sich da schachlich in den letzten 4 Wochen getan hat. Tatsächlich könnte man die Sache als solche nämlich nur daran messen und beurteilen, es geht um Schach, weißt du?

Hast du SF NNUE überhaupt schon als Analysewerkzeug wenigstens ein bisschen ausprobiert? Wenn ja, mag das die größte Bildungslücke bei dir in derlei Sachen sein, es geht dir das Schach als solches einfach am A...ufmerksamkeitsfenster vorbei. Darüber dann weiter zu pondern, ist in diesem Fall dann natürlich für dich sinnlos.
Parent - - By Frank Brenner Date 2020-08-23 04:36
Selbstverständlich habe ich NNUE ausgiebig ausprobiert. Nicht nur in hunderten auto-Matches gegen andere Engines, sondern auch mit vielen Dutzend  handgespielten Partien.
Und ich fühle hier durchaus die gestiegene Spielstärke. Ich nehme als Referenz nicht nur SF-Dev, sondern feste Standardkerzen, zb Rybka 4, Fritz, aber auch SF 9 und spiele per Hand. Bei NNUE bemerke ich sehr oft selbst dann eine ständig ansteigende Bewertung wenn der Gegner noch keinen offensichtlichen taktischen Fehler gemacht hat. Der Druck wird ständig erhöht, die Anzahl an spielbaren Zügen wird für die Gegenseite immer weniger und meistens recht früh kommt dann zusätzlich noch ein taktischer Fehler.

Und ich habe nicht alle als Dau bezeichnet.

Sondern nur die Figuren die sich in den letzen 2 Jahren über die enorme Spielstärke und das enorme Positionsverständnis von Leela erfreut haben und
jetzt - vielleicht aus  Verdruss weil Leela nicht mehr stärker wird  - aber vor allem weil jetzt eine rein CPU basiertes NN aufgetaucht ist das Leela spielstärkemäßig überflügelt, die GPU Technik als unnütze Energieschleuder ansieht und die GPU als Ineffizient bezeichnet.

Ich habe selber ein NN programmiert welches Ziffern aus einer Pixelmatrix erkennt. Das ist schon lange her, das Netzwerk war zweistufig, rein CPU basiert und ohne SIMD.
Hier bietet sich das NN auf natürliche Weise an und man benötigt nicht viel Können das Netz zu programmieren.

Die Theorie zu NN gibt es schon seit vielen Jahren.

Die Positionsbewertung von Schach in ein NN zu überführen ist dagegen neu. Und zwar nicht, weil es erst seit 2 Jahren ausreichend starke GPU's gibt, sondern weil sich fast alle Menschen die etwas von NN verstehen sich keine Architektur vorstellen konnten die für eine gute  Schachbewertung taugt.
NNUE ist 4 Stufig. Das unintuitive daran ist das Netzwerk selbst. Wieso klappt das ? Wie gestaltet man die Stufen, welche Inputs für die erste Stufe und wieviel Schichten insgesamt ? Dank Leela und Nodchip wissen wir das jetzt, das es klappt und auch wie.
Inwiefern Nodchip bereits intern schon viele andere Architekturen ausprobiert hat weiß ich nicht. Ich hoffe er hat da noch nicht so viel Arbeit investiert, denn an dieser Stelle gibt es das größte Potential für Verbesserungen.

Kurz bevor Alpha-Zero auftauchte, standen NN im Zusammenhang mit Schach  nicht ernsthaft (bestenfalls nur Ergebnislos) zur Diskussion.
Diejenigen Schachprogramme die zu der Zeit meinten lernen zu können, haben selbst nach 1 Mio Partien noch nicht mal 10 ELO gewonnen.
Es ging ja damals nur um das Ausloten von Eröffnungen, indem bei Partieverlust/Gewinn  irgendwie zu einem oder mehreren Eröffnungszug ein minus oder plus addiert wurde. Bestenfalls wurde so eine geringfügig bessere Eröffnung "gelernt". Aber auch das hat nicht geklappt.
Thomas Zipproth hat die beste Methode damals gefunden um Eröffnungsbücher zu perfektionieren.
Der Rechenprozess der Engine an sich blieb aber unberührt.

Du wirst es schon erleben, daß das 20 MB große NNUE Netzwerk bereits jetzt ausgelernt hat.  Spürbar besser wirds nicht. Vielleicht kann man es noch für Chess960 optimieren, oder für Startstellungen mit Vorgaben. (z.B. Weiß opfert vor dem ersten zug einen Springer).
Stockfish spielt sehr spielstark mit nur einem Springer und gewinnt gegen ELO 2000 Spieler. Leela dagegen versucht sich nicht zu verbessern und wickelt geradezu selbstmörderisch in ein trivial verlorenes Endspiel ab. Leela verliert mit einem Springer sogar gegen einen ELO 1600 Spieler.
Parent - - By Peter Martan Date 2020-08-23 08:56 Edited 2020-08-23 09:24
Frank Brenner schrieb:

Du wirst es schon erleben, daß das 20 MB große NNUE Netzwerk bereits jetzt ausgelernt hat.

Du redest ständig von NNs, wie sie Leela verwendet. NNUE lernt von einem A-B-Programm für ein A-B-Programm und von für dessen Suche.
Du musst nicht immer wieder von der Grundstellung aus Selflearning laufen lassen, (müsstest du ja bei LC0 auch nicht, wenn man sich nicht von Anfang an an ein Zero- Prinzip geklammert hätte) kannst du mit NNUE auch machen, und mag dann auch bald nicht mehr genug weitere Tiefe erreichen, dass die 20Mb noch viel Inforcement und Reinforcement bekommen, musst du aber noch weniger als bei Leela, und macht man auch jetzt schon von Anfang an nicht mehr ausschließlich.

Aber drum hab' ich ja gerade mit dem Link angefangen

http://talkchess.com/forum3/viewtopic.php?f=2&t=74852&sid=04c8da74997b793b89a00a69966d93e8

und mit denen, die davon ausgehen.
Bietet einfach einen kleinen Ausblick, was du mit diesen kleinen und schnell erstellbaren und gut steuerbaren Netzen alles machen kannst, Netze für bestimmte Eröffnungssysteme wären z.B. auch naheliegend und vielleicht das geringste Problem. Was wird für ein Aufwand mit den Engine- Büchern sowieso getrieben, da erspart man sich vielleicht sogar Arbeit relativ zu jetzt.

Endspielnetze gibt's auch für Leela (Ender von Dietrich Kappe z.B.), aber wenn du schon selbst Netze trainiert hast, wirst du wissen, (wenn du nämlich NNUE- Netze auch schon trainiert hast) was das für ein völlig unterschiedlicher Aufwand das ist, je nachdem, wovon du ausgehst, und was du erreichen willst.

Und dann nochmal ein weiterer wesentlicher Punkt, der dir offenbar auch einfach an der Phantasie vorbeigeht: Jetzt hat man gerade mal mit SF angefangen, ja, ausgefeilte Suche, natürlich, naheliegend, aber wenn dieses Highend- Programm schon solche Spielstärkesteigerungen erfährt (und ich rede auch nicht von den 100 Elo, die man sich im erweiterten Selfplay aufmalt, weil gegen SF lässt sich natürlich SF NNUE am schönsten ausspielen, man muss ja aber in dieser Kategorie weitere Fortschritte überhaupt erst mal gegen den Remistod nachweisen), die ein jeder User, auch wenn er für dich ein DAU ist, selbst beim Analysieren mit dem Programm sieht, wenn das schon mit dem einen Spitzen-Programm so viel bringt, woher nimmst du die Borniertheit, andere Programmansätze nicht erst recht durch NNUE aufrüsten und ganz andere Wege gehen sehen zu wollen? Du musst da nämlich gar nicht von "ganz anderen" Entwicklungen träumen, du musst dir nur anschauen, was schon jetzt alles an A-B-Programmen NNUE auch zu nutzen anfangen, Minic, Igel, Orion sind erst ein paar und von RubiChess hab' ich auch schon was gelesen:

http://talkchess.com/forum3/viewtopic.php?p=856907#p856907

Was glaubst du, wird der nächste komodo und der nächste Shredder und der nächste Fritz Neues bieten?

Mag ja sein, die GPUs werden auch was beitragen wieder, aber einer der Vorteile ist halt momentan, dass man die GPU gar nicht braucht, die CPU braucht man sowieso für die Suche, LC0 ja auch.

NNUE ersetzt oder ergänzt die fix einprogrammierte Eval, die steuert die Suche, und die Suche bringt weitere Verbesserung der Eval, bisher nur an Parametern, jetzt an Netz- "Wissen", das die Suche (es gibt kaum noch andere als die Lern- Binaries von nodchip) steuert und von der dann auch mehr an weiterem Netztraining profitiert.
Wenn du die Möglichkeiten, die das zur weiteren Programmentwicklung bietet, nicht siehst, bist du für mich einfach schachblind.

Das einzige, was alledem wirklich im Weg steht, ist der Remistod im Computerschach, zu dem man mit all diesen Entwicklungen natürlich weiter beiträgt, aber der gilt ja nur fürs Eng-Eng-Match und fürs Fernschach. Fürs Computerschach als Werkzeug zur Analyse und zur Eröffnungsvorbereitung und zum menschlichen Schachverständnis von Mittel- und Endspiel ist hier für mich einfach mal wieder ein großer Schritt vom Spielzeug zum Tool gemacht worden. In Kinderschuhen noch, aber trotzdem ein großer Schritt.

Man muss bedenken, dass das ganze Computerschach, relativ zur Aufgabe, wenigstens schon bei den ersten, sagen wir 20 Zügen, diejenigen, die nur Remis bei halbwegs fehlerfreiem Spiel bringen, von denjenigen, bei denen sich das Weiterspielen (und damit das mit diesen Zügen überhaupt anfangen) lohnt, dass das Computerschach als solches, was diese Primäraufgabe angeht, die reinen Remiszüge von den anderen zu unterscheiden, ja sowieso noch in ziemlich kleinen Kinderschuhen steckt.
Man ist ein paar Schritte weit dahin gekommen, zu wissen, welche Züge von Anfang an verlieren, aber das kann's ja noch nicht gewesen sein bei einem Spiel, das, wenn fehlerfrei geführt, ja höchst wahrscheinlich doch Remis ist, halt auf verschieden spannende und verschieden unterhaltsame Weise und an verschieden frühen oder späten Stellungen zwingend beweisbar.

Mag sein, ich habe das bei LC0 noch ein bisschen verpasst am Anfang, weil da waren die genialen Züge, die plötzlich viel schneller gefunden wurden, halt auch anfangs mit Patzern auf der anderen Seite erkauft, mit etwas Forward- Backward mit SF konnte man nachvollziehen, wo's bei dem da einfach relativ zum NN noch mangelte, hat SF ja auch allein durch die Matches gegen LC0 schon weitergebreacht in der Entwicklung, und mag durchaus sein, da geht's jetzt mit Selflearning allein, immer wieder von der Grundstellung aus in immer größere und Hardware- Zeit- aufwendigere Netze zu investieren, vielleicht wirklich nicht mehr sehr viel weiter, aber auch da wird man dadurch vielleicht mehr andere Wege des gesteuerten Lernens gehen, aber beim NNUE ist für mich wieder viel mehr Phantasie drin, Programmierern die Chance zur Eigenleistung zu geben, was die Eval  und was die Suche angeht.
Just my two cents.
Parent - - By Lothar Jung Date 2020-08-23 10:54 Edited 2020-08-23 11:02
Ich würde Lc0 noch nicht abschreiben.
Fest steht, daß die T60-Entwicklung stagniert.
Jedes Netztraining hatte nach einiger Zeit seinen Sättigungspunkt erreicht.

Aber die Diskussion zwischen den Entwickler und Fachleuten wurde durch NNUE sehr „angeregt“.
Gut es gibt Hoffnungen aufgrund von RTX 30XX und CUDA 11/cudnn 8.03.
Aber das ändert an der Qualität der Netze nichts.
Man hat erfolgreich Alpha Zero mit Leela nachentwickelt und überholt.
Insoweit war das Reinforcement Learning Projekt erfolgreich.

Aber die KI besteht nicht nur aus RL.
Andere KI-Anwendungen wie Managed-Learning an (Sprach- und Übersetzungsanwendungen, Text- und Bilderkennung).
Man könnte zum Beispiel (wie schon gemacht) Computerpartien für das Training einsetzen oder NNUE einbeziehen.
Wichtige Bereiche sind auf den positionellen Spielstil von Leela angepasstes Eröffnungswissen und die Verbesserung des Endspiels.
Taktische Löcher wird es aufgrund der MC-Suche immer geben.

Lothar
Parent - - By Peter Martan Date 2020-08-23 11:04 Edited 2020-08-23 11:17
Lothar Jung schrieb:

Ich würde Lc0 noch nicht abschreiben.

Sicher nicht.
Das Zero- Prinzip ist vielleicht schön langsam ziemlich durch, aber vielleicht finden sich im Zuge der NNUE- Entwicklung ja auch noch Wege, die PUCT- Suche zu verbessern, oder überhaupt durch A-B zu ersetzen oder zu ergänzen. Mir scheint, dass Allie ursprünglich mal solche Wege gehen wollte, das ist aber wohl eingeschlafen(?).

Und mehrere kleinere Netze statt einem großen, für die verschiedenen Partiephasen und verschiedene Eröffnungen, das mag auch bei Leela- artigen Netzen Zukunft haben.
Die Frage ist einfach mehr und mehr, was lohnt noch am ehesten welchen möglichst wenig riesigen Hardware- Zeit- Aufwand, und was lässt sich an Fortschritt noch wie nachweisen.

LC0, SF schön langsam doch schon überholt habend, hatte ja auch schon nach relativ kurzer Entwicklungszeit kaum mehr Leistungsdruck, mehr als die Nr.1 kann man (leider) im Computerschach halt immer noch nicht wirklich werden.
Dabei, je weniger die Elo noch zwischen verschiedenen Hardware- TCS, Eröffnungen und Engine- Pools übertragbar sind, wird die Nützlichkeit von Werkzeugen für die menschlichen Fragestellungen Eröffnung, taktische Durchrechnung bestimmter Mittelspiel- Aufgaben und Endspiel halt sowieso besser und leichter in spezialisierter Aufteilung weiter entwickelbar sein, als nur immer weiter in immer weniger aussagende Elo- Sphären, von denen schon lang Keiner mehr was hat, und die allein schon der Statistik zuliebe Unmengen Ressourcen kosten.
Parent - - By Lothar Jung Date 2020-08-23 11:10 Edited 2020-08-23 11:29 Upvotes 1
Zum Hardware- und Preisaufwand fand ich diese „schönen“ Artikel zur RTX 3090:

https://wccftech.com/nvidia-geforce-rtx-3090-flagship-ampere-gaming-graphics-card-pictured-1400-us-price/

https://www.pcbuildersclub.com/2020/08/nvidia-ampere-alles-was-wir-ueber-rtx-3080-und-rtx-3090-wissen/

Der Stromverbrauch soll bei 320-350 Watt liegen.

Und selbst dieses Monstrum kann den Rückstand auf SF NNUE nicht einholen:

# PLAYER :           RATING POINTS PLAYED (%)
1 Stockfish :           3852.8 105.0 134 78
2 Stockfish Classic  3778.0 93.5 134 70
3 Leelenstein :        3774.1 93.0 132 70
4 Lc0 :                   3752.6 90.5 134 68
5 Stoofvlees :         3750.1 89.0 132 67
6 Komodo : 3699.9 81.0 132 61
7 Fire : 3637.6 70.0 134 52
8 Lc0 CPU : 3603.8 64.5 134 48
9 Ethereal : 3591.9 61.0 132 46
10 Xiphos : 3575.3 59.0 132 45
11 SlowChess : 3569.9 58.0 132 44
12 DarkQueen : 3559.5 57.5 134 43
13 Komodo MC : 3552.9 54.5 132 41
14 Rofchade : 3537.6 51.5 132 39
15 Rubi : 3464.5 40.0 132 30
16 Defenchess : 3453.6 39.0 132 30
17 Winter : 3329.3 22.0 132 17
18 Wasp : 3316.6 1.0 4 25

14,5 Punkte!!

Lothar
Parent - - By Peter Martan Date 2020-08-23 11:28 Edited 2020-08-23 11:30
Hab nach deiner Antwort noch eine Weile herumeditiert, aber eh nichts wirklich Neues mehr dazu geschrieben.
Dein Posting ist aber seit meiner Antwort drauf auch noch einmal ziemlich gewachsen.

Und schon sind wir wieder bei der alten Frage der "Leela- Ratio", die kann man sich halt auch spätestens dann aufmalen, wenn die PUCT- und MCTS- Sucher auch mehr CPU- Leistung werden haben wollen, derzeit geht's ja für LC0 ohne CPU auch überhaupt nicht. Also da einfach die "Rechenoperationen" zu vergleichen, das hat Olaf Jenkner treffend mit Äpfeln und Tomaten kommentiert, ja, kann man schon vergleichen, ist aber sinnlos.

Dann wäre ich also erst recht nach wie vor für eine Ratio, die sich am Stromverbrauch orientiert, bei allem was man dagegen schon lange einwendet, und was jetzt erst recht nicht leichter zu vergleichen sein wird.

Aber in einem Gesamtsystem aus CPU und GPU sehe ich außer den schwammigen Elo oder irgendwelchen direkt stellungsabhängigen Messwerten nach wie vor keine Messgröße, die da irgendwas aussagen würde.
(Knoten? Noch eine Nummer weniger als vor NNUE. Time to depth? Ist mit der gehäuften Demonstration von NNUE- Evals, die mit viel weniger Depth in vielen relevanten Stellungen gleichzeitig viel weniger Time to Solution brauchen, auch wieder völlig ins Rutschen gekommen, sogar bei ein und derselben Suche und Engine.)
Parent - - By Lothar Jung Date 2020-08-23 11:43
Parent - - By Peter Martan Date 2020-08-23 12:44
Eigentlich ist bei mir nur die Hälfte vom Deckblatt und die Zusammenfassung auf Deutsch, aber es macht nix, Lothar, weil ich's eh auf Deutsch auch nicht wirklich verstehen würde.

Nein, im Ernst, danke für den Link, in einer stillen Stunde werde ich mich versuchen ein bisschen durchzukämpfen.
Parent - By Lothar Jung Date 2020-08-23 12:56
SF und Leela haben durch ihre Konkurrenz das Computerschach sehr weitergebracht.
Die bisher offene Flanke von SF, die geschlossenen/positionellen Stellungen, wurde durch NNUE geschlossen.
Die offene Flanken von Leela, Blunder in taktisch/offene Stellungen aufgrund der geringeren Rechentiefe und MC-Suche sowie das Endspiel bleiben bestehen.

Lothar
Parent - - By Lothar Jung Date 2020-08-21 13:59
Hallo Frank,

auch dieses zukünftige Tool zur Umwandung von Lc0-Trainingdaten zum Training von NNUE-Netzen ist sehr interessant und für Leela besorgniserregend:

https://github.com/xXH4CKST3RXx/lc0-to-nnue-data

Lothar
Parent - - By Reinhold Stibi Date 2020-08-23 12:31
Hallo Lothar,

könnte mir vorstellen dass mit Deiner Hardware Lc0 0.26.1 Leelenstein 15 ganz oben mitspielen könnte.

Lt. der Rangliste von Andreas Strangmüller liegt Leelenstein 15 bei den Kurzzeitpartien nur 26 Elo zum Spitzenreiter SF mit NNUE zurück.

Da Leelenstein von den Lc0s das beste Endspiel spielt, bräuchte man nicht einmal Eman Chimera.

Ich habe mit nur 1 RTX 2070 mit Leelenstein 15 sogar Deinen Spitzenwert übertroffen. Im jetzigen Zeitpunkt ist
aber Lc0 mit nur einer RTX2070 zu schwach.

Reinhold
Parent - By Lothar Jung Date 2020-08-23 12:50
Hallo Reinhold,

ich hole mir LS später.
Bin halt ein opensource freak.
Es ist schon frustrierend. Bei den Kurzzeitpartien am Wochenende schaffe ich es nicht mit meiner Hardware gegen einen 4 oder 6 Kerner zu gewinnen. SF NNUE ist der absolute Remis Gleichmacher.

LG Lothar
Parent - - By Thomas Lagershausen Date 2020-08-23 14:44
Eduard Nemeth schrieb:

Im September soll es soweit sein:

<a class='ura' href='https://www.pcwelt.de/news/50-schneller-Alle-Infos-zu-Nvidia-RTX-3000-Leistung-Release-Preise-10862936.html'>https://www.pcwelt.de/news/50-schneller-Alle-Infos-zu-Nvidia-RTX-3000-Leistung-Release-Preise-10862936.html</a>


Menschen die ihr Geld noch für andere Dinge ausgeben als stets die nächste überteuerte Grafikkarte finden dies hier vielleicht interessant.

https://www.youtube.com/watch?v=FTn-q4zgb3w&t=671s
Parent - - By Lothar Jung Date 2020-08-24 13:01
Parent - - By Peter Martan Date 2020-08-24 13:40 Edited 2020-08-24 13:57
Du hast Thomas statt Eduard geantwortet, aber wenigstens sind wir jetzt nach einigen Umwegen beim eigentlichen Thread- Thema gelandet

Danke für den Link, 350 Watt sind halt schon eine satte Sache, ich hoffe, da ist das, was der Kühler zusätzlich frisst, wenigstens schon dabei, bis ich das mit einer halbwegs vernünftigen CPU erreiche, kann ich ganz schön avx2- Gas geben.

Wir sind wieder bei der "Leela- Ratio", diesmal auf der Basis einer Anschaffungs- und Betriebsrechnung, eine CPU braucht der Rechner, eine GPU fürs Schachspielen eigentlich außer für LC0 überhaupt nicht, und wenn ich kein Video- Gamer bin (der von einer solchen neuen Nvidia wahrscheinlich auch kaum noch was profitiert) investiere ich jetzt da, mal vom Strom in der Folge abgesehen, schon in eine neue GPU, die dann vielleicht in ein paar Stellungen "entscheidend" weniger Time to Solution hat mit LC0, 1200 Euronen (der Preis steht ja aber noch gar nicht wirklich fest), nach dem Herauskommen werden einem die "alten" RTX- Nvidias (incl. der 2080ti) wahrscheinlich nachgeschmissen, so lange man sie halt überhaupt noch kriegt.

Glaubst du persönlich, dass du relativ zu einer 2080ti da wirklich bei vielen verschiedenen TCs viel profitieren wirst von dem Mehrpreis? Am Server wirst du's eh nie erfahren, was das Buch, was der Zufall und was die GPU gebracht hat, und über 15'+5", sag' ich jetzt mal, wirst du den Unterschied bei ansonsten gut reproduzierbaren Bedingungen nicht leicht nachweisen können.

Backward bringt bei LC0 eh nix, und ob ich jetzt füs Fernschach zur zusätzlichen Ideen- Findung (zusätzlich zum interaktiven Analysieren, für das ich sowieso irgendeine A-B-Engine weiter brauche) LC0 auf einer halbwegs vernünftigen GPU, die's nach dem "Generationenwechsel" jetzt schon um niedrigere Preise beim Händler geben wird, beim Zwischenhändler erst recht) eine halbe Stunde rechnen lasse (danach ändert sich bei 2080ti sowieso auch nie mehr was am 1. Halbzug) oder das neue Superdingens 20 Minuten, was macht das für einen "entscheidenden" Unterschied?

Bei SF lasse ich es mir noch einreden, dass ich mit mehr Forward- Backward- Geschwindigkeit Zeit, am Rechner sitzend, sparen kann und will. Aber für ein reines Standalone- Spielzeug?
Sorry, ich weiß, ich bin ein bisschen voreingenommen, aber ist's nicht auch einfach wahr? Aus deiner subjektiven Schachspieler-Sicht des Preis- Leistungsverhältnisses, aus der Sicht des LC0- Fans und des NichtunbedingtnurLC0- Fans?


Just my two cents hat hier auch eine besonders passende Bedeutung.
Up Topic Hauptforen / CSS-Forum / RTX 3000er Serie erscheint bald
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill