Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / 4.801.341.606 nps auf 4096 threads
- - By Benno Hartwig Date 2019-11-12 19:02 Edited 2019-11-12 19:11
4.801.341.606     128 cpu's x32 threads Cluster System     4096threads     SF Pop     vondele

zeigt die faszinierende Seite von ipman
http://www.ipmanchess.yolasite.com/amd---intel-chess-bench.php

Dass der Fish mit solch einer Thread-Anzahl überhaupt zurecht kommt! Ich staune!

Und:
Der nps-Wert wird sicher davon profitieren. Aber tun die letzten Kern-Verdopplungen der Spielstärke überhaupt noch einen Gefallen?
Parent - - By Guenter Stertenbrink Date 2019-11-13 11:06 Edited 2019-11-13 11:12
Parent - - By Benno Hartwig Date 2019-11-13 21:22
Schöne Grafik, thanx!

Die x-Achse hätte ich logarithmisch erwartet, also gleiche Abstände für den Übergang
1 -> 2 und 2 -> 4 und 4 - >8 usw. weil ich im günstigsten Fall bei einer Engine dann ungefähr gleichgroße Fortschritte erhoffen würde.

Aber:
Vor diesem Hintergrund wundert mich gewaltig die Kurve von TCECr!!! Die sieht hier ja annähernd aus wie eine Gerade.
Und das bedeutet dann ja: Kernverdopplung bringt umso mehr, je mehr Kern eh schon am Start sind.
Und eigentlich erwarte ich eher das Gegenteil: Verdopplung bringt um so weniger, je mehr Kerne dabei sind.

Und wie ist es nun wirklich???
Parent - - By Guenter Stertenbrink Date 2019-11-13 22:06
ich weiss auch nicht im Moment. Ist etwas unuebersichtlich.
Ich hatte auch den falschen link, ich erinnerte vage diese Experimente

http://www.fastgm.de/experiments.html

ist nun schon wieder alt
Parent - - By Benno Hartwig Date 2019-11-14 07:18
alt, aber trotzdem immer noch eine sehr interessante Quelle beim Blick auf AB-Engines.
Was mir eben beim Blick auf den 1->2-Vergleich noch mal auffiel ist:

Wie deutlich die 2-Thread-Engine vorn liegen kann, obwohl die durchschnittlichen Tiefen doch gar ncoht soo viel größer sind.
Durchweg so 21 statt 20 Plys schafft die Engine dann, und das bedeutet tatsächiich noch so viel.
Auch wenn sie eh schon ganz schön tief rechnen.
Faszinierend!
Parent - By Peter Martan Date 2019-11-14 08:43
Benno Hartwig schrieb:

Wie deutlich die 2-Thread-Engine vorn liegen kann, obwohl die durchschnittlichen Tiefen doch gar ncoht soo viel größer sind.

Weil time to solution eben nur sehr bedingt etwas mit time to depth zu tun hat.
Derlei, ab einer gewissen Hardware- Überlegenheit statistisch durch Eng-Eng praktisch nicht mehr überprüfbare Unterschiede würde ich also erst recht nur rein stellungsabhängig beurteilen.
Gut, das sagt nix, weil ich halbwegs moderne Hardware- Software- Kombis sowieso schon lange nur mehr rein stellungsabhängig beurteile.

Um nicht trotz Smiley unnötig ernst genommen zu werden, natürlich schau' ich trotzdem immer wieder dankbar in diverse Elo- Listen, für mich sind die halt auch alle rein stellungs(nämlich Eröffungsset- bzw. -Buch)abhängig zu sehen.
Uups, jetzt hab ich mich selbst wieder unnötig ernst genommen.
Parent - - By Michael Scheidl Date 2019-11-14 10:28
Das wurde öfters so erklärt: MP ergibt nicht nur einen tieferen, auch einen breiteren Baum. Somit nehme ich an, selbst wenn man auf fixer Tiefe spielen läßt wäre z.B. 4T vs. 1T meßbar stärker.
Parent - - By Benno Hartwig Date 2019-11-14 14:33

> MP ergibt nicht nur einen tieferen, auch einen breiteren Baum


Breiter im Sinn von "hier werden Dinge berechnet, die sich später als unnötig erweisen, und die ein serielles AB von Vornherein ignoriert hätte"
oder breiter im Sinne von "Da kann auch mal ein noch besserer Zug gefunden werden, als ihn rein serielles AB hätte finden können"?
Bei den tatsächlichen Realisierungen, versteht sich.
Parent - By Michael Scheidl Date 2019-11-14 21:12 Edited 2019-11-14 21:36
Dazu müßte man Programmierer hören, die jedoch im allgemeinen nicht auskunftsfreudig sind. Meine Interpretation:

"hier werden Dinge berechnet, die sich (später) als nützlich erweisen"

Ich nehme an, daß bei MP auf derselben Suchtiefe Züge und Varianten untersucht werden, die bei Singlethread verworfen werden bzw. erst auf einer höheren Suchtiefe erforscht werden. Aber das ist nur eine laienhafte Vermutung.

P.S. Keine Vermutung sondern Tatsache ist, daß ein wahnsinning großer Anteil der Suchleistung in die Ruhesuche (quiescence search) fließen muß. Das gilt notwendiger Weise genau so für NN-basierte Engines. Shannon hat das schon um 1950 rum erkannt. Nimm Dir ein Dutzend beliebige Stellungen z.B. nach sieben Zügen Eröffnung, und schau dann wie viele Schlagzüge - und seien es auch die dümmsten - möglich sind, und wann dann "Ruhe" eintreten könnte. Tiefe 1 ist dann sozusagen noch lange nicht Tiefe 1...

P.P.S. Recht aufschlußreich: https://de.wikipedia.org/wiki/Alpha-Beta-Suche#Ruhesuche
Demzufolge ist Zugsortierung extremst wichtig! - Man lernt nie aus...
Parent - - By Thomas Plaschke Date 2019-11-15 10:41 Upvotes 2
Ich bin sicher, dass Andreas Strangmüller in diesem Forum schon darüber berichtet hat, kann aber den Thread nicht finden. Daher habe ich über Nacht dazu einen Test laufen lassen.

Ich habe Komodo als Engine gewählt, weil sie in einem Test von Andreas Strangmüller gezeigt hatte, dass sie auch mit vielen Kernen sehr gut skaliert.
Die Bedingungen wie üblich: HERT500-Eröffnungen, 6-Steiner (und kleiner), um das Endspiel bei geringe Suchtiefe nicht zu sehr zum Glückspiel werden zu lassen.
Als Zeitkontrolle habe ich bei cutechess tc=inf depth=15 verwendet. Das sollte die Suche nach 15 Halbzügen beenden.
Das Ergebnis ist eindeutig (16th heißt mit 16 Threads usw.):
Code:
   # PLAYER                :  RATING  ERROR  POINTS  PLAYED   (%)  CFS(%)
   1 Komodo 13.2.5-16th    :  3547.2    5.7  2423.5    4000    61     100
   2 Komodo 13.2.5-8th     :  3522.9   11.8   466.0    1000    47     100
   3 Komodo 13.2.5-4th     :  3491.3   12.1   422.5    1000    42     100
   4 Komodo 13.2.5-2th     :  3457.4   12.5   377.0    1000    38     100
   5 Komodo 13.2.5-1th     :  3405.0   13.3   311.0    1000    31     ---

White advantage = 51.30 +/- 3.71
Draw rate (equal opponents) = 61.40 % +/- 0.87

Bei gleicher Tiefe spielen mehr cores stärker. Aber ich finde das Ergebnis so eindeutig, dass ich einen Fehler im Test vermute.

Viele Grüße
Th. Plaschke
Parent - - By Lothar Jung Date 2019-11-15 12:24
Danke, ein wichtiger Test.
Komodo skaliert sehr gut.
SF wohl nicht?!
Lothar
Parent - - By Michael Scheidl Date 2019-11-15 13:07
Das Ausmaß des Vorteils überrascht mich auch.
Parent - By Patrick Götz Date 2019-11-16 21:11
Wie bereits geschrieben, der Test ist Uralt.
Mittlerweile besitzt Stockfish eine exzellente Skalierung, meines Wissens die beste.
Parent - By Thomas Plaschke Date 2019-11-15 15:51
Andreas Strangmüller - es gibt kaum einen Test mit Multicore-CPUs, den er noch nicht gemacht hätte - stellte dazu eine Grafik ins Netz. Darauf beziehe ich mich.

Viele Grüße
Th. Plaschke
Parent - By Patrick Götz Date 2019-11-16 21:09
Das ist ein sehr alter Test.
Mittlerweile wurde die der Multi-Core Teil von Stockfish komplett umgestellt und dann noch mehrfach verfeinert, so dass Stockfish schon seit längerem die beste Skalierung aller Engines hat.
Parent - - By Frank Brenner Date 2019-11-14 13:41
In all diesen Kurven werden doch nur die Knotenleistung bewertet. Diese ist doch nicht relevant.

Bei Kernverdopplung verdoppeln sich in etwa die Knoten/s

Ein besseres Merkmal wäre Time-To-Depth, aber auch bei diesem Merkmal wird nicht - so wie es bei SF der Fall ist - ein dichterer Suchbaum berücksichtigt.

Ein realistischer Test würde dann darin bestehen den Stockfish mit 4096 Kernen einmal gegen einen SF mit 384 Kernen antreten zu lassen, zb mit 1000 Partien.

Ich tippe auf einem Vorsprung mit 4096 Kernen im Bereich von -10 .. + 10 ELO gegenüber mit 385 Kernen

Möglicherweise wird es ab einer bestimmten Kernzahl auch schlechter.

Das testet natürlich keiner .... bei Ipmanchess geht es nur um kn/s und nicht um Spielstärke.
Parent - By Eduard Nemeth Date 2019-11-14 14:27 Edited 2019-11-14 14:44
Ab einer bestimnten Suchtiefe verringert sich die Zunahme der Elo Leistung deutlich. Deshalb finde ich diese Angaben solange sinnlos, bis es in der Praxis getestet wird. Es gibt auf Schach.de auch einen Account IpMan. Ob das der ist, weiss ich nicht. Aber mit mehr als 50 Kernen spielt er dort auch nicht.

IpMan: Brainfish 061119 64 BMI2 (44 threads): 37.0 plies; 82.766kN/s Genuine Intel(R)
CPU 0000 @ 2.10GHz 2095MHz, (22 cores, 44 threads).
Parent - - By Thorsten Czub Date 2019-11-13 12:07 Upvotes 1
Man müsste eine Einheit
einführen ELO pro NPS
dann würde man sehen
wie mies manche PC
Boliden eigentlich sind.
Parent - - By Lothar Jung Date 2019-11-13 19:41 Edited 2019-11-13 19:47 Upvotes 1
Oder ElO pro Watt.
Dann würden die PCs sehr schlecht aussehen und die PC/GPUs noch schlechter.
Wahrscheinlich würde ein Android-Phone oder ein Rasperry-Pi am besten abschneiden.
Jeweils mit SF10 oder Komodo.
Bei Leela LD2.
Lothar
Parent - By Michael Scheidl Date 2019-11-13 20:58
In der Genügsamkeit liegt große Weisheit. - Aber auf maximale Elos bin ich heiß heut!
Parent - By Benno Hartwig Date 2019-11-14 14:35
Bei einem Wert "IQ pro Hirn-Neuron"  würden wir Menschen aber auch nicht so toll abschneiden.
- - By Lothar Jung Date 2019-11-12 20:22
Nein,
reine Energieverschwendung.
A/B-Programme skalieren nicht gut.
Ob bei Leela größere Netze und/oder GPU(s)-Geschwindigkeit viel hilft, ist noch fraglich.
Lothar
Parent - - By Peter Martan Date 2019-11-12 20:45 Edited 2019-11-12 21:02
Lothar Jung schrieb:

Nein,
reine Energieverschwendung.
A/B-Programme skalieren nicht gut.
Ob bei Leela größere Netze und/oder GPU(s)-Geschwindigkeit viel hilft, ist noch fraglich.

To say the least, aber viel weniger rein ist die Energieverschwendung, den Rest Hoffnung noch weiter zu nähren, auch nicht, wenn du mich fragst.
Vor allem fragwürdig, auch was die NNs angeht, was genau man noch erreichen will, wenn die noch steigerbaren Elo erstens rein fiktiv und zweitens allein von der Testumgebung abhängig sind.
Kosten-Nutzenrechnungen irgendeiner Art würde ich da lieber auch nicht mehr anstellen, und hoffentlich kommt jetzt nicht wieder das Argument der Umwegrentabilität für andere AI- Andwendungen.
Was soll denn ein so festgelegtes geschlossenes System wie das von z.B. LC0 zur "Weiterentwicklung" von Schach- Netzwerken durch Autoplay, noch für Erkenntnisse fürs selbstfahrende Auto abwerfen oder für sonstwas, was auch längst rein autonome Einzelforschung ist?

Und wenn da die eine "AI"- Anwendung wirklich noch irgendwas mit der anderen zu tun hat, stehen die dann nicht auch irgendwie in Konkurrenz zueinander, was die Umwegrentabiltität und allgmeinen und speziellen "Erkenntnisgewinn" angeht?

Wär's da dann nicht erst recht viel sinnvoller, die Hardware- Zeit, die man da jetzt ins Schach hinein pulvert, in andere AI- Anwendungen zu investieren, wenn man da jetzt schon allgemeine AI- Erkenntnisse gesammelt hat in diesem Randgebiet und gesehen hat, viel geht da in absehbarer Zeit sicher nicht mehr, wovon man wenigstens als Schachspieler auch noch was haben könnte. Deep Mind hat's ja offenbar auch wieder ziemlich sein gelassen, oder sollte es jedenfalls vermutlich, um sich andere Forschungsprozesse eher leisten zu können.
http://talkchess.com/forum3/viewtopic.php?p=809651#p809651
Just my two cents.
Parent - - By Lothar Jung Date 2019-11-13 08:27 Edited 2019-11-13 08:31 Upvotes 1
Du hast vollkommen recht!

Es gibt viel viel wichtigere KI-Anwendungsgebiete als Schach.
Insbesondere bei Behinderungen oder im Gesundheitswesen.

Was Schach betrifft finde ich diesen Ansatz sehr interessant:

https://medium.com/syncedreview/ai-analyzes-chess-commentary-to-learn-to-play-chess-8c1f3a015eeb

Aber auch die schönen AI-Schach-Netze von Dietrich Kappe, die mit wenig Hardwarepower auskommen.

Lothar
Parent - - By Peter Martan Date 2019-11-13 09:20
Lothar Jung schrieb:

Aber auch die schönen AI-Schach-Netze von Dietrich Kappe, die mit wenig Hardwarepower auskommen.

Ja, gutes Beispiel.

Und überhaupt alles, was vom "Zero- Ansatz" etwas wegführt. Es war ja sicher sehr interessant, zu sehen, was das allein schon alles kann, und die Ergebnisse sind mehr als erstaunlich. Ich kann mich noch gut erinnern, wie ich als einer der Ersten hier über das erste A0- Match geschrieben habe.
Seither ist aber doch auch Einiges an Zeit vergangen und ich finde, der Mensch sollte sich wieder mehr einmischen.
Parent - By Lothar Jung Date 2019-11-13 13:57 Upvotes 2
Dietrich Kappe verfolgt einen anderen Ansatz, indem er menschliche Partien zum Lernen heran zieht. Managend AI, kein ausschließliches Selbstlernen.
Seine Netze spielen humanes Schach auf hohen Niveau in unterschiedlichen Spielstärken.
Viel besser zum Lernen, selbst für Großmeister.
Who want's to play against an alian?
Lothar
Up Topic Hauptforen / CSS-Forum / 4.801.341.606 nps auf 4096 threads

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill