Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Frage zu Komplexität des Schachs bei sehr hohen Elostärken
- - By 2phil4u Date 2017-10-02 18:52 Edited 2017-10-02 19:23
Hallo
Es ist beim Thema Computerschach sehr schwierig im Internet etwas zu finden, das sich mit einem Thema beschäftigt welches neben Hardwaresteigerung meiner Meinung nach das größte Potential hat.
Die Frage ist, im Gegensatz zu den sehr einfachen Berechnungen was theoretisch alles gespielt werden kann bis Zugn eine andere und sie geht auch noch etwas weiter, denn natürlich gibt es bei vielen Positionen immer mehrere Züge die nicht eindeutig verlieren, aber probiert es selbst.
Lasst Stockfish gegen Stockfish spielen und nimmt 5 mal hinteinander den 3. besten Zug (nicht wenn geschlagen werden muss) und man sieht, das ma gnadenlos hinten liegt.
Die Frage, die ich mir ´stelle ist wieviel mögliche Stellungen gibt es nach 20 Zügen (oder weniger oder mehr) wenn weiss nicht seinen Vorteil verbummelt und natürlich auch nicht mehrmals hintereinander von beiden Seiten schlechte Züge gemacht werden.
Die Frage ergab sich mir bei der Überlegung wie ein Supercomputer mit 1 Milionen Systeme mit einer Art Baumstruktur am Anfang, bei der er anfangs alles berechnet um dann nach und nach offensichtlich zu schlechte Züge rauszuschneiden.
Wäre eine solche Struktur mit angehängter engine so viel schlechter als eine engin, klar sie würde viel mehr berechnen, aber z.B. beim Fernschach könnte (ich gehe von 1 Milion Systemen oder mehr aus) der Cut ganz langsam auf +-1 Bauern gestellt werden und wenn die engine ziehen muss dann schrittweise bis +-0.2
Aber das sind jetzt schon 2 Themen, die Frage ist wieviel wirklich gute Eröffnungen von beiden Seiten gibt es und wieviel spielbare Züge bleiben eigentlich in the long run.
Würde man jetzt einen Baum erstellen für 10 Züge, daran noch eine engine angeschlossen, wieviel Züge bleiben da übrig.
Scharz mag bsp bei Zug1,2,8,9 den 3. besten Zug wählen können aber niemals bei 1,2,3,4,5,6,7,8,9,10
Die Frage ist auch, was ist die mögliche Elosteigerung pro doppelter Bedenkzeit bzw pro Halbzug und was erreichen die engines.
Es ist wohl so, das selbst Bruteforce von Tiefe 70 auf 71 keine 10 Elo mehr holt, aber zumindest würde eine breitere Engine wohl (man timkönnte einfach sehr viele Prozessoren bis Tiefe 20 alles rechnen lasssen) und dann eine engine und schauen wie der Unterschied ist bei Tiefe 30.
Auch die Elosteigerung pro doppelter Bedenkzeit dürfte bei starken Cuttern geringer sein, allerdings wird ein sehr langsamer cutter auch etwas länger pro Halbzug brauchen.
Gibt es überhaupt eine Ahnung wie 1 Tag gen 2 Tag abschneiden würde oder so was ähnliches.
Kasparov betont ja, das ein guter Operator sehr, sehr viel hardware aufholen kann wenn er rumprobiert, das müsste aber theoretisch bei perfekter engine nicht mehr möglich sein.
Wenn ein hin und herswitchen Dinge zeigt (vor und Rücksuche) dann deutet das auf einen nicht optimalen Algorythmus  hin.
Ich kann mir nicht vorstellen, das ein guter actor wie KAsporov meint einen  Supercomputer mit 10 Milionen Kernen schlägt, wenn dieser gut programmiert ist auf Fernschach.
Ja Fernschach ist eben eine Sparte, die überhaupt nicht erfasst werden kann wegen der langen Bedenkzeiten,keiner weiss wie gut die engines alleine wirklich sind, man weiss aber das selbst ein dürftiger Spieler der gut tunen  kann einem deutlich stärkeren Computer überlegen ist,  auch einem guten Spieler sagt Kasparov.
engine+good operator+ poor player > engine + weak operator + good player sagte er kürzlich in einem Interviel.
Das er  meint Magnus würde ein Remis holen (sie sprechen vom Rybkacluster,  das ist doch gar nicht aktuell) in 10 Spielen halte ich bei sagen wir mal 100.000 Kernen für nicht plausibel.
Die hätte ja 3800+ Elo und Magnus nur 2800.

Bei Stockfish ist es erstaunlich,wie er bei sehr grossen  Tiefen oft einfach nur den Zug wählt, der direkt eine Verbesserung bewirkt, aber oft überhaupt keine Taktiken mehr findet, sieht man bei Mattaufgaben.
Eventuell ist eine engine auch gar nicht in der Lage (selbswt mit unendlich Zeit) wirklich gute Züge die über 25 oder mehr Züge einen Vorteil haben zu finden oder eben ersgt bei Tiefe 200 oder so
Gibt es Forschungen zur Eloverbesserung bei sehr langen Bedenkzeiten bzw ob eine höhere Breite eine größere Elo Verbe3sserung  von Tiefe x zu Tiefe x+1 zueigt ?
Und wie ist das mit den Eröffnungen. Könnte man mit einem System, das bereits angewendet wird mit einer Power von mehreren Milionen  Prozessoren wirklich so gut wie alles bis Zug 25-30 berechnen, oder wird bei allen Systemen (5 Milionen waren es glaube ich zuletzt) doch viel  zu oft der beste Zug gespielt ?
Wenn ich von 2 möglichen Zügen ausgehe pro Tiefe (Bei der Eröffnung sind es mehr, aber Zugwiederholungen) würde ich mit 1 Bilion Partien bei Zug 20 landen, das wäre gerade so mit sehr viel Geld machbar.
Ich würde alle im MV rechnen lassen und die Ergebnisse nach vorne rutschen  lassen, eventuell ist es aber auch so, das durch die enorme Stärke dann doch sehr wenig Züge wirklich gespielt werden.
Wie viel Zugfolgen hat man dann wirklich, vielleicht nur 1.5 hoch 30 bei 30 Zügen ?
Parent - - By Patrick Götz Date 2017-10-02 23:09
a) Mehr als 128 Kerne können von Engines (noch) nicht effizient genutzt werden. Meistens ist schon bei 32 Kernen Schluss.
b) Es gibt Statistiken. z.B. http://www.fastgm.de/time-control4.html
Aber auch andere und ich haben schon Experimente gemacht mit Spiele Tiefe x gegen Tiefe x+1.
Ein Ergebnis meiner Hochrechnung dabei war das bei eine Verdoppelung von 2 auf 4 Tage fast keinen Elo Gewinn mehr zu erwarten ist.

Gegen Deine Vorstellung, das im Fernschach Computer immer noch geschlagen werden können halte ich deswegen auch dagegen. Selbst ohne Eröffnungsbuch sind Computer bei Fernschach Bedenkzeit nicht mehr zu knacken.
Wer etwas anderes behauptet darf sich gerne an meinen Computer ausprobieren.
Parent - - By Kurt Utzinger Date 2017-10-02 23:21
Patrick Götz schrieb:

[...]
Gegen Deine Vorstellung, das im Fernschach Computer immer noch geschlagen werden können halte ich deswegen auch dagegen. Selbst ohne Eröffnungsbuch sind Computer bei Fernschach Bedenkzeit nicht mehr zu knacken.
Wer etwas anderes behauptet darf sich gerne an meinen Computer ausprobieren.


Hallo Patrick
Du meinst Mensch - Computer im Fernschach und der Mensch spielt ohne
Computerunterstützung? Gibt es sowas heute überhaupt noch
Mfg
Kurt
Parent - - By Patrick Götz Date 2017-10-03 01:35
Nein, ich meine natürlich Computer gegen Mensch+Computer.
Wenn der Computer gegen einen unbewaffneten Menschen spielen würde wäre das natürlich keine Herausforderung.
Parent - - By Michael Scheidl Date 2017-10-03 17:59
Und wenn ich beispielsweise einen sehr starken Computer mit Multi-PV(3) laufen lasse, und dann falls die Vorschläge innerhalb +/- 15 Centipawns sind, einen "educated guess" mache was wirklich besser ist? Ich wehre mich gegen die Vorstellung daß jeder menschliche Eingriff zwangsläufig eine Verschlimmbesserung darstellt. Es gibt immer noch genug Beispiele wo Engines saudumm sind... statistisch in einem von zehn Millionen Fällen

Also ein bißchen muß man schon noch mitmischen, sonst wäre einem doch jeder Spaß verdorben.
Parent - - By Frank Quisinsky Date 2017-10-03 19:14
Auch wenn wir hoffnungslos verloren sind heißt das nicht das wir auf einem verlorenen Posten stehen.
Parent - - By Michael Scheidl Date 2017-10-03 19:44 Upvotes 1
Obiges Posting kann nicht von Dir sein, denn es ist zu kurz!
Parent - By Frank Quisinsky Date 2017-10-04 09:15
In der Kürze liegt die Würze!
Parent - - By Guenter Stertenbrink Date 2017-10-03 00:40
man hoert es immer wieder - und es wird wohl auch stimmen - dass die Elo -Steigerung
bei Verdopplung der Bedenkzeit nach oben hin abnimmt, wenn ich aber die "4CPU" und "1CPU"
Elos der Ratinglisten vergleiche, kann ich das (noch) nicht sehen, da gibt's etwa 90Elo
fuer die Vervierfachung , bis rauf zu SF,Ho,Ko

Man sollte mal viele Partien auf niedriger Stufe 20 Zuege spielen, dann auf etwas hoeherer Stufe
berechnen lassen und schauen, wieviele % Duplikate man erhaelt etwa im Interval -0.20-0.20
Daraus kann man dann die gestellten Fragen in etwa abschaetzen
Parent - - By Patrick Götz Date 2017-10-03 10:15
Guenter Stertenbrink schrieb:

man hoert es immer wieder - und es wird wohl auch stimmen - dass die Elo -Steigerung
bei Verdopplung der Bedenkzeit nach oben hin abnimmt

Hier sogar schön dargestellt:
http://www.fastgm.de/time-control4.html
Parent - - By Frank Quisinsky Date 2017-10-03 10:26 Edited 2017-10-03 10:49
Hallo Patrick,

als ich das vor ca. 20 Jahren im ChessBits Forum schrieb oder auch im älteren Gambit-Soft Forum wurde ich von fast allen eher belächelt. Die zu der Schachcomputerära grobe Schätzung es sind ca. 70 Elo bei Verdoppelung wurde heute auf 50 Elo von vielen relativiert. Tatsächlich sind es immer weniger Elo an Zuwachs (auch als ich selbst früher schon vermutet hatte) je tiefer die Programme rechnen. Wenn viele Cores eingesetzt werden verpufft bei den heutigen Ratings der TOP-Programme zu viel, so dass es unlogisch ist genau das zu tun. Die durchschnittlichen ELO Spielstärken der TOP Engines liegen Lichtjahre über unseren eigentlichen Horizont. Wie stellen also etwas fest, dem wir streng genommen eigentlich selbst kaum noch folgen können.

Tja, das konnte schon seinerzeit getestet werden und hierzu hatte ich ein offizielles Experiment auf einem Dual Pentium III 733Mhz (damals eine teure Hardware, so konnte ich das mit Ponder austesten und unterschiedlichen Bedenkzeiten testen). Ist natürlich immer schön wenn solche simplen Experimente heute von anderen erneut überprüft werden. Nur für mich sind solche Themen schon lange durch, gibt deutlich interessantere (aus meiner Sicht). Die alten immer wieder aufzurühren ist eher für die langen Computerschächler langweilig geworden.

Es ist immer schwierig gegen Legendenbildung die falsch ist anzukämpfen. Noch schwieriger ist es gegen etwas anzukämpfen was im eigenen Hirn tief verankert ist. Habe damit selbst ein Problem und akzeptiere oft nur mühsam, liegt vielleicht auch am Alter und das unsere Spezies eher ausstirbt sollte auch klar sein.

Tatsächlich schlummern so viele Aussagen im Raum, die einfach total falsch sind wie z. B. heute der oft zitierte Remistod. Lese ich heute ältere Computerschachzeitschriften verbleibt nur ein Kopfschütteln ... seinerzeit aber bahnbrechende Erkenntnisse die diskutiert wurden.

Wird auch nur etwas tiefer geschaut ist auch der leicht zu erklären und tatsächlich bewegt sich der Remistod so langsam wie eine Schnecke im Zeitalter schneller PC-Ferraris. Bedeutet auch das wir noch lange nicht am Ende der Fahnenstange sind und eigentlich eine Elo von 3.400 noch ins Computerschach Neandertaler Zeitalter gehört ... wenn ich mir vorstelle wie das weiter geht und wo wir in wahrscheinlich nur in 20 Jahren stehen werden. Fortschritte in Elo werden geringer aber gehen trotzdem in Bereiche die für uns heute erst Recht unvorstellbar sind.

Gruß
Frank
Parent - - By Patrick Götz Date 2017-10-03 23:16 Edited 2017-10-03 23:20
Hallo Frank,

bis jetzt ging die Engine Entwicklung ja trotz aller besorgten Prophezeiungen, das schon sehr bald das Maximum erreicht sein wird, immer weiter.
Ich kann mich noch an Zeiten erinnern in dem angenommen wurde das eine GM Spielstärke nicht von Computern erreicht werden kann, das da also eine Grenze in der Computer Spielstärke sein wird.
Heute sind wir weit über Super-GM Spielstärke.
Trotzdem denke ich das der Punkt irgendwann kommen wird.
Ich vermute aber das noch bis zu 500 ELO Punkte in den nächsten ca. 10 Jahren drin sein könnten.

Gruß
Patrick
Parent - - By Frank Quisinsky Date 2017-10-04 09:07 Edited 2017-10-04 09:11
Hallo Patrick,

500 Elo in den nächsten 10 Jahren wäre auch meine Vorstellung.

Ausreichen würde mir die Konstellation, dass ca. 25 unterschiedliche Programme die 2.900 Elo Grenze auf einem Core erreichen.
Das wäre ideal für die Eng-Eng Testerei und dabei zusehen. So weit weg von meiner Wunschkonstellation sind wir heute gar nicht.

Ja, an diese Zeiten erinnere mich auch.
Im Schachverein wurde rege diskutiert als das erste so einigermaßen starke Mephisto Modul verfügbar war.
Das war ein Mephisto P&B der bezwungen werden wollte mit seinen ca. 1.500 - 1.550 Elo.
Vorstellen konnten sich nur wenige, dass irgend wann Programme stärker spielen als Super GMs.

War selbst noch sehr jung und schaute gerne "Schach dem GM" im WDR3.
Das war so genial und schon deswegen war der Respekt meinerseits gegenüber GMs riesengroß.

Als aber z. B. mir bekannte IMs gegen Mephisto Gideon und Mephisto Genius auf den ersten 486er PCs und später Pentium PCs trainierten war auch nach deren Kommentare mir eigentlich schon klar, dass die Programme irgendwann die Super GMs überflügeln. In der Schachcomputer Ära zuvor glaubte ich nicht wirklich daran.

Gruß
Frank
Parent - By Patrick Götz Date 2017-11-19 09:21
Frank Quisinsky schrieb:

Hallo Patrick,
500 Elo in den nächsten 10 Jahren wäre auch meine Vorstellung.


Da trotz hohen Entwicklungs- und Recheneinsatzes eine Abflachung der (Elofortschitts-) Kurve erkennbar ist, halte ich jetzt eine Verlangsamung der Entwicklung für wahrscheinlich(er).
Parent - - By Benjamin Bahnsen Date 2017-10-07 03:42
Frank Quisinsky schrieb:


Wird auch nur etwas tiefer geschaut ist auch der leicht zu erklären und tatsächlich bewegt sich der Remistod so langsam wie eine Schnecke im Zeitalter schneller PC-Ferraris. Bedeutet auch das wir noch lange nicht am Ende der Fahnenstange sind und eigentlich eine Elo von 3.400 noch ins Computerschach Neandertaler Zeitalter gehört ... wenn ich mir vorstelle wie das weiter geht und wo wir in wahrscheinlich nur in 20 Jahren stehen werden. Fortschritte in Elo werden geringer aber gehen trotzdem in Bereiche die für uns heute erst Recht unvorstellbar sind.



Das sehe ich ganz anders. 3400 Elo sind noch nicht das Ende der Fahnenstange, aber definitiv kein Neandertaler-Zeitalter mehr. Ich habe vor langer Zeit selbst mal ein paar Statistiken erstellt und sehe die Elo-Grenze zwischen 3700 und 3750. Ab dort ist keine Steigerung mehr möglich, weil eine Engine fehlerfrei spielt, also immer auf dem spieltheoretischen Remispfad bleibt.

Die +500 Elopunkte, die du und Patrick schätzen, würden bedeuten, dass es irgendwann eine Engine gibt, die gegen den heutigen Stockfish, Komodo oder Houdini eine Quote von nahezu 100% holt - also jedes Spiel gewinnt. Das halte ich für komplett ausgeschlossen. Bereits heute spielen diese Engines teils fehlerfreie Partien, gegen die kein Gewinnweg in irgendeiner Stellung zu finden ist.
Parent - - By Frank Quisinsky Date 2017-10-08 22:01 Edited 2017-10-08 22:04
Hallo Benjamin

wie hoch wäre die Spielstärke, wenn das komplette Schachspiel durchgerechnet wäre?
Das wäre meines Erachtens die maximal denkbare Spielstärke.

Ich denke bei 3.400 sind wir weit davon entfernt.
OK, vielleicht nicht direkt im Neandertalerzeitalter aber wir sprachen schon vor 20 Jahren davon, dass eine Spielstärke von ca. 2.500 schon fast grenzwertig ist. Einst schrieb mal Frank Schneider (Anaconda / Gromit) etwas in der CSS hierzu und das fand ich realistisch und richtig gut. Zu dem Zeitpunkt starteten wir die Winboard Aktivitäten. Es war seinerzeit undenkbar das Amateure die Crafty Schallmauer von 2.500 brechen. Die Profis galten als uneinholbar mit ca. 2.650 Elo. OK, die 2.500 von damals waren tatsächlich vielleicht 2.350 und die 2.650 dann tatsächlich ca. 2.500 Elo. Nun sind wir 20 Jahre später 900 Elo drüber und die Entwicklung wird nicht langsamer voran gehen. Vielleicht wird das Thema Computerschach auch für viele immer langweiliger und die alten Recken sterben so langsam aus. Wir haben heute nicht mehr die Aufmerksamkeit die wir seinerzeit hatten. Hat viele Gründe!

Wir können also spekulieren was das Zeug hält.
Tatsächlich wäre es besser in 20 Jahren zu schauen ... hoffe ich erlebe das noch.

Und gerade nach der Eröffnung und im Mittelspiel ist noch Potential ohne Ende. Ich vermute dass die Spielstärke nur in Verbindung mit dem Aufbau und setzen von immer besseren Bauernstrukturen nach oben getrieben werden kann. Im Übergang zum Endspiel stimme ich Dir zu ... kann mir auch kaum noch besseres vorstellen. Nun ja, vor 20 Jahren dachte ich noch an maximal 2.800 Elo in vielleicht 20 Jahren und hatte mich auch geirrt.

Mal schauen ...

Gruß
Frank
Parent - - By Guenter Stertenbrink Date 2017-10-09 08:13
im Fernschach haben wir es bereits heute.

https://www.iccf.com/tables

https://www.iccf.com/event?id=37632
53 Remis aus 55 Partien der Top11 gegeneinander,
(und das vor ca.2-3 Jahren)

https://www.iccf.com/event?id=52852
53 Remis aus 54 Partien der Top11 gegeneinander

Also etwa 30 Elo unterhalb der 100%Remis.
Bei etwa 1 Tag pro Zug, ist das etwa 1000 mal so lange
wie die Ratinglisten oder 10*40 = 400 Elo mehr,
falls nicht die 40-Elo Steigerung bei Verdopplung
der Bedenkzeit nach oben hin abnehmen wuerde.
Parent - - By Frank Quisinsky Date 2017-10-12 20:06
Hallo Günther,

nun, wenn alle Fernschach Fans denken, Stockfish und Komodo bzw. Houdini für den Einsatz dann werden die Ergebnisse bei hohen Bedenkzeiten so sein wie von Dir beschrieben. Die meisten Partien entscheiden sich im Übergang zum Endspiel und da sind alle drei ziemlich gut.

Das heißt auch im Fernschachbereich könnten mehr Partien mit 1:0 und 0:1 entschieden werden wenn Engines im Mittelspiel an Power zulegen. Das Thema hatten wir schon einige Male. Du denkst, die Spielstärke ist immer gleich, ich denke die Spielstärke ist je nach dem wie viele Figuren auf dem Brett sind unterschiedlich bzw. in Partiephasen unterteilt stark unterschiedlich.

Insofern ist Fernschach wie von Dir beschrieben ein netter Anhaltspunkt hinsichtlich Remistod aber auch keiner der auf die Goldwaage gelegt werden kann.

Aber das ist genau mein Ansatz ...
Ich halte Computerschach heute im Bereich Endspiel und auch zu 85% beim Übergang zum Endspiel für uninteressant weil die Engines das zu gut spielen. Und daher interessiert mich persönlich eher der Weg dorthin, also das frühe und späte Mittelspiel. Hier ist meines Erachtens noch einiges bei der Engine Entwicklung möglich und erneut ...

Vermutlich liegt das Geheimnis für höhere Spielstärken hier bei den Bauernstrukturen. Je besser diese Strukturen desto höher die Wahrscheinlichkeit das Siege im Übergang zum Endspiel herausgearbeitet werden (bei Engines mit extrem hohen Spielstärken). Spiele mal Gewinn und Verlustpartien von den besten Engines auf höchsten Niveau nach und nehme einfach mal die Leichtfiguren und Schwerfiguren weg. Beobachte nur die Bauernstrukturen beim Nachspielen und ich bin mir sicher Du wirst meine Meinung teilen.

Gruß
Frank
Parent - - By Guenter Stertenbrink Date 2017-10-13 05:41
Hallo Frank,

bedenke, dies ist Fernschachweltmeisterschaft, Finale.
Da werden natuerlich die Top-Spieler die Top-Engines
einsetzen.

> Das heißt auch im Fernschachbereich könnten mehr Partien mit 1:0 und 0:1
> entschieden werden wenn Engines im Mittelspiel an Power zulegen.

wieso das ? Je mehr Power, je mehr Remisen.

> ich denke die Spielstärke ist je nach dem wie viele Figuren auf dem Brett
> sind unterschiedlich bzw. in Partiephasen unterteilt stark unterschiedlich.

selbst wenn ... bei genuegend Power ist sie anscheinend gross genug fuer
Remis in allen Partiephasen.

> Spiele mal Gewinn und Verlustpartien von den besten Engines auf höchsten Niveau nach


die sind kaum zu finden. Im Fernschach meist wegen bei Krankheit, Tod, fehlendem Interesse,
Zeitmangel, privaten Problemen.
Und wenn, dann hat eine Engine nicht tief genug gerechnet
und es war eine der seltenen taktischen Stellungen, wo die Bewertung bei hoher Tiefe
sich ploetzlich stark aendert. Ich erinnere einige Partien im TCEC9-Finale mit subtilen
Koenigsmaerschen, hin und zurueck mit fast Zugzwangartigen Tempomanoevern.

Spielstil, Bauernstrukturen , das verwischt auf hohem Niveau. Da muss man alle Spielstile
und Bauernstrukturen beherrschen.

Gruss Guenter
Parent - - By Frank Quisinsky Date 2017-10-13 07:45
Hallo Guenter,

siehst Du wie traurig das ist.
Gab es das im Fernschach vor 20 Jahren auch.
Nein? Warum dann heute?

Wenn drei Engines überragend sind aber im Übergang zum Endspiel ca. die gleichen Qualitäten haben wundern mich die hohen Remisquoten nicht so sehr.

Denke wir sollten uns auch abgewöhnen von Fernschach zu sprechen.
Fernschach wird zum Computerschach, das Thema kann der Computerschachbereich für sich einsäckeln.
So traurig das wahrscheinlich auch ist.

Aber das ist nur laut gedacht.
Fernschach interessiert mich im Grunde nicht, hat mich noch nie interessiert.
Daher kann ich hier auch nicht mitsprechen.

Schaue ich mir aber die Stats for 10-20 Jahren an gab es nie so viele Remise.
Sind plötzlich die Menschen intelligenter geworden als vor 10 Jahren?

Gruß
Frank

PS: Hatten wir alles schon x-mal.
Gibt spannendere Themen!
Parent - - By Walter Eigenmann Date 2017-10-13 09:14 Upvotes 1
Frank Quisinsky schrieb:
Denke wir sollten uns auch abgewöhnen von Fernschach zu sprechen.
Fernschach wird zum Computerschach, das Thema kann der Computerschachbereich für sich einsäckeln.
So traurig das wahrscheinlich auch ist.

Jene die vom Fernschach wirklich etwas verstehen, sehen das deutlich anders.

Beispielsweise der Top-FS-Spieler Arno Nickel. In einem Interview hat er die
Interaktivität Mensch-Maschine mal sehr gut auf den Punkt gebracht.
Lies insbesondere den Abschnitt hier:
https://glarean-magazin.ch/2010/12/14/interview-mit-fernschach-grossmeister-arno-nickel/#Verzweigungen-bestimmen-die-Fernschacharbeit

Gruss: Walter

.
Parent - - By Guenter Stertenbrink Date 2017-10-13 11:20
das war 2010. Ich habe Zweifel, ob Arno Nickel das heute noch genauso sieht,
mit Stockfish,Komodo,Houdini. Die Engines sind staerker geworden,
der Mensch nicht. Wer sich blind auf sein Programm verlaesst kann meist leicht
Remis halten. Wer gewinnen will braucht einen Gegner, der auch gewinnen will,
... und Glueck. Das bessere (Fern-)schachverstaendnis scheint dabei immer unwichtiger
zu werden.
Parent - By Walter Eigenmann Date 2017-10-13 17:51
Guenter Stertenbrink schrieb:

das war 2010. Ich habe Zweifel, ob Arno Nickel das heute noch genauso sieht,
mit Stockfish,Komodo,Houdini. Die Engines sind staerker geworden,
der Mensch nicht. Wer sich blind auf sein Programm verlaesst kann meist leicht
Remis halten. Wer gewinnen will braucht einen Gegner, der auch gewinnen will,
... und Glueck. Das bessere (Fern-)schachverstaendnis scheint dabei immer unwichtiger
zu werden.

Ich habe Zweifel, dass das Arno Nickel genauso sieht...

Denn abgesehen davon, dass man mit Remis-Geschiebe nicht die Nummer 15
der FS-Welt wird...
https://www.iccf.com/RatingList.aspx
...sind die Programme so viel stärker nun auch wieder nicht geworden,
dass man sie im Fernschach sich selber überlassen dürfte.
Die grundsätzlichen Probleme sind gleich geblieben wie im Artikel ausgeführt -
möglicherweise auf einer höheren Schwierigkeitsstufe.
(Ich selber habe ja hier und anderswo schon genügend Stellungen bzw. Lösungs- und Gewinnzüge gepostet,
auf die eine Maschine nur mit dem bzw. wegen des Menschen verfallen kann.)

Ein aufschlussreicher Beitrag von Nickel selber zu den Themata "Computer im Fernschach" und "Remis-Tod"
findet sich u.a. auch hier:
https://www.google.ch/url?sa=t&rct=j&q=&esrc=s&source=web&cd=24&ved=0ahUKEwim7dHh-O3WAhUqLcAKHY77BN04FBAWCD0wAw&url=http%3A%2F%2Fwww.edition-marco-shop.de%2FWebRoot%2FStore14%2FShops%2F64079634%2FMediaGallery%2FDie_Unbesiegbaren_-_Dem_Fernschach_droht_der_Remistod.pdf&usg=AOvVaw0ESh6i3EVpGmG-qKyHaYw1

Gruss: Walter
Parent - - By Olaf Jenkner Date 2017-10-09 15:42 Upvotes 1
Ich habe den Eindruck, daß der Elowert von vielen Postern als Absolutwert verstanden wird, den man beliebig in die Höhe treiben kann. Er ist aber nur ein Maß für die Wahrscheinlichkeit, bei einem Match ein bestimmtes Ergebnis zu erzielen. Wenn der Elowert immer höher steigt, vergrößert sich lediglich die Spreizung zwischen der normalen Schachwelt und dem Superelozahlbesitzer.
Parent - By Frank Quisinsky Date 2017-10-12 20:10
Hallo Olaf,

die Frage ist also wie hoch kann diese Spreizung dann gehen.
Vor nur 10 Jahren waren Werte von 3.000 undenkbar und wir belächelten eher wenn einer von 3.000 ELO sprach.
Wir sind nun bei ca. 3.400 bei vielen Cores.

Irgendwann wird es nicht mehr messbar bzw. die Fehlerquelle ist zu hoch.
Meine wenn die besten Menschen dann mit 1:99 verlieren ... daraus lässt sich dann kein wirkliches Rating mehr erzielen.
Dann bräuchten wir Engines die bei 3.000, 3.200, 3.400 und 3.600 liegen um eine Engine korrekt zu messen die vielleicht bei 3.800 liegt.

Versteht kein Mensch mehr diese Zahlen ...
Interessant ist es diese Partien dann nachzuspielen. Aber nochmals, wir werden viele Züge nicht verstehen und können viele Züge mit menschlicher Logik auch nicht mehr erklären. Können nur deswegen erklären weil wir wissen was ein Zug dann 20 Züge später in Wirklichkeit bewirkt hat.

In Kommentieren solcher Partien sind gar ELO Nasen von 1.400 Elo wahre Experten.

Gruß
Frank
Parent - - By Benjamin Bahnsen Date 2017-12-11 16:42
Das Forum zeigt mir diesen Beitrag gerade als neu an, obwohl er ziemlich alt ist. Ich möchte trotzdem kurz drauf antworten.

Man muss Schach nicht komplett durchrechnen, um einen Spieler maximaler Stärke zu haben. Nur um zu beweisen, dass dieser Spieler tatsächlich perfekt spielt, wäre das erforderlich.

Dame z.B. wurde erst 2007 vom Team um Jonathan Schaeffers komplett durchgerechnet (das Spiel ist unentschieden bei perfektem Spiel beider Seiten). Die Software dazu, Chinook, die Tiefensuche mit großen Endspieldatenbanken kombiniert, hat aber bereits schon viele Jahre vorher kein Spiel mehr verloren und spielte - wie man anhand der Datenbanken später festgestellt hat - schon Jahre vorher perfekt. Leider finde ich die entsprechende Quelle dazu nicht mehr.

Ähnlich wird es beim Schach sein. In 10-20 Jahren werden wir Engines haben, die einfach nicht mehr verlieren. Der endgültige Beweis, dass diese Programme aber tatsächlich perfekt spielen, kann durchaus nochmal 100 Jahre länger dauern. Ich glaube, dass wir schon heute fehlerfreie Partien von Engines sehen, es also keine Engines mehr geben wird, die gegen ein aktuellen Stockfish 100% holt. Für Elowerte jenseits von 4000 wäre aber genau das notwendig.

Wie du schon sagtest: schauen wir einfach, wo wir in 20 Jahren sind...
Parent - By Benno Hartwig Date 2017-12-11 17:46 Edited 2017-12-11 17:50
Perfekt spielen im Sinne von
- Gewinnstellungen mit optimalen Zügen umsetzen
- Verluststellungen mit besten Verteidigungszügen fortsetzen
- Remisstellungen mit einem remiserhaltenden Zug fortsetzen
kann meiner Meinung nach nicht richtig befriedigen.

Solch ein Programm würde gegen einen ebenso gestrickten Gegner das Optimum herausholen, OK.
Und vermutlich gegen schlechtere Gegner sehr viele Remisen spielen, Gegner gegen die die Top-Engines heute ggf. deutlich erfolgreicher sind.

Gegen Gegner, die nicht ganz so toll sind, die also auch eventuell mal suboptimal spielen, ist auf jeden Fall notwendig, dass unser Programm eine ausgeklügelte Logik hat, die unter den sehr vielen Remis-Fortsetzungen solche auswählt, die den Gegner vielleicht doch zu einem Fehler verleiten. Die für ihn besonders schwierige Stellungen herbeiführt.
An dieser Stelle wäre dann immer noch raffinierte Entwicklerarbeit zu verrichten, denn woran erkennt man "für den Gegner schwierige Remisstellungen"?
Irgendeinen Remiszug zu wählen bedeutet wohl sehr oft, dem Gegner dieses Remis sehr leicht zu machen.

Spaßfaktor wären:
Ein Mode, das erkannte Remis dann so auszuspielen, dass der Gegner optisch lange möglichst überlegen aussieht.
Und am Ende reichts dann doch nicht.
Oder: Es so auszuspielen, dass die eigene Materialüberlegenheit möglichst groß wird.
Vielleicht gibt der Gegner ja auf.

Benno
Parent - - By Michael Bechmann Date 2017-10-03 01:35 Edited 2017-10-03 02:28
Was ist mit "1 Milionen Systemen" gemeint?

Nach derzeitiger gebräuchlicher Einordnung der Eröffnungen sind 500 Eröffnungen (so genannte ECO-Ordnung nach A00-E99) unterschieden. Wenn man Untervarianten innerhalb dieser Varianten berücksichtigt, sind es natürlich viel mehr.
Trotzdem ist (mir) 1 Mill. Systeme nicht plausibel.

>"Wenn ich von 2 möglichen Zügen ausgehe pro Tiefe (Bei der Eröffnung sind es mehr, aber Zugwiederholungen) würde ich mit 1 Bilion Partien bei Zug 20 landen, das wäre gerade so mit sehr viel Geld machbar."


mir unklar.
- Ich gehe in einer Stellung im Mittel mit 20 ausführbaren Zügen aus (nicht nur 2), im Endspiel weniger.
- Welche "1 Bilionen" Partien nach 20 Zügen? Solche Datenbanken gibt es (nach meiner Erkenntnis noch) nicht. Vergleich: die Mega-Chessbase-Datenbank hat "nur" etwa 7 Millionen Partien.
- Auch den Schluss von möglichen oder sinnvollen Zügen auf Anzahl von irgendwelchen Partien ist mir völlig diffus.

>"Es ist wohl so, das selbst Bruteforce von Tiefe 70 auf 71 keine 10 Elo mehr holt"


Vermutlich. Mit 70 Zügen dürften Engines in Endspieldatenbanken ein und dann keine weiteren Elo-Punkte mit höherer Tiefe erzielen können.

>"KAsporov meint einen  Supercomputer mit 10 Milionen Kernen schlägt"


Hat er das wirklich so erklärt? Das hätte wohl mit Überschätzung zu tun, denn vor 20 Jahren hatte er mit "Deep Blue" sehr zu tun gehabt und der hatte eine "übersichtliche" Hardware.

Eine ganz andere und sinnvollere Frage wäre, ob n und (n+1) Kerne ab einer gewissen Zahl n überhaupt eine Steigerung hat.
Meine Vermutung (Da kann ich mich natürlich irren): Die Entwicklung der Schach-Stärke = S verläuft bezüglich der Anzahl n logarithmisch und daher wird die vermeintliche Verbesserung bei erhöhter Anzahl n zu 0 konvergieren.
(mathematisch: delta(S)/delta(n) = n' = 1/n -->0). Eventuell könnte es für die Schachstärke sogar ab einer bestimmten Anzahl der Kerne sogar abträglich sein, weil der Rechner mehr mit der Verwaltung der Prozesse und Verteilung der Rechenarbeit auf die Kerne zu tun hat, als der eigentlichen Berechnung der Partiefortsetzungen.

---

http://winfuture.de/news,99589.html

Zum Anfang würde ich den hier zum Schach mal probieren. Er lässt sich aber sicher noch ein wenig aufrüsten.
Parent - - By Frank Quisinsky Date 2017-10-03 07:23 Edited 2017-10-03 07:47
Hallo Michael,

Zwei Anmerkungen ... nochmals gegengelesen ... sind ein paar mehr geworden.

Wie Du ja schreibst; Die gut bekannten A00-E99, also die 500 ECO Codes.
Wenn die "spielbaren" Untervarianten einbezogen werden, ca. 2.012 lt. ECO Code Übersicht von David J. Barnes:
https://www.cs.kent.ac.uk/people/staff/djb/pgn-extract/

Wobei von den 2.012 sind ca. 200 NoGo für Schachprogramme.

10.405 hatte Christopher Conkie bei seiner ecocodes.txt gesammelt.
Wobei das nicht alles anerkannte eigene Systeme sind.
Die NoGo's sind mir unbekannt.

Lt. FEOBOS sind bei den 26.146 Basic Positionen (ca. 3 Züge nach ECO Code Ende) ca. 2.4 unterschiedliche spielbare Züge möglich (beste Züge, die eine Gruppe von 10 Engines gefunden hat). Das ist interessant ... gehen wir davon aus, dass es in der Theorie im Durchschnitt also 2,4 spielbare gute Züge gibt. Die offensichtlichen Schlagzüge / logischen Gegenzüge ohne in Verluststellungen zu kommen sorgen dafür das sich 2,4 wenig anhört.

Schaue hier bei der DIA-Show der Excel Auswertungen:


Das ist irre ...
Wenn denn bei jedem Halbzug in der Theorie durchschnittlich 2,4 gute mögliche Gegenzüge aufs Brett kommen können.

Nun wäre es einfach auszurechnen, wie viele mögliche gute Stellungen es überhaupt gibt, z. B. 8 Züge nach ECO Code Ende.

---
Spreche immer von ECO Code Ende, denn viele machen immer den gleichen Fehler bei der Erstellung von Eröffnungsbüchern. Nehmen pauschal 8 Züge oder 10 Züge Tiefe. Das bedeutet, dass einige Codes gar nicht angespielt werden und zu anderen, die sich sehr schnell bilden, viel zu viel Material in den Büchern ist. Die Bücher werden unausgewogen und sind ehrlich gesagt dann wieder fürs Hardcore testen nicht zu gebrauchen. Klar, denn einige Engines können Varianten mal besser mal schlechter umgehen und es kommt durchschnittlich zu einem Ungleichgewicht ... was aber auch nur ca. 10-15 ELO (egal wie viele tausende von Partien gespielt wurden) ausmacht.
---

Nun benötige ich bei einer Minute Bedenkzeit und 10 Threads pro Stellung ca. ein Jahr Rechenzeit, bei ca. 41.000 Positionen und bei einer Tiefe von durchschnittlich 3 Zügen nach ECO Code Bildung. An der Stelle sollte eigentlich schon jeder Person klar sein, das nur für einen Zug mehr die Analysezeit in Bereiche geht, die zwar machbar wären aber es würden ein paar starke Maschine mehr benötigt um wieder auf 1 Jahr Projektdauer zu kommen. Gibt ja gar ein paar neidische Eröffnungsexperten die suchen nach jedem erdenklichen Anker um z. B. die Arbeiten anderer anzugreifen, lassen wir das.

Soweit so gut ...

Was ich aber bei der FCP Ratingliste herausgefunden habe ...
Nun folgen ein paar eigene Stats grob beschrieben, von denen ich nur ein spekulativ annehmen kann das diese dreiviertelwegs (deutlich besser als halbwegs) korrekt sind!

ECO Code Bildung - 3 Züge (6 Halbzüge) danach ...
Zu jedem der 6 Halbzüge ...

Bester Zug enthalten in FEOBOS = ca. 99%
Zweitbester Zug enthalten in FEOBOS = ca. 95%
Drittbester Zug enthalten in FEOBOS = ca. 80%
Viertbester Zug enthalten in FEOBOS = ca. 35%

ergibt die 41.614 spielbaren Varianten die ich untersuche bzw. die 10 Engines durchanalysieren.

Die Frage die ich mir immer gestellt habe sind die drittbesten Züge - viertbesten Züge (aus Engine Sicht) in der Theorie ...
Wie viele davon waren schon auf dem Brett bei z. GM-Partien oder Fernschachpartien und wie viele schlummern im Niemandsland bzw. könnten unentdeckte neue Varianten zu Tage fördern?

Hier kann ich spekulativ eine Antwort, wie oben beschrieben, finden!

Beim FCP Live Buch habe ich folgendes gemacht. Ich habe im Grunde den selben Fehler begangen den fast alle machen, in dem ich grob gesagt hatte ... bis Tiefe x nehme ich Stellungen aus Fernschach und Großmeisterdaten und füge die in das Buch ein. Habe dann während die Ratingliste lief per Hand wieder alles aus dem Buch rausgeholt was Engines nicht mochten (immerhin wurden 300.000 Partien gespielt, die von Hand überprüft wurden). Genommen hatte ich pauschal die Zugtiefe 6. Während die Ratingliste also lief fügte ich nach jedem Test-Run die Züge von Zugtiefe 6 bis 12 wieder ins Buch ein die gut waren, wobei ich nur geschaut habe, ob bis Zugtiefe 15 sich ein klarer Vorteil gebildet hatte. Wenn nicht, waren die Stellungen gut, wenn ja flogen die Stellungen wieder raus.

Und nun die Gegenprüfung ...
Wie viele der Stellungen von Zugtiefe 6-12 sind noch in den gleichen GM und Fernschachdaten zu finden und wie viele Endstellungen von Zugtiefe 6-12 waren neu?

Bei Zugtiefe 8 = 0.4%
Bei Zugtiefe 9 = 1.7%
Bei Zugtiefe 10 = 2.9%
Bei Zugtiefe 11 = 8,4%
Bei Zugtiefe 12 = 24,3%

Nun wurden die Daten der FCP Ratingliste maßgeblich für die Bildung der FEOBOS Daten wieder genutzt. Fehlendes wieder mit Daten aus dem GM und Fernschachbereich ergänzt. Das besondere an den FEOBOS Grunddaten der 26.146 Positionen ist also, dass noch 3.6% Endstellungen enthalten sind, die nicht im GM-Schach oder Fernschach Bereich bei höherem Niveau aufs Brett gekommen sind. Die upd.1 Datenbank mit 15.468 Positionen ist rein aus Fernschach oder GM-Schach produziert (fehlendes aus der Theorie und wahrscheinlich dritt oder viertbeste Züge zu seltenen Varianten um überhaupt mehr hierzu im Buch zu haben).

Bedeutet aber letztendlich ...
Wie gesagt, sehe das alles als spekulativ an ... aber besser diese Daten zu haben als keine (so meine Denke)!!

Ich gehe davon aus, dass sich heute aufgrund drittbester oder viertbester möglicher Züge ca. 3-5 Züge nach ECO Code Bildung zu ca. 3.6% Varianten bilden können die dann wieder zu wahrscheinlich 30% neue Theorie bilden könnten bzw. gehe ich davon aus, dass unsere Eröffnungstheorie ca. 3-5 Züge nach ECO Code Bildung zu ca. 98% perfekt ist. In ca. 30% der Fälle warten wir im Grunde auf Theorieforschung ca. bei 5 Züge nach ECO Code Bildung. Und je tiefer wir gehen desto mehr Forschung steht an. Oft ist mir aufgefallen, bei dem was nicht in GM-Daten oder Fernschachdaten zu finden ist und bei der FCP Rating Liste dann aufs Brett gekommen ist, das es Züge sind, die aus menschlicher Sicht eigentlich zunächst nicht logisch erscheinen.

Die 30% ...
Unsere GMs sind nicht untätig bei der Erforschung der Theorie.
Wahrscheinlich stecken in den 30% wieder 5-10% echte neue Theorie die spielbar wird.

Das Problem was ich bei der Erstellung der FEOBOS Daten habe ist ein anderes ...
Alles schön und gut aber wir wollten keine schnelle Remispartien auf dem Brett sehen bei Engine-Engine Vergleichen. So werden bei FEOBOS durch Contempt viele der eigentlich guten spielbaren Züge aussortiert, bei dem die Wahrscheinlichkeit hoch ist das die Fortsetzungen zu schnellen Remisen bei Engine-Engine führen. Wenn unsere Engines bessere Contempt Eigenschaften hätten, wäre das ein echter Fortschritt! Schon allein um dann gezielter neue Theorie Linien mittels Computerschachprogramme zu suchen und ganz sicher auch zu finden. Eines der spannendsten Themen beim Computerschach überhaupt bzw. ein echtes Thema für die Zukunft.

Viele Grüße
Frank
Parent - By Frank Quisinsky Date 2017-10-04 11:39
Hallo,

wie auf der Grafik zu sehen ist ...
Wir haben den Durchschnitt im Tabellenblatt "Moves" nun berechnet.
Zunächst für die 26.146 Basis Datenbank (mit und ohne den eindeutigen Schlagstellungen).

Kleine Änderung bzw. ist die Idee aufgrund meines letzten Beitrages entstanden.
Klaus hat das direkt umgesetzt.

Nur eine kleine aber feine Ergänzung.

Gruß
Frank
Parent - - By Benno Hartwig Date 2017-10-06 14:15 Edited 2017-10-06 14:20

> Die Entwicklung der Schach-Stärke = S verläuft bezüglich der Anzahl n logarithmisch


Wenn es nur so wäre, dann wäre es ja nicht schlimm.
Dann hätten wir ja bei Kernverdopplung ggf. immer noch immer wieder einen bestimmten Spielstärkegewinn, z.B. +40 Elo.
Aber auch das ist wohl bei weitem nicht gegeben.

128 Kerne werden unterstützt, z.B. bei H6pro.
Ich wäre aber nicht überrascht, wenn tatsächlich kein Spielstärkegewinn mehr messbar ist/wäre, wenn man beispielsweise von 64 auf 128 Kerne geht.

Welches ist eigentlich die tatsächlich größte Kern-Anzahl auf einer Maschine, die man sich heute für sehr viel Geld kaufen könnte?
Windows würde wohl 256 Kerne unterstützen (das las ich mal für Windows 8).

Benno
Parent - - By 2phil4u Date 2017-10-06 16:46 Edited 2017-10-06 17:42
Meine Überlegungen fussten darauf, das hätte man wirklich viel power um eine Eröffnungsdatebank breit aufzufächern, wie viel Stellungen gäbe es.
Du schreibst, das es 2.4 sind aber überlege man, das gilt pro  Zug und wenn du gegen optimalen Angriff zu often den 2. oder 3. besten Zug machst, so wirst du bald hintenliegen.
Die 1 Bio ergibt sich aus 2 Möglichen Halbzügen hoch 10 ist etwa 1000. und Nach 40 Halbzügen sind wir bei 1 Bilion.
Bei sehr langer Berechnung und optimalem Angriff kannst du zwar immer mal wieder den 2. besten oder 3. besten Zug spielen , aber eben nicht über lange Dauer.
Um diese Eröffnungsarbeit(welche es ja schon gibt bei Stockfish) wirklich tiefgehend zu betreiben bräuchte man einen Supercomputer, das meinte ich mit 1 Mio Systeme.
Ein Exafloprechner, wie bald in China gebaut, der die Bewertungen nach vorne haut, die Schwierigkeit sehe ich in den (beide Seite machen 2. beste Züge, das ist dann wieder ein Haufen Extra).
Gestern habe ich mir mal über die Anzahl der Schachstellungen, die in einem Spiel auftauchen Gedanken gemacht.
Ich kam auf vielleicht 10 hoch 30.
Der Grund.
Ich bin für jede Reihe von 2 Bauern ausgegangen die von Feld 1-8 stehen (wobei Feld 1 kein Bauer) heist.
Das sind 16 Bauern und natürlich vergesse ich die Doppelbauer, aber wieviel Stellungen gibt es, wo 3 schwarze vor den weissen stehen oder ähnliches, da gibt es soviele die niemals vorkommen und für 16 Bauern gibt es überhaupt nur wenig Stellungen i m Vergleich, so das die maximale Komplexität wohl bei 8-10 Bauern entsteht.
Das sind nur 8 hoch 16 Möglichkeiten und wenn man dann noch 2 Läufer,Türme,Springer nimmt kommt man auf den Wert und wieder ist er zu hoch, weil die maximale Komplexität wohl bei einem 18-26 Steiner entsteht und die Figuren niemals willkürlich auf dem Brett stehen.
Für die restlichen Figuren  muss man bedenken, das es keine 5 gleichfarbige Läufer etc gibt.
Ausserdem wird es bei vielen  Figuren auch nur eine sehr begrenzte Anzahl von Konstellationen geben, ist ja logiscsh, so schätze ich das es sogar weniger als 10 hoch 30 Stellungen gibt, erst recht bei engines mit hohem Elo.
Um darüber Aussagen zu machen müsste man sehr viel rechnen und sehen das Stellungen schon mal da waren, die aus völlig anderen Zugfolgen entstanden sind.
Würde man also jedesmal eine Stellung auch noch bei erkanntem Matt als  gewonnen markieren, so wäre das Problem von hinten und von vorne aufgerollt und die illusorisch grosse REchenleistung die manche theoretisch berechnen ist auf einen Wert geschrumpft der extrem starker hardware eben doch gelöst werden kann.
Bei 1000 Exaflop sehe ich durchaus chancen.
Dazu muss man enorme Datenmengen speichern um sich Wiederholungsberchnungen zu ersparen, wie sonst kommt man auf Matt in 545 ?
Der erste Schritt wäre eine sehr grosse Eröffnungsdatebenank und eine Abschätzung wieviel Stellungen wirklich von guten engines nach 20 Zügen auf dem Tisch sind.
Die 2.4 möglichen Züge gelten für einen Zug, du hast aber bestimmt nicht average 2.4 hoch n (Zugkombinationen) gegen besten Angriff, es  werden immer weniger, je größer die Tiefe.
Dazu kommen gerade bei grossen Tiefen noch zig Möglichkeiten die gleiche Stellung zu erreichen, aber die Berechnung hierfür ist sehr schwer, sehe ich ein.
Das Problem, welches ich sehe ist, das weiss den 2. besten  Zug spielt und schwarz auch, das treibt das ganze in die Höhe.

Eine weiter Art das zu sehen ist einfach mal willkürlich Stelluingen aufs Brett zu würfeln und dann zu schauen, wieviele überhaupt entstehen würden.
Ich tippe bei 1 Bio versuche selbst mit einigermassen vernünftigen Bedingunen wie keine  gleichfarbigen Läufer wirst du 1 Bio mal würfelen und keine wird je so da sein.
Würde man nur einen perfekten Angriff von weiss nehmen, so wären die möglichen Remisantwortzüge wohl kleiner als 2 hoch n.
Parent - By Michael Bechmann Date 2017-10-06 23:12 Edited 2017-10-06 23:50
Hallo

>"Wenn ich von 2 möglichen Zügen ausgehe pro Tiefe (Bei der Eröffnung sind es mehr, aber Zugwiederholungen) würde ich mit 1 Bilion Partien bei Zug 20 landen..."


Das verstehe ich immer noch nicht.
- Welche 2 möglichen Züge? Regelmäßig hat man im Mittel 15 bis 20 Züge. Ob sie alle sinnvoll sind ist eine andere Frage.
- Welche 10^12 Partien?

>"Gestern habe ich mir mal über die Anzahl der Schachstellungen, die in einem Spiel auftauchen Gedanken gemacht.


Ich kam auf vielleicht 10 hoch 30."

Im Internet wird u. a. geschätzt, es gäbe 21043 Schachstellungen. https://www.gutefrage.net/frage/gibt-es-im-schach-eine-begrenzte-zahl-an-spielen
Angeblich stünde das auch in der Wikipedia so.

In anderen Stellen im Internet werden oft etwa 10^46 Stellungen angegeben.

>"Ich bin für jede Reihe von 2 Bauern ausgegangen die von Feld 1-8 stehen (wobei Feld 1 kein Bauer) heist."


Warum "Feld 1 kein Bauer".  Es wird doch - korrekterweise - von 8 Bauern ausgegangen. 

>"Das sind 16 Bauern und natürlich vergesse ich die Doppelbauer, aber wieviel Stellungen gibt es, wo 3 schwarze vor den weissen stehen oder ähnliches, da gibt es soviele die niemals vorkommen und für 16 Bauern gibt es überhaupt nur wenig Stellungen i m Vergleich, so das die maximale Komplexität wohl bei 8-10 Bauern entsteht. Das sind nur 8 hoch 16 Möglichkeiten und wenn man dann noch 2 Läufer,Türme,Springer..."


Sie versuchen offenbar alle möglichen theoretischen Spezialfälle in (möglichst einer einzigen) Formel zu erfassen. Ich schätze, dass das so nicht geht.
Es gibt beim Schach zu viele Spezialfälle, die sich wechselseitig oft auch noch widersprechen (etwa so "3 Bauern in einer Linie, da kann dieses Zug und jene Stellung aber nicht eintreten...").
Das lässt nur sehr schwer abzählen und man müsste empirisch alle Varianten nachzählen.

Auch die 10^46 kommen aus einer groben Abschätzung, nicht durch eine exakte Formel oder sogar einzeln erfassten und nachgezählten Stellungen.
Warum soll es eigentlich keine 5 gleichnamigen Läufer geben? In einer realen Partie nicht, aber in den 10^46 konstruierbaren Stellungen (die nicht einer Partie aus der Grundstellung resultieren) durchaus
. (*)

>"Eine weiter Art das zu sehen ist einfach mal willkürlich Stelluingen aufs Brett zu würfeln und dann zu schauen, wieviele überhaupt entstehen würden."


Verstehe ich nicht. Wenn die Stellungen da sind, dann sind sie eben da. Auf was schauen wir dann?

---
(*) Ich schätze, dass man (obwohl optische Überlegenheit) kein Matt erzielen kann, weil alle Läufer in einem "schwarzen Paralleluniversum" laufen, und den weißen König nicht "sehen", wenn er auf weißen Feldern bleibt. Auch der schwarze König kann nicht helfen, um den weißen König zu bedrängen. (*) 
Ein Physiker würde es so beschreiben: "Vermutlich gibt es etwa 10 mal soviel Materie auf dunklen Feldern, aber wir können sie einfach nicht sehen und wissen auch nicht, wie sie aussehen - aber sie könnten trotzdem irgendeine Funktion haben." 
Parent - By Benno Hartwig Date 2017-10-06 19:55
Hier
http://www.server-konfigurieren.de/konfigurator/k/5HE-Server-Super-Micro-.html
finde ich schon mal einen Rechner mit 80 Kernen
"8 x Intel Xeon 8-Core 7500 oder 10-Core E7-8800 Prozessoren"

Benno
Parent - By Michael Bechmann Date 2017-10-06 20:26

>"Welches ist eigentlich die tatsächlich größte Kern-Anzahl auf einer Maschine, die man sich heute für sehr viel Geld kaufen könnte?"


http://winfuture.de/news,99589.html, der hat zumindest 56 Kerne in der Grundausstattung. Ob man damit Schach betreiben kann, weiß ich allerdings nicht.
- By 2phil4u Date 2017-10-06 18:04 Edited 2017-10-06 18:38
Das ganze wächst mir auch etwas über den Kopf.
Ich wollte nur sagen, das es gar nicht so viele Stellungen gibt, wie manche berechne, bzw die nie aufs Brett kommen.
Sieht man ja schon, bau mal was zufälliges auf und es wird sehr selten irgendwas sein, das irgendwie Sinn macht.
Deshalb sind die Stellungen die ersthaft aufs Brett kommen vielleicht nur wenig größer als 10 hoch 20.
Würde man 8 und 9 Steiner rechnen, so wären bereits 99.9% total unrealistisch.
Vielleicht eine Chance doch weiterzukommen, man rechnet eben nicht 4 gleichfarbige Läufer gegen Dame und Turm oder so was und schnell werden es nicht 90 mal mehr Stellungen bei den 8 Steinern (habe ich im Netz gefunden) sondern wesentlich weniger.
Vielleicht kann mal jemand sagen, wiviel von den 6-Steinern von den engines überhaupt  mal geprüft worden.
Bei 9 Steinern etc wird das immer weniger, was noch Sinn macht.
- - By 2phil4u Date 2017-10-06 18:45 Edited 2017-10-06 19:24
Vielleicht sollt ich auf die wesentlichen Punkte kommen.
Es mag 2.4 gute Antwortzüge geben, aber du kannst nicht jedes mal den 2. besten nehmen, du kannst einige 2. beste nehmen aber nach 20 Zügen gegen perfekten  Angriff bleiben eventuell weit weniger als 2 hoch 20 Antwortmöglichkeiten, die nicht verlieren, erst recht wenn man bedenkt, das viele "gute" Züge gegen extrem starken Gegner doch verlieren, so wird das spielbare immer weniger.
Dazu müsste mal jemand eine Eröffnungsbibliothek mit einem Supercomputer erstellen.
Das Problem das ich immer sehe ist, das ja weiss auch den 2. besten Zug machen kann und so weiter und damit ist dann die Bibliothek viel größer.
Trotzdem ist klar, das auch wenn es 2.4 Antworten gibt, eine ja oft suboptimal ist und obwohl Schach wirklich sehr remislastig ist bei sehr sehr starken Gegnern kann man eben nicht 10 mal hintereinander den 2. besten Zug machen, das sieht man auch schnell wenn man es probiert.
Ein 2. bester Zug, danach must du aber wieder lauter beste Züge spielen, sonst bist du bald mit -1 hinten oder so.
Dazu kommt noch, das viele spielbare Züge wohl doch verlieren, vielleicht nicht in den ersten 10 Zügen aber später bestimmt.
Was den remistot betrifft so muss ich auf die Endspieldatenbanken verweisen, die eben doch irgendwie einen Gewinn sehen, den die engines nicht sehen.
Da aber Schach doch sehr remislastig wird bei sehr starken Gegnern, so wird Elosteierung pro doppelter Leistung auf jeden  Fall sehr klein bei sehr vielen Knoten.
Man denke mal 1 Bia Knoten gegen 2 Bia, ich schätze mehr  als 5 Elo sind nicht mehr drin.
Ich glaube 4500 Elo wird als perfekt angenommen.

Desweitern wollte ich sagen, das weil  es nicht so viele logische Positionen gibt und auch nicht so viele Endspiele bei 10 Steinern, die noch ernsthaft gerechnet werden sollten es mit dem Aufrollen auch von vorne vielleicht doch gelingt trotz sehr viel möglicher Zugfolgen jeder Position nach 30 Zügen einen n-Steiner zuzuweisen, der erreicht werden kann mit einer Leistung die heute unbezahlbar ist, aber eben auch nicht so extrem hoch, wie viele behaupten.
Würde man heute einen Exafloprechner mal loslegen lassen, da wären wir schon ein Stück weiter, aber ich erwarte nicht, das viel Geld für ein für Mathematiker doch ziemlich langweiliges zufälliges Spiel ausgegben werden.
Was würden 8-Steiner noch kosten.
2012 wurde gesagt nur die besten 10 Supercomputer unter einem Jahr, das sind nicht mal 10 Mio, kein Interesse da, denn 10 Mio sind nicht viel für ein Thema mit dieser Tradition, aber es ist mathematisch oder spieltheoretisch einfach nicht interessant, auch KI oder sowas, also kein Meilenstein.
Mensch geschlagen, gut ist, viel Geld gibt keiner aus, keine Nachfrage, kaum jemand interssiert sich dafür, die Menschen, die schon lange spielen fühlen sich wahrscheinlich auch ein bischen blöd, das ihre Theorien reihenweise entkräftig worden und kein Mensch steht mehr als genie da, wenn ein Computer den Zug in 0.1 Sekunden findet, für den Kasparov früher wochenlang gefeiert wurde.
Klar könnte   man 1 Mio CPU rechnen  lassen, zur Not mit Baumstruktur, im schlimmsten Fall bruteforce, tiefer wäre man auf jeden Fall.
Parent - - By 2phil4u Date 2017-10-12 19:11 Edited 2017-10-12 20:03
Leider sind die WErte gegen Ende ja 93,73,59,51 Elo.

Die Quotienten werden immer gröper und zwar linear,  also 51/59 ist 0.87 und 59/73 0.82 un 73/93 0.78.
Würde es so weitergehen, wäre max Elo unendlich.
Ich habe das versucht  mathematisch zu zeigen, aber es ist zu viel für manche.
Irgenwann mus die immer geringer werdende Differenz weniger stark fallen.
Wir habenja Differenz 20,14,8.
Was die Eröffnungen  angeht, klar kann ein Mensch mit einem Computer hier nicht sehr breit suchen, aber wir haben doch mehr Cores und mehr Menschen.
Wenn ich das richtig sehe ist bis Zug 4 alles durchsucht.
Die Arbeit ist löblich,aber natürlich sind es zu wenige die sowas machen.
Angenommen ein Supercomputer mit 1 Mia Cores rechnet die ERöffnungen, ob es nun alle mit Nachteil für schwarz aber nicht bewiesen verloren auch rechnet oder nicht ist eine andere Geschichte,denn wirklich  gute Eröffnungen gibt es wohl weniger.
Das mit den Neuerungen um scharfe pos zu erreichen, klar, aber systematisch durchsuchen, irgendwann spart man sehr viel, weil 1. einiges widerlegt und 2. man erreicht Stellungen, die manschon kennt.
Da es  meiner Meinung nach nicht viel mehr als 10 hoch 20 wirkliche Stellungen gibt, die erreicht werden mit guten engines wäre das eigentlich schon in der Nähe der Machbarkeit.

Die  Anzahl der Bauernkonstellationen könnte man ja schon anschauen und das sind sehr wenige im Vergleich zu theoretischen Werten.
Parent - By 2phil4u Date 2017-10-12 20:21
Ich sehe gerade es gibt noch Fragen zu meiner Bauernidee.
Ich beginne auf Linie 1 und setze einen weissen Läufer. Wenn es keine gibt gebe ich Pos 1 an, ansonsten2-8.
Der schwarze Bauer hat wieder Feld 1 (keinBauer ) aber jetzt sind es nur  noch 7 Möglichkeiten.
Es gibt also grob gesagt 8*8 möglichkeiten auf Linie a für einen weissen oder schwarzen Bauer.
Das ganze 8 Linien macht 8 hoch 16. ich habe keine Doppelbauern, aber es gibt unzählige Stellunge die es nie gibt wie schwarzer Bauer auf a2 weisser auf a6, weisser auf b6 scharzer auf b2 etc pp.
Es dürften also in einer Partie weit weniger als 8 hoch 16 verschiedene Bauernstellungen geben.
So oder so ähnlich komme ich auf 10 hoch 30 Stellungen, nun sind aber der Grossteil niemals so auf dem Brett, weil einfach total unlogisch.
Deshalb gibt es viel weniger Stellungen die wirklich aufs Brett kommen und noch weniger, wenn gute Gegner spielen.
Ich denke ein wirklihc talentierter Mathematiker könnte das ohne zähnlen abschätzen, ich nicht.
8 scharze Läufer, wenn wir so denken, dann gibt es natürlich auch drölf drillionen hoch 10 32 Steiner, es geht aber nicht, erst recht nicht in einer ernsthaften Partie.
Eine Schätzung die ich nach langer Suche gefunden  habe und erst nicht glauben wollte war 10 hoch 21, aber dann mit meinen Überlegungen macht das Sinn.
Parent - By Thorsten Czub Date 2017-11-19 12:05
Schach ist nicht nur das ausspielen des BESTEN Zuges in einer Stellung.
Weil wir keine Stellungen lösen sondern eine PARTIE Schach spielen.
Du heiratest ja auch nicht die Frau die gerade am besten aussieht. Sondern lebst mit jemand zusammen der am besten passt in einem Zeitabschnitt der Jahrzehnte betragen kann.

Ich könnte mir schon vorstellen in einer Folge nicht immer den „besten“ Zug zu spielen, nämlich mit der Absicht einen Plan umzusetzen
für den erforderlich ist Figuren zu überführen oder fesselungen oder gegnerische Figuren abzulenken, sei es durch Opfer oder Angriffe am anderen Flügel.

Diese Züge verfolgen ein höheres Ziel. Die Umsetzung des Plans.
Daher sind es eine Folge von Zügen die nur 2. oder 3. oder 4. beste Züge sind.
Denn es soll nicht die Stellung „gelöst“ werden sondern die Partie gewonnen werden.
Das sind 2 unterschiedliche paar Schuhe.
Hier wird in der Diskussion aber immer so getan als gäbe es eine Reihenfolge von Zügen und es sei
Klar definiert welche Züge besser sind.
Nun ich denke das würde nur stimmen wenn man das Schach erfassend durchgerechnet hätte, dann könnte
Man die Züge sortieren nach einer absoluten Reihenfolge.
Solange wir aber nur Intervalle haben, können wir auch nur schätzen. Thesen aufstellen und widerlegen.

Man opfert bei der Umsetzung des Plans beste Züge.
Eventuell sogar Material.
- By 2phil4u Date 2018-01-01 20:50 Edited 2018-01-01 21:42
Ich habe darüber lange nachgegrübelt und musste auch einige Berechnungen lernen.
Ein Eispiel.
Es sei ein Würfel mit 20 Seiten, meinetwegen 0-19 (im Vergleich zu den Zügen).

Wenn ich jetzt wissen will, wieviel Möglichkeiten es gibt nicht über die Augensumme 19 zu kommen, so kann ich das ausrechnen.
Iich habe einige Zeit gebraucht, aber der Aufbau ist etwa so.

Jeweils ein Würfel mehr

Augenzahl       Anzahl der Möglichkeiten

(0)   1   1    1    1    1    1
(1)   1   2    3    4    5    6
(2)   1   3    6   10   15  21
(3)   1   4   10  20   35  56

Wie man sieht ist die Zahl jeweils die Summe aller Möglickeiten von 0-n bei einem Wurf weniger.
Also mit 3 Würfeln 2 zu würfeln ist so wahrscheinlich wie mit 2 Würfelen 0,1,2 zu würfeln.

dier erste Zeile ist immer 1, die 2. Zeile ist n, die 3. Zeile ist Summe(n), die 4. Zeile (Summe(Summe)).

Man kommt aber mit a über b zumindest bis zur Zahl 19 noch einfach auf die Lösung, für  20 habe ich es auch geschafft und für 21, danach wird es extrem komplex
und ist höchste Mathematik, warhscheinlich  nicht direkt berechenbar.
Wie ich später noch zeigen werde will ich wissenm wieviel Möglichkeiten es gibt, das ich mit n Würfeln nicht über 19 würfel, in der Hoffnung, das ds Verhälntis
irgendwann mal sehr klein wird,  also mit 80 Würfeln 19 zu würfeln ist nicht viel weniger als mit 81.

Der Wert ist für 19 etwa so

bei einem Wurf sind es 19 über 19, bei 2 Würfen 20 über 19.

Bei 40 Würfeln sind es 59 über 19 oder 59!/(19!*40!)

So weit so gut

Also ganz grob, ich werde später noch darauf eingehen, angenommen in 40 Zügen (wenn man den besten Zug denkt als 0 Fehler und den schlechtesten als 19 Fehler) dürfen nur 19 Fehler entstehen immer noch.
1.397.281.501.935.165

Mehr als 1 Biliarde Möglichkeiten !
Nicht berücksichtigt sind hier die wichtigen Zugumstellungen.

Meine Idee war nun pro Seite 2 Bauern Fehler zu erlauben, aber 5 Züge später den Fehler zu verdoppeln, daher wenn in Zug 1 0.4 Bauern verscshenkt wurden so kann ich das 5 Züge später, da ich hier mehr weiss verdoppeln, oder auch jeden Halzug mit 10 Wurzel aus 2.
Nach 10 Zügen kann ich es ver 4-fachen.
Die Idee ist, das ich erst ein grosses Polster habe um auch schlechter erscheinende Züge zu testen und erst wenn sie sich  nicht durchsetzen wegzucutten.
Insgesamt ist es so, das bei dem System der Großteil der Möglichkeiten nahe am maximalen Fehler ist, so das bei Tiefe+1 nur sehr wenige Züge wirklich mehr als einen besten Zug erlauben, aber das ist ja die Idee dahinter.
Ich rechne erst sehr viel, aber später sind es die sehr guten Varianten, die viele Möglichkeitgen bekommen, bei einem schon grossen Fehler einen Zug zu übersehen ist nicht soschlimm, es ist ja der Puffer.
Und man sieht auch, das für 41 Züge es nicht so viel mehr Möglichkeiten gibt.

Trotzdem es gilt für  beide Seiten und wir sind schon bei 1 Biliard, jede Seite darf 2 Bauern Fehler machen oder später (10 Züge später) 0.5

Bemerkung(Wernn ich eijnen 10. besten Zug mache sind das 10 Fehler !!).

Vielleicht ist das nicht ganz 19, aber der Bericht im Inet von nur wenigen Milionen oder Miliarden Möglichkeiten i9st quatsch.
Wenn es nicht zig Transformationen macht und es ist klar das 19 Fehler insgesamt nicht übertrieben isgt, da ja oft 2 Züge auch gleichgut sind.
Auch wenn ich mein System ziemlich gut finde (Mit dem Puffer) so müsste ich doch etwa 10 hoch 18 Positionen testen, dann käme ich wirklich langsam an den Punkt, an dem eine Tiefe mehr nichts macht, da 99% der Stellungen zwischen 1.9 und 2 Bauernfehlern(mit hochrechnen) liegen, aber noch kann ich so nicht arbeiten.

Gruß Philipp

Nochmal, die Idee war einen kompletten Eröffnungsbaum zu erstellen. Zuerst hatte ich andere Ideen, aber dann kam mir die schöne Idee, das jede Seite nur einen bestimmten Betrag vom optimalen Spiel abweichen darf und die Idee diese Grenze erst ziemlich hoch zu setzen, da sich ja ein Zug da ich ja nicht tagelang pro Tiefe rechne später verbesser kann aber ich 5 Züge später, wenn ich die bewertung des Zuges viel genauer einschätzen kann höher zu gewichten.
Grobe Fehler sind so nicht möglich, wenn ich beim 1. Zug einen halben bauern verschenke und das bei Zug 11 sehe so habe ich noch genau eine Variante.
So, ich war gespannt, dachte es wäre halbwegs berechenbar.
Dann nahm ich die Vereinfachung mit Würfeln und sah, das selbst wenn ich bei einem 20 seitigen Würfel in allen würfen nur entweder einmalmal den schlechtesten Zug oder 5 mal den 2 besten und paar mal den 3. besten machen darf ich die schöne Eigenschaft habe, das der Großteil der Stellungen (kann man aurechen) nahe am maximalen Fehler liegen, so das ich pro Tiefe irgendwann nicht so viel mehr Möglichkieten habe.
Natürlich kommen im Schach noch andere Sachen hinzu, Zugumstellungen und größer werden des Fehlers bei optimalen Spiels.
Trotzdem finde ich, das ich gezeigt habe, das die Möglichkeiten immer noch sehr groß sind und der eine Ionternetpost mit paar Milionen oder Miliarden guten Positionen Quatsch ist.
GEnauso quatsch ist natürlich die shannon number.
Insgesamt deckt sich das ganz gut mit meiner 10 hoch 20 Vermutung, ist aber noch zu viel für Computer und wahrscheinlich auch nicht der Weg das Problem zu lösen.
Wie sich die Mathematik der identischen Positionen verhält weiss glaube ich noch keiner genau, dazu müsste man mein oder eine bessere Methode auf einen noch nicht erhältlichen Großrechner durchführen und schauen,wie oft man in gleiche Stellungen kommt und wie oft eine Stellung bei optimalem Spiel abrutscht.
Da Schach aber sehr remislastig ist, so sind zumindest die Möglichkieten wenn nicht optimal aber noch gut genug gespielt wird um remis zu erreichen so groß, das sie mindestens 1000 Exaflop bräuchten, also etwa 1 Bio Euro Aufwand derzeit um ein gutes vollständiges Eröffnungsbuch bis Zug 30 oder so zu erstllen.

Wenn jemand etwas weiss wie oft Stellungen durch völlig andere Zugfolgen entstehen, gerne, denke das könnte man schon rausfinden mit sehr viel Geld.
Und natürlich ist mein Eröffnungsbaum voll mit laschen Eröffnungen, die keinen Vorteil für weiss bringen oder wo schwarz gerade noch so remis halten kann, aber mitg kleinerem Puffer würde ich zu viel übersehen und wie ich sagte, die minderwertigen Varianten haben jeweils sehr wenige folgezugfolgen, da sie scshon nah am maximalen Fehler sind.
Ausserdem skaliert meine Methode gut bei sehr vielen Zügen. Bis Zug 20 sind es aber von beiden Seiten schon viel zu viel Möglichkeiten denke ich, jeder darf dann in den ersten 10 Zügen einen halben Bauern Fehler machen maximal, trotzdem sind es zu viele.

Nochmal, mit war bewusst, das die Würfelberechnung nur eine extrem starke Vereinfachung ist, weil z.B. bei weniger Figuren doch sehr viele gleiche Positionen vorkommen oder weil wir von vielen Stellungen wohl mit viel power sgen könne, die sind remis, aber ich wollte mal einen Ansatzpunkt, wie sich die Anzahl selbst bei nur kleinen Abweichungen verhält und kam so leider bei beiden Seiten auf mindestens 10 hoch 18 Möglichkeiten und sah, das man so nicht vorgehen kann.
Natürlich könnte ich alles auf den optimalen Zug etc optimieren, dabei würde ich aber zu viel übersehen.

Die Einteilung der Positionen nach Bauernstruktur wäre ein erster Schritt, man  speicher alle Bauernkonstellationen und zähle sie.
Leider havbe ich nicht die finanziellen Mittel für die hardware.
Spendenkonto 124904uu0487
- By 2phil4u Date 2018-01-01 22:02 Edited 2018-01-01 22:22
Wollte noch sagen, das die 1.8 Biliarden genau für die Augenzahl 19 ist, um alle zu Berechnen muss ich aber nur für 41 Züge rechnen, dann habe ich die Summe von 0 Fehlern bis 19 Fehlern.

2044802197953900

Hier sieht man das der absolute Großteil am maximalen Fehler liegt. von 2.044 Biliarden Möglichkeiten haben 1.8 den Fehler 19, wenn man das mit Schach vergleicht sieht man das man für die nächste Tiefe nur sehr wenig neues berechnen müsste, was wieder wieder maximal 19 Fehler hat.
die 1.8 gelten auch für alle Fehler 0-19 bei 39 Würfeln.
Das ist das interessante an der Mathematik.

Ein einfacheres Beispiel.

Die Möglichkeiten mit einem Würfel zwischen 0 und 5 bei 10 Würfen insgesamt 5 zu würfeln ist gleich der Möglichkeit bei 9 Würfen 0-5 als Summe zu würfeln, sehr nice !

Nach 50 Zügen und hier erwarte ich zusätzlich starken Rückgang wegen weniger Figuren sind es
63484158299081520, also nur 3 mal so viel Möglichkeiten.

Das System vetrhält sich einfach so extrem, das immer mehr Möglichkeiten den maximalen Fehler schon haben und nur 1 Möglichkeit zulassen

Das System untertreibtt gegenüber Schach in manchen Stellen aber berücksichtigt keine gleichen Positionen, so übertreibt es wieder.
Von daher gibt es bei akkuratem Spiel nicht so dermassen viel Möglichkeiten, diese 10 hoch 40 ist etwas random play und sogar illegale nicht erreichbare Positionen sind erhalten, wäre Schach so komplex könnte kein Programm 20 Halzübe auch nur annhähernd rechnen.

10 hoch 12 bis 10 hoch 21 Positionen die von guten engines erreicht werden denke ich.

Das meinte ich auch in einem anderen post in dem ich versuchte zufällig hingeworfene Figuren zu nehmen und zu schauen, wie oft so was eintreten würde, sehr sehr selten.
Kein Großmeister kann sich zufällig hingeworfene Stellungen merken, aber logische.

Allerdings istg diese untere Schranke von glaube ich 300 Mio Stellungen, die im internet kursieren irgendwie bekloppt.
Würde man schon sehen, wenn man Spielepositionen selbst von sehr guten engines mal auflisten würde und schauen, wieviel das etwa sind.
Gibt ja genug Spiele, die gespielt wurden.

Oder auch die Datenbankabfragen von Endgametablebasesstellungen, das dürften schon wesentlich mehr sein.
Up Topic Hauptforen / CSS-Forum / Frage zu Komplexität des Schachs bei sehr hohen Elostärken

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill