Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Stellungstest 2.0
- - By Peter Martan Date 2022-02-13 09:17 Edited 2022-02-13 09:48 Upvotes 2
Immer schon habe ich nach Mitteldingen zwischen "klassischem" Eng-Eng-Match und "klassischem" Stellungstest gesucht, je heißer das Eisen Stellungstest (und das Eisen Eng-Eng ja erst recht) wird, umso mehr geht's mir wieder im Kopf herum.

Die Hauptkritik an den taktischen single best move - Tests war immer die Auswahl der Stellungen und ihre Anzahl in den Sammlungen.

Meine Hauptkritik an Eng-Eng für Ranglisten und Elowertung war immer dieselbe, ohne Auswahl an Eröffnungs- Teststellungen keine Ergebnisse von Interesse und Aussage, buchloses Match von der Grundstellung könnte man zwar heutzutage mit den Unmengen an Engines, die für sich schon Abwechslung bringen, auch wiederbeleben, aber der Remistod lässt auch dieses Match sterben, es sei denn für ganz für sich stehende einzelne Ergebnisse ihrerseits.

Ich müsste die Forensuche bemühen, das letzte Mal (vom ersten ganz zu schweigen) zu finden, wann ich hier über Stellungstests anhand anderer als taktischer single best move Stellungen schrieb, immer schon hätte ich dazu Output von Engines herangezogen, nicht nur den ersten Zug vergleichend, sondern auch weitere Folgezüge und Evals.
Wäre es nicht wirklich langsam an der Zeit, die Engines beim Wort zu nehmen, was ihre Evals angeht? Natürlich sind sie nach wie vor sehr davon abhängig, welche Engine an welcher Stellung, aber wäre das nicht auch schön langsam einen methodischen Vergleich wert?
Natürlich hat eine Eval ohne Output- Line länger als einen Halbzug keinerlei Aussagekraft für sich, aber in Kombination mit den Varianten ist sie doch das, worauf ständig alle Computerschachspieler zumindest auch mehr oder weniger genau schauen, nein? Ist eine Eval "korrekt", was die Output- Line und den zu erwartenden Partie- Ausgang ausgeht, oder ist sie schlicht und einfach falsch nach objektivierbaren Kritierien und in welchem Ausmaß gilt das Eine oder das Andere?

Und wenn wir diese Überlegung bei Stellungen und Zügen nicht anstellen, sei's für die Auswahl von Teststellungen oder von Stellungen, die wir selbst spielen wollen, wie wollen wir dann die schachliche Leistung von Engines überhaupt beurteilen? Wenn wir nicht wissen, woher die ganzen und die halben Punkte kommen, wird's spätestens dann knapp mit den Aussagen von Interesse, wenn die halben Punkte die Überhand so gewinnen, dass keine ganzen mehr übrig bleiben oder die ganzen nur mehr aus 1:1- Paaren kommen.
Die Eröffnungs- Testsets werden doch auch genau so zusammengestellt, nach immer mehr Vorteil für eine Seite suchend, so dass er gerade noch nicht zu groß wird: indem die Evals verschiedener Engines dieser Stellungen im Zusammenhang mit den erwarteten Remisquoten verglichen werden und mit dann am Ende wieder mit denen Ergebnissen, die herauskommen, danach werden die Eröffnungsstellungen selektiert und gesammelt. Für ausgespielte Stellungstests namens Eng-Eng-Match, sag' ich gerne in dem Zusammenhang, und zwar natürlich auch immer vielfältiger angepasst an das jeweilige Teilnehmerfeld und die Hardware- TCs, die man spielen lassen will.

Der neue Hiarcs Chess Explorer Pro hat ein Feature, das genau das, was ich da immer schon vorgeschlagen hatte und hätte, automatisiert anbietet:
Es wird eine Partie oder eine Zugfolge beliebiger Länge oder Kürze von eine Engine rückwärts analysiert (vorwärts eine vorgebene Zugzahl ausspielen zu lassen, geht sowieso mit jedem GUI, Vorwärts- Analyse einer Partie oder Variante ist schon nicht mehr so leicht zu finden, Arena z.B. kann das auch), und nicht nur, wie man's kennt, werden Alternativzüge und -Varianten dort, wo sie von den Textzügen abweichen, notiert mit Evals und Rechenzeit (-Tiefe), sondern zum Schluss wird ein Wert ausgerechnet, der aus Eval- Unterschied am Anfang und am Ende der untersuchten Variante, dividiert durch die Zahl der untersuchten Züge, besteht.
Einfach Quotient aus (Eval Ende - Eval Anfang) : Zugzahl.

Was man jetzt nur noch bräuchte, um die so ermittelten Werte unter verschiedenen Engines vergleichen zu können, wären gut durchanalysierte Testvarianten, von denen man sich nicht einmal unbedingt so genau auf die best moves festlegen müsste (was ja bei z.B. Eröffnungsstellungen nicht soo einfach ist), ähnlich gute Züge bekommen zusätzliche eigene Lines, worüber man sich als Testinhalt einigen müsste, wären "nur" Eval- Ranges für die Testvarianten an ihrem Anfang und an ihrem Ende.

Bleiben wir mal bei den Eröffnungsstellungen, die ja ohnehin das Problem bei Eng-Eng-Matches auch sind, was spricht dagegen, einfach Varianten aus den Datenbanken zu nehmen, die schon gute statistische Absicherung über die Gewinnwahrscheinlichkeiten der viel gespielten Züge haben?
In Zeiten der Evals inform von prozentuellen solchen (Gewinnwahrscheinlichkeiten) könnte man diese Art der Evals (werden ja von den meisten Engines mittlerweile auch umgerechnet und wahlweise angeboten) direkt mit denen vergleichen, die in den Datenbanken schon fertig dabei stehen, Elo- Performances der Züge stehen meistens auch gleich dabei.

So what?
Elo aus Eval, egal ob in wdl- Prozenten oder Centipawn, bei den Eröffnungsstellungen auch gleich ohne komplizierte Testmethodik zu haben, aber so leicht wollen wir's uns ja wieder nicht machen, oder?


Was man solchen Tests jedenfalls nicht mehr vorwerfen müsste: die Stellungen (Varianten) müssten nicht taktisch forciert sein, sie müssten nicht auf Mittel- und Endspiel beschränkt sein, man könnte endlich (was sowieso immer schon notwendig gewesen wäre und jetzt immer notwendiger wird) Eröffnung, Mittel- und Endspiel extra testen.

Wem die Rückwärtsanalyse allein zu selektiv ist, der kann sie ja mit Vorwärts- Ausspielen bestimmter Zugzahlen oder bis zu bestimmten Materialgrenzen kombinieren, Grundlage der Auswertung wären aber ebenfalls nicht mehr nur ganze und halbe Punkte ganzer Partien, sondern (auch) Variantenlängen und Evals.

Das auch von namhafter Mathematiker- Seite (Prof. Althöfer hatte sich vor eine Weile auch schon mal in diese Richtung Elo- kritisch geäußert) immer mehr bemängelte eindimensionale Messen wäre um ein paar Parameter mehr bereichert.

Soll ich weiter phantasieren und Beispiele dafür bringen, was ich meine, oder steigen hier eh schon Alle aus, die schon beim Thema "konventionelle Stellungstests" die Nase voll haben? Und ist das wirklich die Mehrheit, soviel wie an Stellungstest- Ergebnissen in der letzten Zeit veröffentlicht worden ist?

Ich warte erst mal erste Reaktionen ab, abwartet
Parent - - By Lothar Jung Date 2022-02-13 10:07 Upvotes 1
Hallo Peter,

erst mal herzlichen Dank für Deinen grundsätzlichen Artikel.

Ich bin jetzt froh, daß ich auf den neuen Chess Explorer Pro aufgestockt habe.

Deinen Hinweis die Stellungstests nach Eröffnung, Mittel- und Endspiel zu gliedern unterstütze ich voll und möchte ergänzen, daß man auch Sonderprobleme wie Zugzwang, Unterverwandlung, Patt etc. dazu nehmen könnte.

Die jetzigen Stellungstests bilden nur eine Momentaufnahme ab. Aber wie hat die Engine oder Schachspieler diese gewinnbringende Situation erreicht? Welche Zug oder Zugfolgen waren zuvor dafür Voraussetzung und/oder hat ein einziger Fehler des Gegners diese Situation ermöglicht? Oder war die Partie eh gewonnen?

Diese und mehr Fragen könnte die Rückwärtsanalyse  beantworten, also eine dynamische Bewertung ermöglichen.

Meine Unterstützung hast Du!

Beste Grüße

Lothar
Parent - - By Peter Martan Date 2022-02-13 10:27 Edited 2022-02-13 10:32 Upvotes 1
Lothar Jung schrieb:

Meine Unterstützung hast Du!

Danke, Lothar, die Evals als Grundlage heranzuziehen, das ist natürlich gleich naheliegend wie umstreitbar, drum käme es ja da in erster Linie auf eine reproduzierbare Methode und dann natürlich wieder, eigentlich noch mehr als das, auf Teststellungen bzw. in diesem Fall auf Testvarianten an, bei denen man sich auf Eval- Ranges einigen könnte.

Die abgespeckte Version gibt's ja sowieso schon so lang wie die taktischen single best move Sammlungen, die gute alte Strategic Test Suite von Swaminathan und Corbit z.B. ist nur eine solche Sammlung, bei der mehreren verschieden bewerteten Zügen in unforcierten "positionellen" Stellungen verschieden hohe Punktezahlen zugeordnet werden.

Hat prinizipiell dieselben Meriten und Schwachstellen wie bei den taktischen Stellungen, es ist nur da halt auch wieder umso schwerer, best moves von zweit- und drittbesten zu unterscheiden, und wieviele Punkte man wofür vergibt.

Drum meine ich ja schon lange, die Evals einfach weiter als schmückendes Beiwerk der Output-Lines zu betrachten, ist mehr und mehr Verschwendung, in Wirklichkeit ist es ja doch das, was alle Schachspieler ständig zum Vergleich mit ihren eigenen Stellungsbewertungen heranziehen, natürlich streng Varianten- gebunden, aber dass man heutzutage den Evals ja eh schon mehr und mehr glaubt und auch glauben kann, andererseits aber doch ständig Unmengen von Partien komplett ausspielen lassen muss, um herauszufinden, ob sich die eine oder die andere Engine mehr oder weniger geirrt hat bei der Ausgangsstellung in dem, was sie an Bewertung und Varianten ausspuckt, das ist nicht mehr ökonomisch und ökologisch vertretbar, findet halt
Parent - By Lothar Jung Date 2022-02-13 10:56
Dieses Vorgehen wäre auch oder vielleicht insbesondere für Fernschachspieler gehaltvoller und nützlicher.
Auch könnten die Engineentwickler bei der Optimierung ihrer Suchalgorithmen davon profitieren.

Meint ergänzend

Lothar.
Parent - - By Lothar Jung Date 2022-02-13 12:28
Gedanken zu den Bewertungsparametern gelöster Stellungen:

- Lösungszeit

- Höhe der Bewertung

- Unterschied(e) zu/zur vorherigen Bewertung(en)

- Schwarz oder Weiß

- vorangegangener Fehler des Gegners

- Sondersituation: Unterverwandlung, Zugzwang, Patt

Die ersten drei Parameter sollten nach gestaffelten Bewertungspunkten differenziert werden.

Just my two Cents

Lothar
Parent - - By Peter Martan Date 2022-02-13 13:32 Edited 2022-02-13 13:37 Upvotes 2
Ein weiteres wesentliches Kriterium für mich (und z.B. auch für das geschilderte adäquate HCE- Feature) noch: Zahl der Züge, die es zu beurteilen gilt und der sich daraus und den Eval- Unterschieden von Anfang zu Ende zu berechnende "Dynamik" der Stellung bzw. Variante.

Minimale Sonderform, wie sie jetzt schon meistens betrieben wird: single best move mit game changer- effect, ein Halbzug und die Partie kippt von, nicht sicher gewonnen, besser noch von ziemlich sicher Remis, zu ziemlich sicher gewonnen.
Da braucht man nur dann Folgezüge, wenn man daran zweifelt, dass Zug und Eval "aus den richtigen Gründen" "gefunden" wird.

Bei allen anderen Stellung müsste man eine Variantenlänge definieren, über die man sich eine Änderung der Eval, wieder am einfachsten zu überprüfen von Remis zu gewonnen, in einer bestimmten Höhe vorstellt, wenn man genau diese Variante vorwärts oder rückwärts berechnen und bewerten lässt, oder eine ebensolche Dynamik- Höhe pro Zugzahl für eine von einer Engine allein oder zwei Engines gegeneinander vorwärts ausgespielten Partiefragmenten.

So weit die Theorie, in der Praxis zählt man meistens nicht die genau Länge bis dorthin, wo die Entscheidung gefallen sein soll, aber man geht genau so an alle Arten von Stellungen heran, wenn man nicht ganze Partien davon ausspielen lässt, man vergleicht die Züge und die Evals über eine bestimmte Zahl von Zügen mit mehr oder weniger Verwzeigungen bei den einzelnen Knoten und sagt dann, geht gegen Remis, ist sicher Remis, könnte gewonnen sein oder aus die Maus und das sagt man dann zur Kennzeichnung schon auch noch dazu: so und so lange oder kurz wird das noch dauern, bis alles klar ist. Am klarsten so etwas definiert und überprüfbar, eine Distance to Mate.

Was man nur an Anwendungsbeispielen heraus finden könnte: wieviel Aufwand macht es, wieviele Stellungen bzw. Varianten aus den verschiedenen Spielabschnitten müsste man wie genau unter welchen Hardware- Zeit- Bedingungen vergleichen, und was gewinnt man für Erkenntnisse daraus.
Irgendwelche Elo- Werte, damit man nicht so abgekoppelt ist von dieser heiligen Kuh der Performance- Bewertung, könnte man natürlich mindestens so leicht aus solchen Minimatches berechnen, wie aus ganzen Partien, ElostatTS macht ja im Wesentlichen auch genau das, jede einzelne Stellung, gelöst oder nicht gelöst, wird zwischen je zwei Engines als Gewinn oder Verlust gezählt, dazu noch die Zeiten der einen und der anderen Engine, that's it. Elo aus schachlichen Leistungen zwischen verschiedenen Engines head to head verglichen, halt nicht nur aus 1-0, 0-1 und 1/2-1/2 als einzig zählendem Summen- Parameter, sondern aus mehreren bis vielen Parametern pro Stellung, pro Zug, pro Zugzahl, pro Variante, pro Eval, pro Zeit.

Dem, was man jetzt schon bei der Auswahl der Eröffnungs- Teststellung sehr ähnlich sowieso macht, wäre es am meisten bei den Eröffnungsvarianten, da muss man sich ja auch eine bestimmte Länge, von der aus dann weitergespielt werden soll, aussuchen, Eval- Ranges sind Voraussetzung für die Auswahl nicht zu remisträchtiger und nicht zu unausgeglichener Teststellungen, die Evals von Engines, die man dazu heranzieht, könnte man halt auch gleich zur Bewertung der Abspiele zwischen den Engines vergleichen und mit dem, was man aus den in der Eröffnung ja am reichlichsten statistisch belegten Datenbanken schon vorliegen hat.

Ich füchte, Beispiele für das, was ich meine, werde ich wohl schon auch selbst bringen müssen, aber zuerst warte ich mal wieder etwas ab, ob außer dir und chessplayer ("wo isse denn", war genau das an konstruktivem Beitrag, was ich mir erwartet hatte ) noch jemand Interesse zeigt, abwartet wieder weiter...

Es wäre mir sowieso das geringste Problem, derlei weiterhin nur für mich allein im stillen Kämmerlein zu machen, wie ich es seit Jahr und Tag immer gemacht habe und mache, und übrigens auch absolut nicht nur im stillen Kämmerlein und für mich allein, sondern vermutlich mehr als die meisten Anderen, wenn nicht überhaupt am allermeisten von Allen, die sowas auch immer wieder in Foren machen und gemacht haben:

Stellungen mit ihren Abspielen anhand von Engine- Output mit und ohne Backward mit verschiedenen Engines auf verschiedener Hardware zu analysieren und mich darüber mit Anderen auszutauschen, die sowas hier und anderswo durchaus auch immer wieder interessiert hat und interessiert.

Das war für mich eigentlich immer der Haupt- Inhalt solcher Foren, was ich im CCC und hier alles an Stellungs- Analysen mit Engines gemacht und veröffentlicht habe, geht nicht mehr auf die sprichwörtliche Kuhhaut, natürlich haben mich Ranglisten aus Eng-Eng-Matches auch immer interessiert, und ich bin sicher nicht mit irgendwelchen Absichten unterwegs, sie nicht mehr stattfinden sehen zu wollen.

Im Gegenteil wie schon so oft bei derlei Gelegenheit meine Hochachtung und meinen aufrichtigen Dank an Alle Tester, in Gruppen und Gemeinschaften organisiert oder als Einpersonen- Unternehmen, die die Flut an Engines immer noch und seit grauer Vorzeit (vieles war ja früher auch viel schwerer, es waren weniger Engines, aber die Hardware und die Software war viel teurer und schwieriger zu bedienen) in Ranglisten durch Eng-Eng-Matches ordnen.
Was wären wir ohne sie, ohne die Ranglisten und ohne die gekonnt veranstalteten Matches?

Drum wär's ja auch immer mehr schade, zu viel von diesen Testern in einer bestimmten Hinsicht zu verlangen und zu erwarten, kleine bescheidene Beiträge von Einzelnen anhand von Einzeltests anderer Art beigetragen, haben einfach auch ihre Berechtigung, und sollten je nachdem, wie sie gemacht sind, mehr oder weniger Beachtung finden, man kann ja auch einzelne Eng-Eng-Matches stark und leicht überbewerten, und man sollte nicht alles, was ein bisschen neben dem Mainstream läuft, aus irgendwelchen historischen Phobien und Lager- Mentalitäten verachten, ohne sich näher damit zu beschäftigen, festgemacht an bestimmten Ausdrücken und einzelnen Elo- Punkten so wie ihrer Bedeutung.

Ich kann's eh kurz zusammenfassen auch leicht: so wichtig wie die Elo sind die Evals allemal.
Parent - - By Lothar Jung Date 2022-02-13 13:59
Für mich stellen sich noch praktische Fragen:

Welche Teststellungen und wieviele davon ziehen wir in Betracht?

Welche Engines wählen wir aus?

Wie sind die Suchverfahren (MCTS, A/B, Hybride) dabei zu bewerten?

Wann (Kriterien?) können wir schematisch vorgehen und wann ist eine vertiefte Analyse angezeigt?

Wie hat ein Testprotokoll auszusehen?

Schöne sonntägliche Grüße wünscht

Lothar
Parent - - By Peter Martan Date 2022-02-13 14:23 Edited 2022-02-13 14:37
Peinliche Fragen, aber warum nicht mal jeden für sich selbst seine eigenen Antworten finden lassen?

Ich geh' jetzt dann mal dran, Eröffnungsvarianten aus den Datenbanken von der einen und der anderen Engine an Anfang und Ende und dazwischen analysieren zu lassen mit einer bestimmten Zeitvorgabe und dann die Anfangseval vor dem Backward mit der Endeval und mit der Eval wieder an der Ausgangsstellung nach dem Backward zu vergleichen.

Das ist das eine, das ist auch schon ein Experiment, weil zwar mache ich das ohnehin auch jetzt schon dauernd so, nur dass ich bei frühen Eröffnungsstellungen bisher keinen Wert auf genaue numerische Evals gelegt habe. Hat ja für die eine oder andere Line auch kaum Sinn, wenn man eh schon eine 50.05 % Performance davon aus den Datenbanken kennt und weiß, dass die Spitzenengines von solchen Eröffnungsvarianten aus weiter spielend, ziemlich genau diese Remisquote bringen.

Aber wie sich jetzt die eine und die andere Engine über die 5 bis 10 relevantesten Abspiele von Stellungen über 10, 20 Züge hinweg verhalten, die nicht mehr so eindeutig als höchstwahrscheinliches Remis bekannt sind in der Theorie, das müsste man einfach irgendwie zahlenmäßig dokumentieren.

Die Grundstellung selbst einzubeziehen wäre reizvoll, aber wie hoch soll man den Anzugsvorteil beziffern? Und macht es wirklich Sinn, Engines bewerten zu lassen, ob sie Spanisch oder Sizilianisch besser für die jeweilige Seite evaluieren?
Wie gesagt, soll sich mal jeder selber seine eigenen Gedanken machen und seine Versuche dazu anstellen.

Oder noch vielseitiger verwendbar, weil's ja auch immer heißt, die Engines müssen die Stellungen selbst aufs Brett bringen in der Partie, damit ihre Erfolge dann als overall playing strength gelten, man lässt sie gegeneinander von einer interessanten Eröffnungsstellung 15, 25 Züge weit ausspielen und beurteilt dann statt ganzer und halber Punkte die Eval- Fortschritte.

In beide Richtungen, vorwärts und rückwärts nicht uninteressant, finde ich, wenn's bei den Eröffnungsstellungen (den frühen) nicht klappt, die wahrscheinlich schon die schwierigsten in der Beurteilung wären (es wird entweder gegen Remis oder gegen gewonnen gehen, nach 30 Zügen insgesamt ist es ja bei den heutigen Engines ohnehin schon in der Regel klar), dann hat's mit Mittelspiel- und Endspiel immer noch seinen Reiz, vielleicht sollte man auch bei den Endspielen anfangen, weil man von denen am genauesten sollte sagen können, wie sie ausgehen bei optimalem Spiel.

Die Backward- Analyse allein wäre halt schon ein bisschen unfair den MCTS- artig rechnenden gegenüber, weil sie, insbesondere wenn sie GPU- gestützt sind, kaum ein Hash- Lernen haben so wie die A-B-Engines, dafür wären ihnen derartige Hash- Reste wenigstens auch nicht hinderlich.

Andererseits hätte man die Forward- Analyse ja sowieso auch schon im Standrechnen an der Ausgangsstellung. Ein dritte Spielart wäre: Output- Line aus dem Standrechnen mit gleich langem Partiefragment aus game playing zu vergleichen.

Melde mich wieder in vielleicht einer Woche oder so, wünscht auch einen schönen (bei mir hier sehr sonnigen) Sonntag,
Parent - By Lothar Jung Date 2022-02-13 17:10 Edited 2022-02-13 17:25
Also ich möchte erstmal zu einer neuen Testsuite meine Gedanken offenlegen.

ERET und HTC sind die am meisten benutzten Suites im Forum.
Die Tester haben mit ihrer Hardware und Engines viele Erfahrungen damit machen können.
Peter hat dankenswerterweise beide Suites zusammengefügt, um Dopplungen und fehlerhaften oder nicht eindeutigen Lösungen bereinigt und um 20 Stellungen ergänzt. Sie umfasst derzeit 222 Positionen.

Viele Stellungen sind für die heutigen Rahmenbedingungen bei Engines, Netze und Hardware viel zu leicht.
Die Gesamtergebnisse ist statistisch nicht relevant und/oder die Spreizung ist nicht hoch genug.
Solche Positionen haben deshalb computerschachlich und statistisch keinen Wert.

Man könnte die Stellungen herausnehmen, die eine 4 Kerne CPU mit einer aktuellen Spitzenengine sofort löst.
Die Lösungszeit sollte unter 1 Sekunde liegen.
Dadurch verringert sich die Stellungsanzahl beträchtlich.

Die verbleibenden Positionen würde ich schachlich wie folgt gliedern:

1. Positionell oder taktisch.
2. Nach Tunierphase: Eröffnung, Mittel- und Endspiel.
3. Schachthematisch: z.B. Königsangriff, Bauernsturm, Festung, Zugzwang, Unterverwandlung, Patt.

In einem weiteren Schritt könnte man die Stellungen in 3 Schwierigkeitskategorien (Lösungszeiten und Lösungshäufigkeiten) unterteilen.

Dann müßte für eine ausgewogene Mischung angestrebt werden, die alle Aspekte gleichmäßig und verhältnismäßig abdeckt.
Eine Obergrenze sollte bei 100 bis 120 Stellungen liegen. Somit käme man zu einer Halbierung von Peters Suite.

Eine Diskussion im Forum um die Geeignetheit und Qualität der Stellungen ist sehr wichtig und unabdingbar.
Dadurch werden Positionen zu einer Schachthematik durch bessere Stellungen ersetzt.

So das war ein erster Aufschlag zu dem schwierigen Thema.

Grüße

Lothar
Parent - - By Chess Player Date 2022-02-13 12:33 Edited 2022-02-13 13:09
Ja, wo isse denn? Die PGN, EPD ...
Parent - - By Peter Martan Date 2022-02-13 13:36 Upvotes 1
Wir erwarten und erhoffen sie vor allem von...
...
Tattaaa, den Chess Players!
Parent - - By Chess Player Date 2022-02-13 13:43 Edited 2022-02-13 13:50
Im Gegensatz zu den Zeiten wo ein Dr. Michael Gurevich seine Tests hier veröffentlicht hat ist jetzt hier eigentlich nur noch "Tote Hose". 

Und ja, ein Forum lebt auch von der Moderation! Aber da ist auch "Tote Hose" im Gegensatz zu den Zeiten in denen ein Herr Wandersleben moderiert hat.

Ist wie im Schach Verein, der "Führer" muß voran gehen, nicht die Kämpfer.
Parent - - By Lothar Jung Date 2022-02-13 14:05 Upvotes 1
Deine Äußerungen sind nichtssagend und provokativ.
Was sollen Leser des Forums darüber denken.
Parent - - By Reinhold Stibi Date 2022-02-13 15:52 Edited 2022-02-13 16:05
Lothar, schöne Gedanken von Dir und Peter zu den Teststellungen.

Es wäre schon an der Zeit neue Teststellungen aus der Praxis zu erstellen. Es wäre genug Material
dafür vorhanden.

Ich denke da an die vielen Gewinn- und Verlustpartien, auch von Deiner Seite, bei den früheren Turnieren
auf Schach.de.
Auch jetzt werden noch jeden Tag auf Schach.de viele schöne Partien gewonnen und verloren. Denke da
nur an Detti der doch jeden Tag etliche Partien gewinnt; heute war er auch wieder auf Platz 1

Früher hat sich mit mit der Darbietung interessanter Stellungen besonders Eduard Nemeth positiv hervorgetan.

Auch von meiner  Seite könnte ich da etliches beitragen; das hätte ich mehr oder weniger systematisch
betreiben sollen; aber es kann je nachgeholt werden.
Dies kostet allerdings erheblich viel Zeit und ob da " Meine Holde" damit einverstanden wäre, ist eine andere
Frage.

 

Fraglich wäre auch wie das geschätzt werden würde hier  im Forum.

Vielleicht hat hier im Forum so Mancher auch seine eigenen Teststellungen und möchte diese nicht der
Allgemeinheit unterbreiten.

Schöne Grüße
Reinhold
Parent - By Reinhold Stibi Date 2022-02-13 17:18
Peter, sind Deine 220 Teststellungen öffentlich; kann man diese downloaden ?

Sehr interessant !

Schöner Sonntagsgruß

Reinhold
Parent - By Frank Rahde (Mod.) Date 2022-02-13 20:10 Upvotes 2
Da habe ich doch glatt diesen sinnfreien Beitrag dieses Anons übersehen, zum Glück wurde er gemeldet.
Ich verstehe gar nicht, warum "Chess Player" noch im CSS-Forum aktiv ist, obwohl es ihm hier nicht gefällt.
Ich hoffe, er benimmt sich hier, statt von "Führer" zu faseln, sonst werde ich ihn wegmoderieren.

Gruß
Frank
Up Topic Hauptforen / CSS-Forum / Stellungstest 2.0

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill