Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Projekt „Chess Transformers“
- - By Lothar Jung Date 2025-07-16 10:01 Upvotes 1
Hier auf GitHub: https://github.com/sgrvinod/chess-transformers
Schach auf ChessGPT ist sehr schwach.
Der Grund ist das Language Modell der KI.
Einen anderen Ansatz verfolgt Chess Transformers.
Es sagt den nächsten besten Zug eines Menschen voraus
Es erreicht in der bisher letzten Fassung dabei schon eine relativ gute Stärke.
Parent - - By Peter Martan Date 2025-07-16 11:18 Edited 2025-07-16 11:27
Lothar Jung schrieb:

Einen anderen Ansatz verfolgt Chess Transformers.
Es sagt den nächsten besten Zug eines Menschen voraus

Das kann ich aber, wenn's nur um einen bestimmten Menschen geht und ich der eine bin, auch recht gut

Leider ist's dann halt oft nicht der wirklich beste Zug, aber im Ernst, was soll das heißen "den nächsten besten Zug eines Menschen"?
Ich entnehme den weiteren Ausführungen, da wird ein Modell mit Fairy Stockfish trainert, um dann vorhersagen zu können, was "ein Mensch" ziehen würde (sollte)?
Woher die Hoffnung kommt, das hätte dann mehr "menschliche" Züge (im wahrsten Sinn des Wortes) und ob das jetzt dann mehr gute oder oder mehr schlechte Züge  sind, wie wird das gemessen? Erst wieder am Eng-Eng-Match (und warum dann ausgerechnet am Fairy Stockfish, was haben dessen Spielstärke- Niveaus mehr oder weniger mit dem gemeinsam, was Menschen spielen und welche?) oder rein subjektiv an dem, was der menschliche Beobachter gut oder schlecht findet? Und wer soll dieser Beobachter sein?

Ich kann mir nicht helfen, mir schaut das Ganze nach einer weiteren raffinierten Methode aus, Hardware- Zeit und Strom zu verbrennen, was ja jedenfalls eine der herausragendsten Leistungen von "AI" ganz allgemein ist, mal ganz wertfrei und unansichtig dessen betrachtet, was der Nutzen sein mag. Nicht, dass nicht in vielen Fällen der Aufwand das Ergebnis mehr als rechtfertigt, aber hier wäre dieses (Ergebnis) mal wieder genau welches?
Parent - - By Lothar Jung Date 2025-07-16 11:25 Upvotes 1
Lese bitte das hier:

These datasets are sourced from groups of PGN files containing real games played by humans. There are currently three PGN filesets:

LE22 consists of games from the Lichess Elite Database put together by nikonoel, a collection of all standard chess games played on Lichess.org by players with a Lichess Elo rating of 2400+ against players with a Lichess Elo rating of 2200+ up to December 2021, and players rated 2500+ against players rated 2300+ from December 2021 up to December 2022

ML23 consists of Master-level games downloaded from PGN mentor, TWIC, and Caissabase in December 2023

The lowercase letters at the end of every dataset denote specific filters that were applied to games from the corresponding PGN filesets:

"c for games that ended in a checkmate
"t" for games that used a specific time control
"d" for games that ended decisively
ML23c

This consists of Master-level games downloaded from PGN mentor, TWIC, and Caissabase in December 2023.

On this data (11,081,724 games), we apply the following filters to keep only those games that:

are unique (5,213,634 games)
and ended in a checkmate (250,694 games)
These 250,694 games consist of a total 10,797,366 half-moves made by the winners of the games, which alone constitute the dataset. For each such half-move, the chessboard, turn (white or black), and castling rights of both players before the move are calculated, as well as the sequence of half-moves beginning with this half-move up to 10 half-moves into the future. Draw potential is not calculated.
Parent - - By Peter Martan Date 2025-07-16 11:37 Edited 2025-07-16 12:20 Upvotes 2
Sorry, ich halt's trotzdem und erst recht für Hardware- Zeit und Stromverschwendung der Sonderklasse. Eine weitere aufwändige Art, so zu tun, als hätte Engine- Schach (das es ja doch ist und bleibt) noch irgendwas mit dem zu tun, was Menschen gegeneinander spielen. Und noch einmal: wer beurteilt jetzt zum Schluss wie, wie gut oder schlecht das ist, was da heraus kommt? Rein schachlich, Zug um Zug? Ein einzelner bestimmter Mensch? Das Forum hier? Eine weitere einzelne App, ein weiteres statistisches Tool?
Mit oder ohne Engine- Unterstützung, wie wir noch und noch wirklich schon recht lange recht gute haben, vor allem an dem gemessen, was Menschen wirklich spielen, und gemessen an dem, was sie ohne Engine- Unterstützung an verlässlicher schachlicher Einschätzung für sich allein abgeben können? Also auch ohne Zuhilfenahme von statistischen Auswertungen von was auch immer für Partien, ohne Datenbanken?

Sei mir nicht böse, für mich schießt man sich und einander, in dem Bestreben, den Engines beibringen zu wollen, wie Menschen zu spielen, immer wieder aus der Hüfte von hinten ins eigene Knie.
Schon als Botwinnik meinte, man müssten den Engines beibringen, wie Menschen zu denken, musste er sich die Frage des Reporters gefallen lassen, ob Botwinnik wüsste, wie Botwinnik dächte, dass der Unterschied zwischen dem, was Menschen an Schach spielen und dem, was Engines diesbezügich bieten, die Fehler sind, die die einen (die Menschen) einfach viel mehr mehr machen als die anderen (die Engines), könnte sich schön langsam wirklich mal etwas herumgesprochen haben
Parent - - By Lothar Jung Date 2025-07-16 11:49 Upvotes 1
Du kannst schneller und viel schreiben, als dir die Informationen zu erschließen.
Parent - By Peter Martan Date 2025-07-16 11:51 Edited 2025-07-16 11:55
Ja, und ganz ohne ChatGPT.

Hier geht's ja aber um Schach (dachte ich) , und da hab' ich ja schon eingangs behauptet, und trete auch dafür gern den Wahrheitsbeweis an, vohersagen, was mein nächster menschlicher Schachzug sein wird, kann ich ohne Zuhilfenahme von AI auch recht gut.
Wenn's ohnehin keine objektivere Überprüfung als meine eigene subjektive gibt, werden die Züge sogar oft (solange ich sie nicht mit Engines überprüfe) für meine eigenen Begriffe gut genug sein. Und jedenfalls menschlich
Parent - - By Lothar Jung Date 2025-07-16 17:52
„Ich entnehme den weiteren Ausführungen, da wird ein Modell mit Fairy Stockfish trainert, um dann vorhersagen zu können, was "ein Mensch" ziehen würde (sollte)?“

Nein, Du hast das nicht verstanden. Das Modell wird mit einem Transformer Modell auf einer GPU mit Daten (Partien) von menschlichen Spielern trainiert. Fairy Stockfish evaluiert die Spielstärke.
Parent - By Peter Martan Date 2025-07-16 18:20 Edited 2025-07-16 18:46
Was ich damit halt immer noch nicht verstehe ist, wozu das gut sein soll.
Wenn man keine schachliche Konkurrenz zu einer spielenden Engine erreichen will, wozu testet man's dann gegen eine, noch dazu eine derart eigenartige, und wenn's nur eine (weitere, davon gibt's ja auch schon genug zum Saufüttern, gerade erst hast du kundgetan, dass dir Vorgabe- Partien von Menschen gegen eigens dafür konstruierte Engines nichts geben, aus deinem eigenen Thread "Odds Partien":
Lothar Jung schrieb:

Sind gerade auf Lichess angesagt.
Varianten z.B ohne Springer, Turm, werden auch auf Discord für Lc0 thematisiert.
Ich kann damit nichts anfangen.
Erst werden Turniere mit Eröffnungsnachteile durchgeführt und jetzt werden Engines mit Figurennachteile erstellt.
Wenn man Schach so manipuliert, soll man doch gleich zu Shogi wechseln.

) sein soll, die schwächer, dafür "menschlich" spielt (stärker als Engine und menschlich schließt einander halt mittlerweile einfach gegenseitig aus, das menschliche am menschlichen Spiel im Vergleich zum Spiel von Engines sind vor allem die Fehler, ob man das zugeben will oder nicht), dann ist das den Aufwand, der dazu getrieben wird, einfach nicht wert. Schwächer spielen kann ich selber. Und übrigens, Netze aus menschlichen Partien zu trainieren, was soll daran neu sein? Das hat Dietrich Kappe schon vor Jahr und Tag gemacht, ich erinnere gern an Mean Girl, Night Nurse etc.
Und was als eigene Lc0- Version genau fürs Vorgabe- Match trainiert wird, geht ja auch genau in diese Richtung, so what?

Und noch einmal: es gibt keine Verbindung zwischen Elo, die Menschen gegen Menschen erspielen und Celo, die Engines gegen Engines einfahren. Alle die Modelle, die Engines so weit schwächen sollen, dass sie von Menschen schlagbar werden, ändern nichts daran, dass die Performances, die gemessen werden gegen solche Engines, wieder und immer noch Celo sind, egal, ob auf der einen Seite vom Brett Menschen sitzen oder auch Engines. Was rauskommt, hat nichts mit Elo- Werten zu tun, die Menschen gegen andere Menschen erspielen. Wenn du das anders siehst (kannst du natürlich, wie du zu welchen Messwerten sagst, ist dir überlassen, wenn's deine eigenen Messwerte sind) kannst du gleich auch die Elo aus Stellungstests gleichermaßen für Menschen wie Maschinen als Maß aller schachlichen Dinge nehmen. Dann kannst du dir das ganze AI- Gedöns aber auch überhaupt schenken, oder du musst dir einfach nur von ChatGPT vorschwärmen lassen, wie "schön" das ist, was da gespielt wird, und dass es das einzige eigentlich echte Schach ist
- By Lothar Jung Date 2025-07-16 10:28 Upvotes 1
Ich habe über ChatGPT eine Zusammenfassung in deutsch erstellt:

Das GitHub-Projekt „chess-transformers“ von sgrvinod ist eine fortschrittliche Open-Source-Plattform, die sich dem Einsatz von Transformer-Modellen im Schach widmet. Ziel des Projekts ist es, Schachmodelle zu trainieren, die auf der Grundlage großer Datensätze menschlicher Partien lernen, plausible Züge vorherzusagen und selbstständig Partien zu spielen. Es basiert auf PyTorch und bietet sowohl die notwendigen Modellarchitekturen als auch eine vollständig ausgestattete Trainings-, Evaluierungs- und Spielumgebung.

Im Zentrum des Projekts stehen mehrere Modellvarianten, die unterschiedliche Ansätze der Zugvorhersage verfolgen. Das Modell CT-E-20 ist ein Encoder-only-Transformer mit etwa 20 Millionen Parametern, das jeweils den nächsten besten Halbzug aus einer gegebenen Brettstellung prognostiziert. Eine Erweiterung dieses Modells stellt CT-EFT-20 dar, das ebenfalls 20 Millionen Parameter umfasst, jedoch mit zwei separaten Vorhersageköpfen arbeitet – einem für das Startfeld und einem für das Zielfeld eines Zuges. Komplexer ist das Modell CT-ED-45, ein Encoder-Decoder-Transformer mit 45 Millionen Parametern, das in der Lage ist, komplette Zugfolgen mit bis zu zehn Halbzügen vorherzusagen. Schließlich existiert mit CT-EFT-85 ein größer dimensioniertes Modell, das die Struktur von CT-EFT-20 übernimmt, jedoch mit mehr als dem Doppelten an Parametern.

Alle Modelle wurden sorgfältig evaluiert, insbesondere im Vergleich zum freien Schachprogramm Fairy-Stockfish, einer modifizierten Version von Stockfish. Dabei wurden verschiedene Schwierigkeitsstufen getestet (Level 1 bis 6), um die Spielstärke der Modelle in praktischen Partien zu ermitteln. Die Ergebnisse zeigen, dass selbst die kompakteren Modelle wie CT-EFT-20 in der Lage sind, auf niedrigeren Engine-Stufen konkurrenzfähig zu spielen und dabei menschlich anmutende Züge zu wählen. Neben der reinen Spielstärke werden auch Aspekte wie Vorhersagegenauigkeit und die Fähigkeit zur Reproduktion menschlicher Spielmuster untersucht.

Die Modelle basieren auf umfangreichen Datensätzen realer Schachpartien. Zu den verwendeten Quellen zählen unter anderem ML23c, ML23d, LE22ct und LE22c – allesamt große extrahierte Sets aus hochwertigen PGN-Datenbanken wie der Lichess Elite Collection (Partien von Spielern mit Elo-Rating über 2400). Diese Datensätze bestehen aus Hunderten Millionen Halbzügen und bieten eine solide Grundlage für das Pretraining von Sprachmodellen auf Schachnotation.

Das Projekt stellt nicht nur Modelle und Trainingsdaten bereit, sondern bietet auch eine spielbereite Umgebung. Nutzer können direkt gegen die Modelle spielen – entweder über ein Jupyter-Notebook oder im Terminal. Dabei lässt sich auch eine Zeitkontrolle im Fischer-Modus aktivieren. Zusätzlich besteht die Möglichkeit, die Modelle gegen Stockfish antreten zu lassen, um deren Leistungsentwicklung zu analysieren. Die gesamte Infrastruktur ist so gestaltet, dass sowohl schnelle Tests als auch tiefgehende Trainingsläufe und Evaluierungen möglich sind.

Die Plattform unterstützt darüber hinaus das Preprocessing eigener Datensätze, das Training neuer Modelle (inklusive Checkpoint-Verwaltung und TensorBoard-Logging), die Gewichtsmittelung und einheitliche Evaluationsprotokolle. Beiträge der Community sind ausdrücklich willkommen. Neben Modellbeiträgen und Verbesserungen am Code sind auch neue Visualisierungswerkzeuge, Evaluationsmetriken oder GUI-Elemente für das Spielen unter Windows erwünscht.

Seit Version v0.2.0 wurde das Projekt strukturell überarbeitet. Neben der Einführung des neuen CT-EFT-20-Modells wurde ein einheitliches Vokabular für alle Modelle eingeführt, die Engine-Settings für die Evaluierung verschärft und die Benutzerführung durch weniger Abhängigkeiten und eine bessere Changelog-Dokumentation verbessert.

Insgesamt ist „chess-transformers“ ein durchdachtes, forschungsnahes Projekt an der Schnittstelle von maschinellem Lernen, Sprachmodellierung und Spielintelligenz. Es ist nicht darauf ausgerichtet, bestehende Engines wie Stockfish zu ersetzen, sondern vielmehr, neue Wege zu erproben, wie große neuronale Sprachmodelle strategisches Verhalten erlernen können. In dieser Hinsicht ist es auch ein wertvoller Beitrag zur Erforschung transformerbasierter Architektur im Kontext symbolischer Systeme wie Schach – und somit auch potenziell übertragbar auf andere strategische Domänen.
- By Lothar Jung Date 2025-07-16 10:39 Edited 2025-07-16 10:44 Upvotes 1
Die Spielstärke der acht Fairy-Stockfish-Level lässt sich in etwa durch geschätzte Elo-Zahlen beschreiben, wobei diese Werte auf praktischen Erfahrungen, Tests aus der Schach-Community und KI-Trainingsprojekten wie „chess-transformers“ basieren. Diese Angaben sind Richtwerte und können je nach verwendeter Hardware, Zeitkontrolle, Engine-Version und konkreter Konfiguration leicht schwanken.

Fairy-Stockfish Level 1 spielt auf sehr einfachem Anfängerniveau mit einer Elo-Zahl von etwa 800 bis 1000. Es macht viele grobe Fehler, reagiert kaum auf Drohungen und spielt oftmals rein zufällig. Level 2 entspricht ungefähr 1000 bis 1200 Elo und stellt einen etwas stärkeren Anfänger dar: einfache Taktiken werden gelegentlich erkannt, aber das Positionsspiel bleibt schwach. Bei Level 3 (ca. 1200 bis 1400 Elo) ist bereits ein gewisses taktisches Bewusstsein vorhanden, und einfache Drohungen werden häufiger beantwortet. Dennoch fehlt es an Entwicklungsideen und Struktur.

Mit Level 4 erreicht Fairy-Stockfish ein Niveau von etwa 1400 bis 1600 Elo, vergleichbar mit einem Freizeitspieler, der grundlegende Eröffnungen kennt, taktisch einigermaßen stabil spielt, aber positionell noch oft ungenau ist. Level 5 markiert einen deutlichen Sprung: Mit geschätzten 1800 bis 1900 Elo spielt die Engine nun auf dem Niveau eines erfahrenen Vereinsspielers. Die Züge wirken durchdacht, Fehler sind seltener, und einfache Taktiken werden zuverlässig durchgerechnet. In vielen KI-Projekten ist Level 5 ein Referenzpunkt, da es einem typischen menschlichen Gegner im oberen Amateurbereich entspricht.

Level 6 bringt die Engine auf etwa 2000 bis 2100 Elo und hebt die Spielstärke weiter an: Fairy-Stockfish spielt nun deutlich strukturierter, vermeidet fast alle groben Fehler und zeigt ein gutes Gespür für langfristige Pläne. Es ist bereits schwer zu schlagen, selbst für starke Hobbyspieler. Level 7, mit rund 2200 bis 2300 Elo, entspricht Kandidatenmeister-Niveau. In dieser Spielstärke beginnt Fairy-Stockfish, tiefergreifende positionelle Schwächen auszunutzen, Opfer korrekt zu berechnen und präzise Verteidigungszüge zu spielen.

Level 8 schließlich liegt bei etwa 2400 bis 2500 Elo und spielt auf dem Niveau eines Internationalen Meisters oder eines schwächeren Großmeisters. Die Engine ist in diesem Modus nahezu fehlerfrei, taktisch extrem gefährlich und strategisch sehr konstant. Gegen menschliche Gegner ist Level 8 eine ernsthafte Herausforderung, auch für Turnierspieler. Wer über diese Stufe hinaus will, müsste Fairy-Stockfish vollständig entsperren und als reguläre Stockfish-Engine mit vollem Rechenzugriff und ohne Einschränkungen einsetzen – dann erreicht man Spielstärken deutlich über 3300 Elo, also Weltklasse-Niveau.

Diese Abstufung macht Fairy-Stockfish zu einem idealen Werkzeug für Spieler aller Niveaus sowie für die Evaluation von KI-Modellen, da es ein fein gestuftes Spektrum reproduzierbarer Spielstärke bietet – von Einsteigerniveau bis hin zu fast professioneller Spielstärke.

Damit eignet sich Fairy-Stockfish zum Schachtraining und/oder zur Einordnung der eigenen Spielstärke.
- By Lothar Jung Date 2025-07-16 10:47 Upvotes 1
Ein Transformer-Modell ist eine spezielle Architektur im Bereich des maschinellen Lernens, die 2017 von Vaswani et al. mit der bahnbrechenden Veröffentlichung „Attention is All You Need“ eingeführt wurde. Sie hat sich seither zur dominierenden Methode im Bereich der Sprachverarbeitung (Natural Language Processing, NLP), Bilderkennung und zunehmend auch in Bereichen wie Schach, Chemie oder Musikgenerierung entwickelt. Transformer-Modelle bilden auch die Grundlage moderner KI-Systeme wie GPT, BERT oder Codex.

Im Kern ist ein Transformer ein neuronales Netzwerk, das Daten als Sequenzen verarbeitet – also z. B. Wörter in einem Satz, Züge in einer Schachpartie oder Pixelzeilen in einem Bild. Anders als frühere Modelle wie RNNs (Recurrent Neural Networks) oder LSTMs (Long Short-Term Memory) arbeiten Transformer nicht sequentiell, sondern parallel – was zu einer enormen Beschleunigung und besseren Skalierbarkeit führt.

Das Herzstück eines Transformers ist die sogenannte „Self-Attention“-Mechanik. Sie erlaubt es dem Modell, innerhalb einer Eingabesequenz zu gewichten, welche Teile besonders relevant sind – z. B. in einem Satz zu erkennen, dass sich ein „es“ auf ein früheres Subjekt bezieht. Beim Schach bedeutet das: Ein Transformer kann analysieren, welche Felder, Figuren oder Stellungselemente für einen möglichen nächsten Zug besonders wichtig sind – ohne dabei Züge einzeln durchgehen zu müssen. Es entsteht eine Art kontextabhängige Bedeutungskarte der Eingabe.

Ein Transformer besteht typischerweise aus mehreren Schichten (Layers), die jeweils diese Aufmerksamkeitsmechanismen (Attention Heads), sowie einfache neuronale Netzwerke (Feedforward-Netze) kombinieren. Die Eingabedaten (z. B. Text oder Schachzüge) werden zuvor in Vektoren umgewandelt, die der Transformer verarbeiten kann – sogenannte Embeddings. Diese enthalten Informationen über die Bedeutung und Position jedes Elements in der Sequenz.

Transformer lassen sich in zwei Haupttypen unterteilen:
  •  Encoder-Modelle (z. B. BERT): Sie analysieren Eingaben und erzeugen kontextualisierte Repräsentationen, etwa zur Klassifikation oder Vorhersage.
  •  Decoder-Modelle (z. B. GPT): Sie erzeugen aus einer gegebenen Sequenz neue Ausgaben – z. B. Texte, Züge oder Melodien.
  •  Encoder-Decoder-Modelle (z. B. für maschinelle Übersetzung): Sie kombinieren beide Schritte – analysieren einen Text und erzeugen einen neuen Text daraus (z. B. Englisch → Französisch).

Im Schachbereich können Transformer auf Sequenzen von Zügen, Brettstellungen oder auch symbolischen Beschreibungen trainiert werden. Anstatt positionell zu rechnen wie klassische Schach-Engines, „lernen“ Transformer-Modelle aus Millionen Partien typische Muster, Pläne und taktische Motive – und verhalten sich dadurch oft menschlich plausibel, aber nicht immer optimal. Das macht sie besonders interessant für Lernsysteme, Spielpartnersimulation oder kreative Schach-KI.

Zusammengefasst ist ein Transformer also ein besonders leistungsfähiges, kontextsensitives und skalierbares Lernmodell, das komplexe Sequenzen analysieren und neue Inhalte generieren kann – und das die Art, wie Maschinen Sprache, Musik, Bilder oder auch Schach verstehen, revolutioniert hat.
- By Lothar Jung Date 2025-07-16 11:10 Upvotes 1
Hier Links zu Fairy-Stockfish:

https://fairy-stockfish.github.io/online/

https://fairy-stockfish.github.io/download/
- - By Lothar Jung Date 2025-07-16 11:22 Upvotes 1
Wenn Fairy-Stockfish auf Level 5 auf einem System mit einem AMD Ryzen 7 3800X (8 Kerne, 16 Threads) und einer Hash-Tabelle von 8 GB läuft, dann erreicht es eine deutlich höhere praktische Spielstärke als unter typischen Standardbedingungen (z. B. mit 1 Thread und 16 MB Hash in GUI-Engines oder auf schwächerer Hardware).

Geschätzte Spielstärke von Level 5 unter diesen Bedingungen:

Unter den genannten Voraussetzungen kann man für Level 5 realistisch von einer Elo-Spielstärke zwischen 1950 und 2050 ausgehen. Das liegt etwa 100–150 Elo über der üblichen Einschätzung für dieses Level auf Standard-PCs mit 1 Thread und kleinen Hash-Größen (dort: 1800–1900 Elo). Der Grund liegt vor allem in:
  1.  Mehr CPU-Threads: Auch wenn Level 5 intern künstlich begrenzt ist (z. B. durch reduzierte Suchtiefe oder Zeit), nutzen viele GUIs wie Fairy-Stockfish die verfügbare Hardware dennoch zur parallelen Verarbeitung oder für schnelleren Zugriff auf die Hash-Tabelle.
  2.  Große Hash-Tabelle (8 GB): Das erlaubt, deutlich mehr Stellungen zwischenzuspeichern und damit Redundanzen zu vermeiden – besonders in längeren Partien oder komplexen Mittelspielstellungen.
  3.  Stabile Engine-Taktung (Ryzen 7 3800X): Diese CPU bietet eine starke Single-Thread-Leistung bei hoher Parallelisierungsfähigkeit, was gerade in Kombination mit Stockfish eine effiziente Rechenbasis darstellt.

Fazit:

Fairy-Stockfish Level 5 auf dieser Hardware ist spürbar stärker als „normales“ Level 5. Es entspricht einem sehr soliden Turnierspieler, etwa einem Elo-Bereich von 1950–2050, vergleichbar mit erfahrenen Vereinsspielern oder regionalen Kaderspielern. Wer diese Konfiguration für KI-Vergleiche oder Trainingszwecke nutzt, testet seine Modelle bereits unter anspruchsvolleren Bedingungen als üblich.

Wenn Du willst, kann ich Dir eine systematische Evaluierungsmethode (z. B. mit EAS- oder SPRT-Verfahren) aufsetzen, um die genaue Spielstärke durch Engine-Matches zu ermitteln.
Parent - - By Peter Martan Date 2025-07-16 14:41 Edited 2025-07-16 14:51
Lothar Jung schrieb:

Wenn Du willst, kann ich Dir eine systematische Evaluierungsmethode (z. B. mit EAS- oder SPRT-Verfahren) aufsetzen, um die genaue Spielstärke durch Engine-Matches zu ermitteln.

In Elo oder in Celo gemessen?

Übrigens, EAS ist kein Spielstärke- Messverfahren und SPRT auch nicht, ersteres misst ein Engine Aggressiveness Score, letzteres ganz allgemein Wahrscheinlichkeitsverhältnisse, aus denen, ohne zu wissen, um welche Datenverhältnisse es sich handelt, zunächst mal gar nichts hervorgeht, was du in "Spielstärke" umrechnen könntest. Nimmst du für die Daten wieder Elo oder Celo (um bei Stefan Pohls Nomenklatur zu bleiben, aus der ja auch EAS stammt), sagt dir der SPRT nicht mehr, als es andere error bars tun, also auch just gar nichts ohne die entsprechenden Maßzahlen, die du zugrunde legst.

Ich tue mir hier wieder leicht, schneller mehr zu schreiben, als die Erfassung dessen, was du als "Informationen" anbietest, Zeit und Mühe kostet.
Lothar Jung schrieb:

Du kannst schneller und viel schreiben, als dir die Informationen zu erschließen.

Mich zumindest kostet es halt nicht gar so viel, das Erschließen, aber wieder liegt's wahrscheinlich daran, dass ich nicht dem Umweg über ChatGPT gehe, mir erst mal das, was du anbietest, durch AI erklären zu lassen.
Parent - - By Lothar Jung Date 2025-07-16 14:51 Upvotes 1
Das war ein Angebot von ChatGPT.
Die Trainingspartien bei Chess Transformers sind allesamt menschlich, anders als bei LC0 und Stockfish NNUE, der Lc0 Trainingspartien verwendet.
Parent - - By Peter Martan Date 2025-07-16 14:57 Edited 2025-07-16 15:17 Upvotes 1
Lothar Jung schrieb:

Das war ein Angebot von ChatGPT.

Das hatte ich mir schon fast gedacht, trotzdem nicht schlecht, es auch dazu zu sagen. Man könnte sonst am Ende meinen, es sei von dir.
Zitat:

Die Trainingspartien bei Chess Transformers sind allesamt menschlich, anders als bei LC0 und Stockfish NNUE, der Lc0 Trainingspartien verwendet.

Und warum willst du (will ChatGPT) dann "EAS" und oder "SPRT" zur Spielstärke- Messung wovon genau verwenden? Von Fairy Stockfish? Von den menschlichen Partien, die ausgewertet werden?
Frag deinen Chat-Partner doch bitte noch einmal ein bisschen genauer, was er sie es uns eigentlich sagen will. Er sie es will die Spielstärke vom Transformer Modell messen? In EAS? Was soll als Grundlage des SPRT verwendet werden?
Elo? Celo? Millimeter?
Grüße an ChatGPT,
von seinem, Deinem, Eurem...
Parent - By Reinhold Stibi Date 2025-07-16 18:51 Edited 2025-07-16 19:31 Upvotes 2
Das ganze mit Chess Transformers ist doch ein großer Krampf und überflüssig wie ein Kropf.

Niemand spielt damit und niemand will damit spielen. Vergleiche mit anderen Engines finden auch
nicht statt; alles davon ist noch unausgegoren. Speziallisten können sich damit befassen aber
nicht  Laien die keine Ahnung davon haben und ChatGPT zu befragen , das keine Ahnung hat und dazu fantasiert
ist doch Unsinn.

Es gibt auch Engines wie Hiarcs und Shredder denen man auch menschliches Spielverhalten nachsagt;
ob das stimmt ist auch die Frage. Die ersten 100 Engines aus der Rangliste spielen besser als der
Mensch. Der Mensch ist also kein Maßstab mehr.

Die Frage und das Ergebnis " was würde der Mensch spielen oder als nächsten Zug" spielen ist doch
vollkommen überflüssig und überholt. Da lasse ich doch lieber ein Schachprogramm oder ein Schachcomputer
mit Spielstufe "angepasst auf die Spielstärke des Menschen" oder beschränkter Spielstärke spielen dann habe ich doch das Ergebnis mit
kleinen oder großen Fehlern wie es bei Menschen beim Schach vorkommt aber nicht das optimale Spiel.
Up Topic Hauptforen / CSS-Forum / Projekt „Chess Transformers“

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill