Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Tolle neue Verbesserungen bei Stockfish
- - By Max Siegfried Date 2022-05-15 10:27
https://abrok.eu/stockfish/
Parent - - By Reinhold Stibi Date 2022-05-15 11:01
Autor: disservin
Datum: Sat May 14 13:17:35 2022 +0200
Zeitstempel: 1652527055

SE-Tiefenskalierung mit der vorherigen Tiefe Dieser Patch macht die SE-Tiefenbedingung robuster und ermöglicht die Skalierung mit der abgeschlossenen Tiefe


aus einer vorherigen Suche.

Bei langen TC entspricht dieser Patch fast https://github.com/official-stockfish/Stockfish/pull/4016, die VLTC hatten

: https://tests.stockfishchess.org/tests/view/626abd7e8707aa698c0093a8
Elo: 2,35 +-1,5 (95%) LOS: 99,9
% Gesamt: 40000 W: 10991 L: 10720 D: 18289 Elo +2,35 Ptnml(0-2): 8, 3534, 12648, 3799, 11
nElo: 5,47 +-3,4 (95
%) PaareVerhältnis:
1,08

VLTC Multicore: https://tests.stockfishchess.org/tests/view/6272a6afc8f14123163c1997
LLR: 2.94 (-2.94,2.94) <0.50,3.00>
Gesamt: 86808 W: 24165 L: 23814 D:
38829 Elo +1.40 Ptnml(0-2): 11, 7253, 28524, 7606, 10
,

aber es gewinnt jetzt auch bei LTC: LTC:


https://tests.stockfishchess.org/tests/view/627e7cb523c0c72a05b651a9
LLR: 2.94 (-2.94,2.94) <0.50,3.00>
Gesamt: 27064 W: 7285 L: 7046 D: 12733 Elo +3.07 Ptnml(0-2): 8, 2446, 8390, 2675, 13

und sollte bei STC fast keinen Einfluss haben, da Tiefe 27
selten erreicht wird.
Es wurde festgestellt, dass die Initialisierung des Schwellenwerts mit MAX_PLY negative Auswirkungen hatte,
möglicherweise weil der erste Zug darauf empfindlich reagiert.

schließt https://github.com/official-stockfish/Stockfish/pull/4021
schließt https://github.com/official-stockfish/Stockfish/pull/4016

Bench: 6481017
siehe Quelle
Windows x64 für Haswell-CPUs
Windows x64 für moderne Computer + AVX2 Windows x64 für moderne Computer Windows x64 + SSSE3 Windows x64 Linux x64 für Haswell-CPUs
Linux x64 für moderne Computer + AVX2

Linux x64 für moderne Computer

Linuxx64 + SSSE3

Linux x64

Autor: Tomasz Sobczyk
Datum: Sat May 14 12:47:22 2022 +0200
Zeitstempel: 1652525242

Aktualisieren Sie die NNUE-Architektur auf SFNNv5. Aktualisieren Sie das Netzwerk auf nn-3c0aa92af1da.nnue.

Architekturänderungen:

Duplizierte Aktivierung nach der 1024->15-Schicht mit quadratischem Crelu (also 15->15*2). Wie von vondele vorgeschlagen.

Trainerwechsel:

Bias zur L1-Faktorisierung hinzugefügt, die zuvor fehlte (keine messbare Verbesserung, aber zumindest prinzipiell neutral)
Für das lineare Retraining reduzieren Sie den Lambda-Parameter von 1,0 bei Epoche 0 auf 0,75 bei Epoche 800.
max_skipping_rate von 15 auf 10 reduzieren (im Vergleich zu vondeles hervorragender PR)
Hinweis: Dieses Netzwerk wurde mit einem ~ 0,8% Fehler in der Quantisierung in Bezug auf die neu hinzugefügte Aktivierungsfunktion
trainiert.
Dies wird in der veröffentlichten Trainerversion behoben. Erwarten Sie morgen eine Trainer-PR.

Hinweis: Die Inferenzimplementierung schneidet eine Ecke ab, um Ergebnisse aus zwei Aktivierungsfunktionen zusammenzuführen.
Dies könnte in Zukunft möglicherweise schöner gelöst werden. AVX2-Implementierung wahrscheinlich nicht notwendig, aber NEON fehlt.

Aufruf der ersten Trainingseinheit:

python3 train.py \ .
. /nnue-pytorch-training/data/nodes5000pv2_UHO.binpack \ .
. /nnue-pytorch-training/data/nodes5000pv2_UHO.binpack \ --gpus "$3," \ --threads 4 \ --num-workers 8 \ --batch-size 16384 \ --progress_bar_refresh_rate 20 \ --random-fen-skipping 3 \ --features=HalfKAv2_hm^ \ --lambda=1.0 \ --max_epochs=400 \ -








-default_root_dir ..
/nnue-pytorch-training/experiment_$1/run_$2

Aufruf der zweiten Trainingseinheit:

python3 train.py \ .
. /nnue-pytorch-training/data/T60T70wIsRightFarseerT60T74T75T76.binpack \ .
. /nnue-pytorch-training/data/T60T70wIsRightFarseerT60T74T75T76.binpack \ --gpus "$3," \ --threads 4 \ --num-workers 8 \ --batch-size 16384 \ --progress_bar_refresh_rate 20 \ --random-fen-skipping 3 \ --features=HalfKAv2_hm^ \ --start-lambda=1.0 \ --end-lambda=0.75 \ --gamma=0.995 \ --lr=4.375e-4 \ -









-max_epochs=800 \


--resume-from-model /data/sopel/nnue/nnue-pytorch-training/data/exp367/nn-exp367-run3-epoch399.pt \ -
-default_root_dir .. /nnue-pytorch-training/experiment_$1/run_$2

Bestanden STC: LLR: 2.95 (-2.94,2.94) <0.00,2.50>
Gesamt: 27288 W: 7445 L: 7178 D: 12665 Elo +3.40 ptnml(0-2): 159, 3002, 7054, 3271, 158
https://tests.stockfishchess.org/tests/view/627e8c001919125939623644

Bestandene LTC:
LLR: 2.95 (-2.94,2.94) <0.50,3.00

>


Gesamt: 21792 W: 5969 L: 5727 D:
10096  Elo +3.86 Ptnml(0-2): 25, 2152, 6294, 2406
, 19
https://tests.stockfishchess.org/tests/view/627f2a855734b18b2e2ece47

schließt https://github.com/official-stockfish/Stockfish/pull/4020

Bank: 6481017
siehe Quelle
Parent - By Max Siegfried Date 2022-05-16 08:40
Und nicht zu vergessen:

Author: xoto10
Date: Sun May 15 20:20:37 2022 +0200
Timestamp: 1652638837

Tune scale and optimism.

Tune scale and optimism in effort to make stockfish play more aggressively.

STC @ 10+0.1 th 1:
LLR: 2.94 (-2.94,2.94) <0.00,2.50>
Total: 27896 W: 7506 L: 7248 D: 13142 Elo +3.21
Ptnml(0-2): 103, 3047, 7388, 3309, 101
https://tests.stockfishchess.org/tests/live_elo/627fd0cfab44257388ab1f13

LTC @ 60+0.6 th 1:
LLR: 2.93 (-2.94,2.94) <0.50,3.00>
Total: 65576 W: 17512 L: 17178 D: 30886 Elo +1.77
Ptnml(0-2): 37, 6397, 19587, 6729, 38
https://tests.stockfishchess.org/tests/live_elo/627ff666ab44257388ab256d

closes https://github.com/official-stockfish/Stockfish/pull/4025

Bench 6407734
see source
Up Topic Hauptforen / CSS-Forum / Tolle neue Verbesserungen bei Stockfish

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill