nochmal zur hardware :
Titan V , [$3100] 110 “deep learning” TFLOPS
1080 Ti, [$400] 11 “normal” TFLOPS
DGX Station , [$50K] with 4 Tesla V100
NVIDIA has recently updated their EULA to prohibit “desktop” grade
GeForce and Titan GPUs from being used in data centers.
Titan V only 20% faster than 1080ti here :
https://medium.com/@u39kun/titan-v-vs-1080-ti-head-to-head-battle-of-the-best-desktop-gpus-on-cnns-d55a19866b7cV100, has weird restrictions
alpha zero training : $15M hardware fuer 9 Stunden , 44M Partien
LC0 : ~$0.05 hardware [GPUs] , 1M Partien bis jetzt
-----------------------------------------------
bei alpha zero ging es in diesem Tempo bis Elo 2200 bei 2M Partien,
dsnn eine Phase geringerer Steigerung bis Elo 2400 bei 5M Partien ,
dann wieder schneller bis Elo 2900 bei 6M Partien
dann Elo 3200 bei 8M Partien
dann Elo 3300 bei 10M Partien
und dann noch bis 44M Partien bei geringer Steigerung
http://magictour.free.fr/a0e2.GIFdanach waere LZ0 in 4 Monaten bei 3200