Lothar Jung schrieb:
Nein,
reine Energieverschwendung.
A/B-Programme skalieren nicht gut.
Ob bei Leela größere Netze und/oder GPU(s)-Geschwindigkeit viel hilft, ist noch fraglich.
To say the least, aber viel weniger rein ist die Energieverschwendung, den Rest Hoffnung noch weiter zu nähren, auch nicht, wenn du mich fragst.
Vor allem fragwürdig, auch was die NNs angeht, was genau man noch erreichen will, wenn die noch steigerbaren Elo erstens rein fiktiv und zweitens allein von der Testumgebung abhängig sind.
Kosten-Nutzenrechnungen irgendeiner Art würde ich da lieber auch nicht mehr anstellen, und hoffentlich kommt jetzt nicht wieder das Argument der Umwegrentabilität für andere AI- Andwendungen.
Was soll denn ein so festgelegtes geschlossenes System wie das von z.B. LC0 zur "Weiterentwicklung" von Schach- Netzwerken durch Autoplay, noch für Erkenntnisse fürs selbstfahrende Auto abwerfen oder für sonstwas, was auch längst rein autonome Einzelforschung ist?
Und wenn da die eine "AI"- Anwendung wirklich noch irgendwas mit der anderen zu tun hat, stehen die dann nicht auch irgendwie in Konkurrenz zueinander, was die Umwegrentabiltität und allgmeinen und speziellen "Erkenntnisgewinn" angeht?
Wär's da dann nicht erst recht viel sinnvoller, die Hardware- Zeit, die man da jetzt ins Schach hinein pulvert, in andere AI- Anwendungen zu investieren, wenn man da jetzt schon allgemeine AI- Erkenntnisse gesammelt hat in diesem Randgebiet und gesehen hat, viel geht da in absehbarer Zeit sicher nicht mehr, wovon man wenigstens als Schachspieler auch noch was haben könnte. Deep Mind hat's ja offenbar auch wieder ziemlich sein gelassen, oder sollte es jedenfalls vermutlich, um sich andere Forschungsprozesse eher leisten zu können.
http://talkchess.com/forum3/viewtopic.php?p=809651#p809651Just my two cents.