Das "Abarbeiten" eines Programmes macht das menschliche Gehirn gerade nicht. Das Gehirn funktioniert NICHT auf Basis von Algorithmen und Programmen.
Ein neuronales Netz ist mathematisch gesehen eine nicht-lineare Regression. D.h. man ändert die Verknüpfungen im Netz solange, bis die Zielfunktion (hier ELO) maximal wird. Aufgrund der im Netz verwendeten mathematischen Funktionen kann man eben nicht nur lineare Zusammenhänge abbilden, sondern auch nicht-lineare. D.h. kleine Änderungen in den Eingangsparametern können (müssen aber nicht) zu großen Auswirkungen bei den Ergebnissen führen. Voraussetzung ist, das solche Zusammenhänge existieren UND das Netz sie lernen kann. Letzteres hängt davon ab, ob diese Zusammenhänge stabil sind und dass sie ausreichend oft vorkommen, damit dieser Zusammenhang erkannt werden kann. Weil das lernen nicht durch Erkenntnis passiert sondern durch langsame Annäherung des Modelles an die Wirklichkeit.
Die Euphorie scheint mir hier etwas übertrieben zu sein. Das liegt wohl daran, dass
1. Google einen großen Erfolg hatte
2. die Fortschritte (am Anfang) recht groß sind und
3. die ELO Zahlen die hier im Raum rumschwirren massiv nach oben verzerrt sind.
zu 2. die Lernkurve ist am Anfang sehr steil und flacht aber danach sehr schnell ab (wie bereits vor zwei Wochen von mir prognostiziert wurde) Da man bei Leela viel zu viele Parameter genommen hat, wird das so bleiben und vielleicht wird nie ein signifikanter Zuwachs mehr kommen.
zu 3. laut
https://docs.google.com/spreadsheets/d/18UWR4FVhPi0vNwwPreu_avd9ycujGQ5ayR2LzJOWP4s/edit#gid=823198584hat das Netz +228 eine Elo von 2858.
Ich habe mal rund hundert Blitzpartien gegen Fritz 6 und Crafty 23.1 spielen lassen. Danach komme ich mit meiner Hardware auf nicht ganz 2500. Und ich will mich jetzt gar nicht auf die Diskussion einlassen, dass mit 4 GPUs und Netz xy etc. das Netz deutlich besser spielt. Das wäre Äpfel mit Birnen verglichen. Wenn ich die Stärke eines Programms vergleichen will, muss die gleiche Hardware verwendet werden!