Hallo Herr Pohl,
danke für Ihr Engagement insgesamt und auch das aktuelle Posting.
Stefan Pohl schrieb:
Es gibt (erfolgreiche) Bemühungen, Leela mit stark
verkleinerten NeuronalNetzen laufen zu lassen, die dennoch
ordentliche Stärke erreichen...
Bisher wird dort eine auf 16x2 (!) Größe eingeschrumpfte Version des
starken NeuralNetzes 11258 angeboten. Theoretisch sollte dieses
geschrumpfte Net 160x schneller abgearbeitet werden, als die Originalgröße (!!!)...
Habe es gerade auf meinem einfachen Netbook auf der Arbeit probiert...
Geht ab wie die Hölle!
Ohne dass ich das technische Knowhow habe, hatte ich vor zwei Jahren
schon mal in Diskussionen angeregt, ob man nicht die NN von AlphaGo
(oder auch allgemeine NN) stark schrumpfen könnte.
So etwas scheint also wirklich gut zu klappen.
Vor 26 Jahren hatte ich mal - ganz abstrakt und theoretisch - untersucht,
ob man lineare Bewertungsfunktionen schrumpfen könnte. Die Antwort war
"ja". Das Ganze hatte ich auch im ICCA Journal publiziert, unter dem Titel
"On telescoping linear evaluation functions" ("telescoping" im Sinne
eines zusammengeschobenen Fernrohres).
https://content.iospress.com/articles/icga-journal/icg16-2-05Dort kann man auch einen Scan des Artikels (3,5 Seiten) herunterladen.
Bob Hyatts Reaktion damals: "Don't open a can of worms."
Ingo Althöfer.
PS. Warnung: für die praktische Entwicklung dürfte das damalige Ergebnis
keine Bedeutung haben.