Michael Rohleder schrieb:
Aber ich verstehe inzwischen, was er da tut... er speichert ja nicht die ganze HT, sondern nur ganz wenige Werte... kA, ob man das nun als "Lerndatei" bezeichnen mag...
Der Vorteil ist ganz bestimmt, dass das Ding schoen klein bleibt, die Frage ist aber, wie gross die Auswirkungen dieser Werte auf die aktuelle Suche ist. (Sollte evtl. einfach mehr Erfahrung mit dem Ding sammeln, statt in den sourcen zu wuehlen
PS: Mit alpha0 usw hat das alle nu ueberhaupt garnichts zu tun... das ist nen ganz anderes Paradigma, anderer Ansatz usw...
Ich kann nur Erfahrungen aus dem Stellungstesten beitragen. Da sind wie immer die taktischen Hotshots, bei denen die Engine eine Weile braucht, bis sie "findet", es sei denn, man "zeigt" ihr den kniffligen Lösungszug, dann behält sie ihn bei den klassischen "Teststellungen" gleich im Output, weil der Hash mit den richtigen Einträgen gefüllt ist.
Das funktioniert bei J.Bernstein- PA- SF ziemlich zuverlässig auch, bei Eröffnungsstellungen ist's schwerer nachweisbar, aber das Prinzip, dass Einträge, die die Eval steigen lassen, beim Wiederladen von gespeichertem Hash und von Persistent Hash ala PA-SF (bei denen von Zerbinati genau so) auch geladen werden, funktioniert auch hier. Die positionellen Stellungen haben halt nicht die Evalsprünge, auf die's vermutlich ankommt.
Der Clou muss wohl sein, dass das "Filtern" von bestimmten Treshold- Grenzen irgendwie durch die Eval- Relationen passiert, ich hab da mal mit Mark Uniacke ein paar Mails gewechselt, so wie ich ihn damals verstanden habe, geht das prinzipiell schon irgendwie so ähnlich auch bei seiner Lerndatei, wie auch immer man sie nennen will.
Bei H4 konnte man noch die Learning Treshold der Learning File eigens über UCI- Parameter einstellen, bei SF-PA ist es die Persistent Hash Depth (die Suchtiefe, ab der Einträge "gelten"), über die man die Geschwindigkeit des Wachsens beeinflussen kann, die 1024Mb maximal erreicht man bei vernünftigen Suchtiefen praktisch nie.
P.S. Dass das mit A0 alles praktisch nichts zu tun hat, ist mir wohl bewusst, dass es aber auch "funktioniert", weiß ich aus eigener Erfahrung. Was ich meinte, war nur, bis man als kleiner User eigene Erfahrungen mit dem Prinzip des Lernens über neuronale Netze wird sammeln können, die sich ähnlich positiv beim Analysieren in den Spielstärke- Bereichen der Engines, an die man halt mittlerweile gewöhnt ist, sehe ich außer bei Giraffe derzeit nicht, und das war nicht nur "Selbstlernen", worauf das Programm von Mattew Lai noch basiert war (Einlesen von Meisterpartien beim Lernen), siehe auch den thread im SF- Subforum zu SF Zero, was da z.B. Günter Stertenbrink so zuletzt gezeigt hat, war wenig ermutigend.
Dass Lai, der ja jetzt auch für Deep Mind arbeitet, soviel ich weiß, an Google verloren ging, ist schade, weil er damit offenbar auch zum Geheimnisträger gemacht worden ist.
Nicht, dass ich nicht auch sehr neugierig wäre, wie das weitergehen mag, man ist halt als verwöhnter User schon auch nicht mehr soo mit Geduld gesegnet, wie man in den Anfängen der Computerschachstory war, vor allem war man damals jünger.
PPS: Die "Kompliziertheit" des Lernens von Engines, wie wir sie kennen, müsste meinem geringen programmiertechnischen Verständnis nach, eigentlich bei der Lerndatei dieselbe sein wie beim Hashlernen selbst, was da an Einträgen wie sehr und wie schnell was überschreibt, dieses Hash- Aging ist ja wohl ohnehin eines der bestgehüteten Geheimnisse bei den verschiedenen Engines. Allein, was ich da so mit Mark Lefler alles per Mail gelernt habe, weil er immer wieder meinte, dass komodo bei meiner Meinung nach viel zu vielen GUI- Befehlen seinen Hash einfach löscht (z.B. auch immer noch bei 11.3 beim Wechseln der Zahl der Varianten von Single- auf Multivariant Mode) das sei kein Bug, sondern ein Feature.
Hab's bei 11.3 noch gar nicht probiert, aber bei 11.2 war's immer noch ein ziemlich kniffliges Workaround, den Hash in verschiedenen GUIs zu speichern und wieder zu laden, so, dass die relevanten Einträge dabei nicht gelöscht werden.