[quote="Ingo Bauer"]
Und was Peter unten noch schrieb kann ich auch nur bestätigen. Rückwärtsanalyse mit H1.5 war fast unmöglich, das ist jetzt DEUTLICH besser!
[/quote]
Einerseits ja!
Moin Ingo!
Andererseits ist man als Fan solcher Funktionen natürlich anspruchsvoll und mehr könnte man sich immer wünschen, tatsächlich hab ich in wirklich komplexen Stellungen schon auch zeitweise den Eindruck, Houdini mit Lernen ein (laut Handbuch soll ja da auch immer das Never Clear Hash ein sein, oder es wird sogar selbsttätig aktiviert, weiß nicht, warum) wird etwas behäbiger im Mitzurücknehmen von Erkanntem im hash.
Ich will jetzt hier nicht gleich mit Stellungen kommen, die die meisten wahrscheinlich für irrelevant im praktischen Spiel halten, ich nehm halt da immer gern meine Studiensammlung her, wo engines mit Zugzwang und Variantenvielfalt und Zugumstellungen kämpfen im backward solving, in solchen Fällen verliert Houdini mit Lernen ein manchmal deutlich Zeit im Zurückrechnen, schon Gefundenes über Irrtümer besser zu bewerten und braucht einfach länger an der entsprechenden Verzweigung, den davor schon als best move Erkannten wiederzufinden. Dafür ist Wesentliches auf Knopfdruck sofort wieder da nach hash Leeren, wenn's mal in die Lerndatei Einzug gefunden hat, das allein ist für mich mehr als das von Houdart dafür verlangte Geld wert.
Der persistent hash ist mir noch etwas unheimlich in den Datenmengen, die da eigens gespeichert und nach Bedarf herumgeschupft werden müssen, für Fernschach aber vielleicht doch auch eine mächtige Funktion, noch zu wenig probiert, das war mir schon bei Rybka immer zu mühsam, noch dazu hat's bei dem immer wieder nicht funktioniert, komplizierte work arounds aus dem Rybkaforum probiert, geschafft, wieder gescheitert, mittlerweile glaube ich zu wissen, warum's manchmal nicht gegangen ist, bei Houdini bis jetzt völlig klaglos und auf Anhieb.
Das unterschiedliche Rechentempo mit und ohne Lernen kann ich schon auch an Stellungen zeigen, wäre ja auch einfach kein Wunder, wenn's so wäre, das Never Clear Hash mag ja auch ein schwerer Rucksack sein zeitweise, den man erst mal immer wieder schultern muss, bevor man wieder loshetzt.
Wenn's näher interessiert, lass sehen.
Ein bekanntes Beispiel, mit dem ich's immer gleich wieder probiere, wenn's neue Lernfunktionen gibt, ist die Studie von Mihai Neghina "Die Dame im Goldenen Käfig", die Walter Eigenmann damals im Glarean als Urdruck hatte.
Houdini 2.0 ist die erste engine, die die Lösung und ihre sichere Gewinnbewertung bis zum fünften Zug (! das ist immer noch viel im Vergleich zu anderen) halbwegs flott auf 12 Kernen im hash mit zurück nimmt, nur zwei, drei eigene Zweifel- oder Verführungsvariante vor und zurück spielen muss (das dauert allerdings dann auch immer noch und hakt schon ab dem 7. Zug), aber vor Allem:
sich das bis dorthin auch in der Lern.dat merkt.Wird außer mir niemand gar so aufregend finden, immerhin ist auch Houdini noch meilenweit davon entfernt, die Studie selbst zu lösen oder auch nur in überschaubarer Zeit bis zum Anfang zurück zu lernen. Und das Tempo, mit dem er das Wesentliche in den hash schreibt, ist mit Lernen ein stellenweise immer wieder ausgebremst relativ zu Lernen aus, dafür ist's ohne Lernen halt mit gelöschtem hash wieder weg.
Übrigens ist das für mich so ein heißes Eisen, weil ich Lerndateien an und für sich für eine der zukunftsträchtigsten Ideen im Computerschach halte.
SMK ist ja mit Mark Uniacke für mich einer der Väter davon, ich weiß gar nicht, wer damit angefangen hat, der Eine oder der Andere, völlig egal auch.
Bei Shredder fehlt mir oft einfach noch die Menge und Wiederaufrufbarkeit von abgelegten evals und Zügen, gerade bei Zugzwangstellungen, in denen er dafür selbstständig meistens sehr gut ist, Houdini vielleicht auch hier noch eine Spur besser, Hiarcs kränkelt da manchmal etwas mehr, ruft dafür für mein Gefühl Erkanntes aus der Lerndatei schneller und zuverlässiger wieder auf, obwohl seine Lerndateien noch langsamer wachsen als die von Shredder.
Houdini setzt hier schon auch nochmal neue Maßstäbe, im Handbuch wird aber auch gleich darauf hingewiesen, dass man damit rechnen muss, dass die sehr schnell wachsende .dat ein Problem der Abfrage werden kann, wenn man sie so schnell wachsen lässt, wie sie das tut und nicht immer wieder zurückstutzt und löscht und neu anfängt.
Warum so aktuell gerade außer für Houdini?
Die let's check- Funktion von F13, von der gerade alle reden, sollte meiner Meinung nach auch irgendwie im Sinn einer sehr großen Lerndatei funktionieren können, wenn sie es nicht ohnehin tut.
Ich hab mich da im anderern thread gerade weggeschwärmt darüber, wie du vielleicht bemerkt hast.
Meinst du nicht aber auch, dass das Zukunft auch für eine Online- Datenbank haben könnte?
Vielleicht würde ja SMK mit Shredder 13 ein Konkurrenzprodukt zu let's check anbieten wollen, was sein ja auch legendäres Online- Eröffnungsbuch anbelangt?