Ich denke, Du greifst in Deinen Überlegungen gleich mehrfach daneben.
Zunächst kann man aus der Dateigröße nicht zwingend auf die Funktionalität eines Programms rückschließen. Gerade asmFish und Stockfish zeigen das. In diesem Fall bestimmen die Programmiersprache und der verwendete C++-Compiler die Größe der exe-Datei. Wie bei fast allen höheren Programmiersprachen gehört zu C++ eine ordentliche Ladung Bibliotheken. Darin sind Funktionen enthalten, die der Verwender nutzen kann, um das Rad nicht ein zweites Mal erfinden zu müssen, wenn er bspw. irgendetwas auf den Bildschirmschreiben will. Überdies bekommt man Stockfish vom VC19-Compiler als halb so große Programm Datei. Der minGW-Compiler entfernt weniger nicht gebrauchte Bibliotheken bzw. Bibliotheksfunktionen als der VC19. Man kann übrigens Programmversionen von Stockfish herstellen, die die meisten Bibliotheksfunktionen in extra dll-Dateien aufrufen. Diese minGW-Versionen sind um die 300 kBytes groß und funktionieren nicht ohne die dll-Dateien. CFish benötigt, so hergestellt, dann kaum 200 kBytes. Was lässt sich aus der Programmgröße also ablesen? Dass man mit Assembler schlanke Programme machen kann. Mehr nicht. Über die Gründe für die Größe des lc0-Programms könnte ich nur spekulieren. Quellcodegrößenvergleiche (Programmzeilen zählen) sind aber bestenfalls ein Anhaltspunkt (ca. 280 kBytes zu ca. 900 kBytes), aber in keinem Fall ein Beweis für die Fähigkeiten oder Unfähigkeiten von Programmen.
Mir erschließt sich außerdem nicht, warum in Bezug auf die Leistung von Schachprogrammen etwas "gerecht" sein soll. Genannt wurde die Verwendung großen Datenmengen. Es wäre für geübte Programmierer ein Klacks ein Polyglot-Buch oder die Syzygy-Tabellen in Stockfish-Quellcode umzuwandeln und in die Programmdatei einzubinden (das Betriebssystem und die üblichen PCs setzen da Grenzen). Ebenso leicht wäre es, eine Netzwerk-Datei in lc0 einzubetten. Dann nutzen die Programme auf einmal keine großen Datenmengen mehr. Dafür mögen die Programmdateien jetzt kaum noch handhabbar sein. Das hat doch aber alles nicht mit Gerechtigkeit zu tun.
Hier geht's nur darum, wer der Stärkere ist. Also nicht Gerechtigkeit, sondern Vergleichbarkeit. Die Vergleichbarkeit ist unter den A/B-Engines durch die Prozessoren möglich. Single-Core gegen 4-Cores. Beim Vergleich von NNs kommt es auf die verwendeten GPUs an. Die Vergleichbarkeit zwischen A/B- und NNs-Eingine sollte die Leela-Ratio ermöglichen. Das war der lauten Fraktion aber eher Behinderung denn Erkenntnisquelle und deswegen ging sie in der Diskussion über Bord (- die ratio - und im Folgenden Stefan Pohl aus diesem Forum). Und jetzt erscheint der Begriff "Gerechtigkeit" (erstmal nur) im Zusammenhang mit der Verwendung von "großen Datenmengen". Ich nehme das fürs weitere mit Erstaunen zur Kenntnis.
Übrigens: Für die Juristen (vermutlich nicht nur für die) bedeutet Gerechtigkeit, Gleiches gleich und Ungleiches ungleich zu behandeln. Das Problem liegt daher eher darin, gleich und ungleich zu unterscheiden.
Viele Grüße
Th. Plaschke