Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / AlphaZero - einige Gedanken
- - By Christoph Fieberg Date 2017-12-10 00:01 Upvotes 2
Einige Gedanken zu AlphaZero

•  44 Millionen Trainingspartien.

Nur gegen sich selbst spielend, selbst lernend.
Gespielt in 9 Stunden = 32.400 Sekunden. Macht 1.358 Partien pro Sekunde.
Bei durchschnittlich 147 Halbzügen pro Partie (üblich in Computerpartien) sind das 200,000 Züge pro Sekunde, die berechnet werden müssen.
Daher der Einsatz von 5,000 TPUs erster Generation (peak throughput 92 TOPS).
Je TPU mußte also 40 Züge pro Sekunde spielen oder  1 Zug in 25 millisekunden.
Nur so konnten in 9 Stunden 44 Millionen Trainingspartien gespielt werden.

•  Eröffnungen

Wenn wir die letzten 1 Millionen Trainingspartien hätten – die ja auf höchstem Niveau gespielt wurden –
und daraus ein Eröffnungsbuch macht, hätte man wohl ein revolutionäres Powerbook.

Anhand der Diagramme kann man in etwa ableiten, wie oft AlphaZero in seinen Trainingspartien der 9. Stunde welchen Eröffnungszug gespielt hat:
1.d4 (52%), 1.c4 (11%), 1.e4 (8%), 1.Sf3 (6%), andere (23%).

GETESTET wurden die 12 Eröffnungen, die von MENSCHEN am meisten gespielt wurden.
Es gab ein 100-Partien Match gegen Stockfish für jede der 12 Eröffnungen, also 1.200 Partien.

Hier hat AlphaZero auch einige Partien verloren. Gesamtbilanz +290 =886 -24.
Ausbeute in den 1.200 Partien nur 61%.
Gegenüber 64% Ausbeute im 100 Partien-Match gegen Stockfish OHNE Eröffnungsvorgabe.

Es waren bei den 12 Eröffnungen offenbar einige dabei, die AlphaZero selbst nicht gerne spielt.
Allerdings dominierte AlphaZero Stockfish besonders bei Französisch (89%!! Mit Weiß, 54% mit Schwarz), obwohl AlphaZero Französisch am Ende seiner Trainingspartien selbst nicht mehr spielte.

•  Weißvorteil

Im 100-Partien Match holte AlphaZero mit Weiß 75%, mit Schwarz nur 53%.
Im 1200-Partien Match mit menschlichen Eröffnungen holte AlphaZero mit Weiß 70%, mit Schwarz nur 52%.

Der Unterschied ist hoch, aber nicht ungewöhnlich.
In z.B. 100 Partien von Stockfish 6 (3315) gegen Rybka 4.1 (3106) holte Stockfish 92% (+42 =8 -0) mit Weiß und  nur 72% mit Schwarz (+24 =24 -2). (CCRL 40/4 am 29.01.2015).
Bei 100 Partien von Komodo 9.1 (3312) gegen Rbyka 4.1 (3106) waren die Ergebnisse „normal“.
Mit Weiß holte Komodo 79% (+30 = 19 -1) und mit Schwarz 76% (+29 =18 -3). (CCRL 40/4 05.07.-22.07.2015).

•  Spielstärke

Eigenartig, dass die Spielstärke in den letzten Stunden des Selbstlernens kaum noch ansteigt.
Vermutlich kann der Selbstlernprozess noch verbessert werden.

„None of the techniques described in this section are used by AlphaZero. It is likely that some of these techniques could further improve the performance of AlphaZero; however, we
have focused on a pure self-play reinforcement learning approach and leave these extensions for future research.“

•  Schachwissen

Durch das Selbstlernen und sich selbst verbessern hat sich AlphaZero selbst Schachwissen beigebracht. Und zwar Schachwissen einer Art, wie wir es nicht kennen.
Wie das aussieht, werden selbst die Entwickler vermutlich nicht ablesen oder in Worte kleiden können.

Eine ähnliche Erfahrung gab es bereits bei der Zero-Shot Translation.
https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html
„This means the network must be encoding something about the semantics of the sentence rather than simply memorizing phrase-to-phrase translations. We interpret this as a sign of existence of an interlingua in the network .”

•  Partien

Google Deepmind sollte alle 1.300 Partien von AlphaZero gegen Stockfish und am besten (falls möglich) auch alle 44 Millionen Trainingspartien von AlphaZero gegen sich selbst der Schachwelt zur Verfügung stellen.
Parent - - By Benjamin Bahnsen Date 2017-12-11 13:44 Edited 2017-12-11 14:11
Christoph Fieberg schrieb:

Es waren bei den 12 Eröffnungen offenbar einige dabei, die AlphaZero selbst nicht gerne spielt.
Allerdings dominierte AlphaZero Stockfish besonders bei Französisch (89%!! Mit Weiß, 54% mit Schwarz), obwohl AlphaZero Französisch am Ende seiner Trainingspartien selbst nicht mehr spielte.


Und in wie viel Prozent der Partien hat Stockfish in der Stellung nach 1.e4 e6 2.d4 d5 3.Sc3 Sf6 4.e5 Sfd7 5.f4 c5 6.Sf3 den Zug 6...cxd4?! gespielt? Dieser Zug ist auch in einer der 10 Beispielpartien zu sehen. Mit einem guten Eröffnungsbuch hätte Stockfish diesen Zug höchstens sporadisch, vielleicht sogar nie gespielt. Es wäre mal interessant zu wissen, welche Quote Houdini oder Komodo danach gegen Stockfish holen. NACHTRAG: In der anderen Französisch-Partie spielt Stockfish 9...c4?! Ich kann diesen Zug mit keiner der Stockfish-Versionen, die ich hier habe, nachvollziehen. Mit einem Buch wäre diese Ungenauigkeit sowieso nicht passiert.

Christoph Fieberg schrieb:

Eigenartig, dass die Spielstärke in den letzten Stunden des Selbstlernens kaum noch ansteigt.
Vermutlich kann der Selbstlernprozess noch verbessert werden.


Der Algorithmus ist eben am Ende seiner Leistungsfähigkeit. Das ist absolut nicht ungewöhnlich - insbesondere bei neuronalen Netzen. Auch wenn der Vergleich etwas hinkt: ein 20 Jahre altes Schachprogramm erreicht auch schnell den Punkt, an dem es von steigender Rechenleistung praktisch nicht mehr profitiert.

Christoph Fieberg schrieb:

Google Deepmind sollte alle 1.300 Partien von AlphaZero gegen Stockfish und am besten (falls möglich) auch alle 44 Millionen Trainingspartien von AlphaZero gegen sich selbst der Schachwelt zur Verfügung stellen.


Warum sollten die Entwickler einen Quasi-Beweis für die Leistungsfähigkeit von AlphaZero vorlegen? Die geballte KI-Power von Google sieht doch jeder anhand der perfekten Übersetzungen von Google Translate, der fehlerfreien Software, die Google produziert, oder den ganzen autonomen Autos, die uns täglich auf der Straße begegnen. Google ist sogar so fair ihre KI nicht auf den Aktienmarkt loszulassen um damit täglich Milliarden zu verdienen - es geht schließlich um Wissenschaft und nicht ums Geld.

Die ganze Welt, allen voran die großen Zeitungen und Nachrichtenportable, haben die Zahlen ohne zu hinterfragen geschluckt und glauben jetzt, dass Google jetzt auch das Schach revolutioniert hat. Mission accomplished.
Parent - - By Thorsten Czub Date 2017-12-11 14:14
Was die Partien aber doch gezeigt haben ist, das man mit aktivem Figurenspiel und dynamischen Opfern stockfish sehr schnell
In die Krise bringen kann. Während stockfish noch Gruppen von Figuren unentwickelt irgendwo herumstehen hat, hat er oft Zugzwang oder frisst ohne Argwohn irgendwelche angebotenen Bauern oder Figuren und verliert dann.

Wer hätte denn gedacht das sowas auf dem Level überhaupt noch möglich sei ?
Und wer hätte gedacht das eine KI die sich selbst Schach beibringt am Ende wie ein Mensch spielt ?
Opferfreudig. Idealistisch . Aktiv und derartig dominant.

Hätten wir nicht eher ein Maschinenschach mit remistod erwartet ?
Parent - - By Benjamin Bahnsen Date 2017-12-11 15:07
Keine Frage - ein paar "Glanzpartien" sind dabei. Die entstehen aber auch, wenn man 1000x Houdini oder Komodo gegen eine alte Stockfish-Version ohne Eröffnungsbuch spielen lässt...

Ich bin und bleibe skeptisch. Ich würde mich gern von der Spielstärke AlphaZeros überzeugen lassen - 10 Beispielpartien gegen eine beschnittene Engine reichen dazu aber einfach nicht.
Parent - By Thorsten Czub Date 2017-12-11 15:44
1000 x Houdini gegen Komodo gegen stockfish macht sowieso keinen Sinn.
Die Qualität des Schachs wird dadurch nicht besser.
Also ich denke diese 10 Partien die gerade die ganze schachwelt nachspielt
zeigen sehr gut das unsere heutigen Schachprogramme noch genauso doof sind wie die brute force Programme
In den 80er Jahren. Wenn auch auf einem anderen Niveau.

Damals rechneten die doofen Programme 2000 NPS und wurden von den 200-350 NPS
Programmen vorgeführt.
Rechentiefe war 5 plies bei den Bf und die selektiven kamen vielleicht auf 3/7.

Heute rechnet stockfish 23-27 plies tief.
Aber die Partien waren genauso grausam wie damals.
Parent - - By Olaf Jenkner Date 2017-12-11 14:48
Benjamin Bahnsen schrieb:

Auch wenn der Vergleich etwas hinkt: ein 20 Jahre altes Schachprogramm erreicht auch schnell den Punkt, an dem es von steigender Rechenleistung praktisch nicht mehr profitiert.

Das ist doch völliger Unsinn. Auch das schlechteste Schachprogramm, sofern es korrekt programmiert wurde, spielt immer stärker, je stärker die Rechenleistung wird. Es spielt sogar perfekt, wenn beliebig viel Zeit zur Verfügung steht. Und dazu braucht es nicht mal Hashtables.
Parent - - By Benjamin Bahnsen Date 2017-12-11 14:58
Olaf Jenkner schrieb:

Benjamin Bahnsen schrieb:

Auch wenn der Vergleich etwas hinkt: ein 20 Jahre altes Schachprogramm erreicht auch schnell den Punkt, an dem es von steigender Rechenleistung praktisch nicht mehr profitiert.

Das ist doch völliger Unsinn. Auch das schlechteste Schachprogramm, sofern es korrekt programmiert wurde, spielt immer stärker, je stärker die Rechenleistung wird. Es spielt sogar perfekt, wenn beliebig viel Zeit zur Verfügung steht. Und dazu braucht es nicht mal Hashtables.


Deswegen des kleine Wörtchen "praktisch".  Die Pruning-Techniken waren damals noch sehr rudimentär. Die Suchtiefe von Stockfish wird ein 20 Jahre altes Schachprogramm selbst nach vielen Monaten Rechenzeit auf einem Supercomputer nicht erreichen.
Parent - - By Thorsten Czub Date 2017-12-11 15:02
Ja aber was nützt all das pruning und tiefer kommen im suchbaum wenn an dann solche Partien abliefert ?
Parent - - By Peter Martan Date 2017-12-11 15:23 Edited 2017-12-11 15:43 Upvotes 1
Jetzt lass aber mal gut sein, Thorsten, hat sich da vielleicht schon länger was aufgestaut gehabt bei dir?

Solche Partien liefert SF halt ohne Buch bei kurzen und blöd eingeteilten TCs ab, neu war mir das aber eigentlich nicht, und Google wird's auch nicht neu gewesen sein.
Wenn eine noch so gute Engine schon in der Eröffung in Nachteil kommt, kannst du die gegnerische eigentlich auch schon ruhig mit einem viel höheren Contempt weiter spielen lassen, sie wird nur umso schönere Züge im Angriff aufs Brett bringen.
Mit vollen Hosen ist gut stinken und im Schach ist das mit dem leichter Angreifen als Verteidigen auch nicht gerade neu.

Ich hab mich ja auch in einen richtigen Wirbel hineingeschrieben in den ersten paar Tagen, aber jetzt nur, weil man ein paar ganz gute Züge gesehen hat von einem neuen Programm, deshalb gleich wieder alles, was die Blechis, die war haben, auch schon ganz gut konnten, (taktische Verwicklungen frühzeitig erkennen, einfach auch schon lange viel besser als Menschen, und mehr ist es einfach nicht, was A0 da "gezaubert" hat) in Bausch und Bogen zu verdammen, und alles, was wir in die paar Partien von A0 hineingeheimnissen können, in den Himmel zu heben, das finde ich beides ungefähr gleich emotional gesteuert.

Wir haben eben nicht mehr als wir haben, um uns ein fundierteres Urteil zu bilden, und wenn wir uns mit dem, was wir haben, schon zufrieden geben, werden wir auch nicht mehr bekommen, sag ich mal.

Google hat's ja da bei Schach um einiges leichter, als es bei Go war, da mussten sie live gegen Meister spielen lassen, damit die Go- Welt auch wirklich glaubte, AlphGo sei besser. Im Computerschach hat sich die (Computer)Schachgemeinde schon vor Jahr und Tag dazu verschworen, die Blechis relativ zu den Menschen in den Himmel zu heben, drum reicht es jetzt, einen gehandicapten SF unterzubuttern in 100 Partien, von denen 10 gezeigt werden (gehe davon aus, Thorsten, das werden schon die besten sein, gäb's noch viel bessere, wären die anstelle der 10 ausgewählt worden oder zusätzlich veröffentlicht) und schon liegen alle am Bauch.

Wozu soll sich Google da noch weiter anstrengen?

Ich würde gerne mal ein paar Stellungen vom neuen lieben Schachgott in kurzer Bedenkzeit gelöst sehen, bei denen unsere Pruning- Riesen auch noch immer und zeitweise erst recht blöd dastehen, je weiter sie entwickelt werden und je mehr sie mit Nullzug arbeiten und sich im Endspiel auf die tbs verlassen.

Ein paar Studien, wo der Zugzwang nicht schon und nur in den ersten paar Halbzügen auftritt, ein paar Königswanderungen quer übers Feld, ein paar Festungen (na gut, da kann MC helfen, muss aber auch nicht), ein paar 7Steiner, bei denen man von den Losomosovs weiß, das dauert noch ewig bis zur nächsten Umwandlung und es kommen immer wieder single best moves vor, ohne die's gleich anders ausgeht, und vor allem:

Wie eröffnet das Ding wirklich gegen die großen Datenbanken, da braucht gar kein Blechgott und kein menschlicher Schachgott am anderen Ende der Leitung zu sitzen, da reicht ein GUI, das der Statistik folgt.

Glaubst du wirklich, dass sich Google das nicht auch gleich angetan hätte, wenn sie nicht schon gewusst hätten, dass das um eine Nummer härter ist?
Da werden nämlich schon auch ein paar Leute mitarbeiten, die was von Computerschach verstehen, wie es derzeit funktioniert, Matthew Lai z.B.
Parent - By Thorsten Czub Date 2017-12-11 16:12
Also ich werde nicht der einzige sein der sich da im Moment amüsiert über stockfish.
Ich denke das macht die ganze Welt im Moment.

https://youtu.be/GWH4GHf8k6M

Aber sicherlich. Da hat sich bei uns allen was aufgestaut.
Diese ewigen Diskussionen über remistod und anderen scheiss, das eine Engine 3 elo Pünktchen
Besser ist als eine andere, ermittelt nach 20.000 bullet Partien auf irgendeinem Rechner irgendwo.
Hat m.E. Mit computerschach nicht wirklich viel zu tun. Ah und dann fertigen wir am besten ne Liste
An. Listen gehen immer.

Also was haben wir da.
Ne Liste mit vielen Programmen die sich alle ähnlich sind und die alle dasselbe maschinenschach spielen.

Wen sowas interessiert. Bittesehr.

Und jetzt. Wumms. 10 Partien.
Man könnte ja meinen Bobby Fischer spielt gegen Boris Spassky, USA gegen Russland.

Soviel Bewegung wie da drin ist.

Und vielleicht ist das ja auch ähnlich.

Da die Bean Counter. Und da der neue Kasten von Google.
Parent - - By Kurt Utzinger Date 2017-12-11 21:11
Peter Martan schrieb:

Ich hab mich ja auch in einen richtigen Wirbel hineingeschrieben in den ersten paar Tagen, aber jetzt nur, weil man ein paar ganz gute Züge gesehen hat von einem neuen Programm, deshalb gleich wieder alles, was die Blechis, die war haben, auch schon ganz gut konnten, (taktische Verwicklungen frühzeitig erkennen, einfach auch schon lange viel besser als Menschen, und mehr ist es einfach nicht, was A0 da "gezaubert" hat) in Bausch und Bogen zu verdammen, und alles, was wir in die paar Partien von A0 hineingeheimnissen können, in den Himmel zu heben, das finde ich beides ungefähr gleich emotional gesteuert.

Wir haben eben nicht mehr als wir haben, um uns ein fundierteres Urteil zu bilden, und wenn wir uns mit dem, was wir haben, schon zufrieden geben, werden wir auch nicht mehr bekommen, sag ich mal.


Hallo Peter
Mich wundert vor allem, weshalb Google nicht alle 100 Partien veröffentlicht. Dann könnte man sich ein besseres Urteil bilden.
Gruss
Kurt
Parent - - By Peter Martan Date 2017-12-11 21:22 Edited 2017-12-11 21:30
Hallo Kurt!
Das hat vermutlich ein paar Gründe, einer könnte sein, dass da ebenso wenige verschiedene Eröffnungen vorkommen wie in den 10 gezeigten.
Bei 10 fällt's noch nicht stark auf, bei 100 wär's schon ein bisschen augenfälliger.

Dann werden da schon auch ein paar Schachspieler am Werk gewesen sein bei der Auswahl, und ich gehe einfach davon aus, das werden die schönsten gewesen sein.
Irgendwelche mehr oder weniger nachweisbaren Fehler von SF sind in den 10 schon auch, ich würde annehmen, in den meisten anderen ist es noch klarer, wo SF gepatzt hat, wenn man nämlich SF auf guter Hardware mit ordentlicher Bedenkzeit Backwards machen lässt, wird sowas in den Foren heutzutage schnell aufgedeckt und breitgetreten.

Und dann kann's aber natürlich auch sein, es sollte einfach den Rahmen des Preprints nicht sprengen, dann bliebe immer noch die Frage, warum gerade diese 10.

Ich schließe die Sache jetzt für mich selbst erst mal ab, man hat sowieso keinen Einfluss darauf, was Google weiter macht, zumindest muss man mal abwarten, was es da an echter Veröffentlichung noch geben wird dazu, kommt diesbezüglich nichts mehr, wird's auch mit weiteren Tests wohl nix werden.

Dann können wir ja immerhin gemeinsam weiter davon träumen, was das für ein Schach hätte werden können, wenn sich Google den ökonomisch nutzlosen Luxus weiter geleistet hätte, A0 Schachspielen nicht nur aus dem Selfplay, sondern auch ein bisschen aus der menschlichen Eröffnungstheorie hätte lernen lassen.
Parent - By Ludwig Buergin Date 2017-12-11 22:47
Hallo Peter

   Es könnte schon sein, dass sie das Eine oder Andere noch bekannt geben.Auf welche Art sie das programmtechnisch ausgeführt und Siege dabei  eingefahren haben,das denke ich, würden sie sicher nicht gerne tun.Ich vermute,sie werden es zum Vorteil für Alle dabei belassen.

     Gruß Ludwig
Parent - - By Ingo Althöfer Date 2017-12-11 21:39 Upvotes 1
Lieber Herr Utzinger,

Kurt Utzinger schrieb:
Mich wundert vor allem, weshalb Google nicht alle
100 Partien veröffentlicht. Dann könnte man sich ein besseres Urteil bilden.


"wundern" wäre bei mir das falsche Wort. Aber die 100 Partien würde
ich schon gerne sehen, gerade auch die Rwemispartien.

Wieviele davon sind durch 50-Züge-Regel remis geworden?
Wie hat AlphaZero das Zählen gelernt (ode eben nicht gelernt)?
Oder hat DeepMind bei dem Match andere Remisregeln genommen?

Ingo Althöfer.
Parent - - By Thorsten Czub Date 2017-12-11 22:07
Das wird schon noch alles veröffentlicht werden.
Parent - By Kurt Utzinger Date 2017-12-12 10:24
Thorsten Czub schrieb:

Das wird schon noch alles veröffentlicht werden.


Hallo Thorsten
Das bezweifle ich, denn es hätte nicht mehr Arbeit
verursacht, alle Partien auf einmal in eine PGN
zu verpacken.
MfG
Kurt
Parent - By Olaf Jenkner Date 2017-12-11 15:04
Wir sprechen also von 1997. Da gab es schon richtig gute Schachprogramme.
Parent - By Benjamin Bahnsen Date 2017-12-11 14:49
Ich habe mir mal nach 1.e4 e6 2.d4 d5 3.Sc3 Sf6 4.e5 Sfd7 5.f4 c5 6.Sf3 den Zug 6...cxd4?! angeschaut und versucht zu reproduzieren. Unter Stockfish 7 ist dieser Zug niemals in den Top 3. Stockfish 8 bewertet 6...cxd4, 6...Sc6 und 6...Le7 jeweils mit 0.00, setzt aber leider 6...cxd4 an die Spitze. Dumm gelaufen...
Parent - - By Christian Bartsch Date 2017-12-12 14:43 Upvotes 1
Gestern erst erfuhr ich von diesem aufsehenerregenden Ereignis. Was ist geschehen?

Ein Team von Google hat eine Idee:

Sie wollen beweisen, daß die KI inzwischen einen weiteren Quantensprung gemacht hat und sich selbst verbessert – verselbstständigt – und uns Menschen überlegen ist.

Doch was eignet sich als bestes Mittel? Nun, etwas komplexes, hochintelligentes!

Schach! - aber um ein wenig transparenter zu sein, nimmt man das in nichts nachstehende Go als 2. Modell und schließlich das in Asien, besonders im bevölkerungsreichen
China – exotische Shogi-Chess dazu.

Um es wirksam zu präsentieren vertieft man die Erklärungen zum Schach, es gibt eben mehr Hobbyschachspieler als Shogi-Chess Spieler auf der Welt.

Ein kleines Schachteam wird eingestellt, die schnell zu der Überzeugung kommen, daß ein von Menschen geschaffenes Schachprogramm deutlich wirksamer den Vergleich offenbart.
Es ist allgemein bekannt, daß kein menschlicher GM mehr Chancen hat gegen die Programme.

Das dann noch die Auswahl der 10 besten Partien erfolgt hegt den Verdacht, es geht den Leuten gar nicht darum Stockfish, Tord und sein Team bloßzustellen. Sie sind eben nicht daran
interessiert die Schachszene mit Götterschach zu überschwemmen und zu beweisen das 1. d2-d4 in 99 % der Fälle siegreich ist. Und 1. c2-c4 in 98,6666 %

Es geht um den Fakt, das etwas unabhängiges vom Menschen besser ist als der Mensch mit seinem Wissen. Die Aufregung legt sich bestimmt genauso schnell wie damals beim Sieg von Deep Blue.

Als gelegentlicher Schachspieler sehe ich natürlich Probleme.

Es ist schade, daß man den Vergleich mit nur einem Schachprogramm im Zweikampf bei außerdem diskutierbaren Voraussetzungen durchführte und nicht ein Turnier durchführt.

Aber vielleicht … lieber Tord ich weiß du liest sporadisch hier mit, also mit Augenzwinkern… ja vielleicht wurde von Google gesagt: wir kaufen die Schweigepflicht von Tord und seinem Team, er bekommt natürlich sämtliche ( also alle, nicht nur die von Stocki )  PGN nebst Auswertungen, darf offiziell rummosern ob der Bedingungen, aber niemals ohe unser Einverständnis die Partien oder Fragmente veröffentlichen. Das mag im Advent spekulative Spekulatius sein, aber wer weiß den schon? Vielleicht veröffentlichen sie die 100 Partien, vielleicht auch nicht. Es geht eben in ihrer Idee eben genau nicht darum das Schach, die Programme oder Tords Leistung zu beerdigen. Das ist für uns bedauerlich, haben wir aber zur Kenntnis zu nehmen.

Mag sein es gibt Doubletten, mag sein die anderen Partien sind langweilig oder heben sich nicht ab von den anderen Programmen. Für mich ist der Fakt, daß angeblich ohne menschliches Wissen der AlphaZero  in 4 h besser Schach spielt als die Menschheit zusammen das Entscheidene. Und nur darum ging es in diesem Projekt, Schach hatte Glück mit seinen "mehr Möglichkeiten als Atome im All" Ruf.

Und da stutze ich in dem PDF-Bericht bei den Quellen dann doch, wo bespw. Dr. Lasker Common Sense of Chess erwähnt wird. Also mehr Wissen als nur die Grundregeln zur Verfügung gestellt?

Das Experiment wäre auch bei einer knappen Niederlage meines Erachtens ein Erfolg, aber heute geht es eben nur um Sieger und die Besten.

Führende Schachgroßmeister waren überrascht, geschockt, erschrocken ob der Spielweise die sie in 10 Partien gesehen haben. Und dieser Umstand sollte uns / zumindest den Gelegenheitsspielern vielmehr Aufmerksamkeit zu Teil werden lassen.

Vor 100 Jahren waren Lasker, Capablanca, Niemzovitch Menschen die Schachspieler waren.
Bis letzten Mittwoch oder bei mir gestern waren Carlsen, Anand, Ivanchuk Schachspieler die Menschen sind.
Die menschliche Schachwelt in ihren Elo-Kasten System ist für mich wieder sehr viel enger zusammengerückt.

Ich bin gespannt, aber auch beunruhigt, wohin die KI noch zu meinen Lebzeiten hinsteuert .

Übrigens ist mir auf die Schnelle aufgefallen das A0 scheinbar den Läufer sehr viel höher bewertet als den Springer.

Hach, und die Opferei Marke Romantik – ich freue mich für den guten alten Tschigorin, das er posthum vielleicht
doch  mit seinen Ansichten einst genauso nah an der Wahrheit wie Steinitz war.

Micha, ich habe immer an dich und deine Nachfolger geglaubt.
Parent - By Michael Scheidl Date 2017-12-12 15:12
Tord Romstad hat vor einigen Tagen ein Statement auf chess.com abgegeben:

Zitat:
"The match results by themselves are not particularly meaningful because of the rather strange choice of time controls and Stockfish parameter settings (...)"

https://www.chess.com/news/view/alphazero-reactions-from-top-gms-stockfish-author
(siehe am Ende des Artikels)
- - By Guenter Stertenbrink Date 2017-12-12 05:45 Edited 2017-12-12 06:11 Upvotes 1
einige snippets in Englisch nach etwas googling :

17. Sept. 2017 ... An der Online-Akademie Udacity kann man in neun Monaten den
Ingenieursabschluss Autonomes Fahren erwerben. Kursleiter David Silver...

----------------------------------------------------------

https://www.youtube.com/watch?v=1NsypIvanY8

Silver is the main programmer on the AlphaGo algorithm,

useful to helping scientists with some of society’s toughest and most pressing problems,
from climate modelling to complex disease analysis. That being said, it’s very early days.
We are decades away from human level AGI.

Silver interview 2016/04/06

The AlphaGo project lasted around two years and 100 man-months of effort.

DeepMind has around 250 employees. AlphaGo scaled up incrementally from an initial
pilot project with Aja Huang and myself, through to a larger effort with around 10 researchers.

I've been trying to solve the game of Go for over ten years

atGM Peter Leko im Interview | Neuerung im Najdorf Sizilianer ...

http://www.3rd-solution.com/2017/11/why-alphago-zero-is-quantum-leap.html

[ blog , Nov.22.2017 , dunno who writes this ]

David Silver, of DeepMind, has an even more bold claim:

It's more powerful than previous approaches because by not using human data, or human
expertise in any fashion, we've removed the constraints of human knowledge and it is able
to create knowledge itself.

4 Google TPUs ( 180 teraops each ) as compared to 48 TPUs for previous systems.
So anyone will four Volta based Nvidia GPUs has the horse power to replicate these results.

The overall network depth, in the 20- or 40-block network, is 39 or 79 parameterized layers,
respectively, for the residual tower, plus an additional 2 layers for the policy head and 3 layers
for the value head.

DeepMind has publicly stated that they will be applying this technology to drug discovery.

If I were to pinpoint the one pragmatic Deep Learning discovery in AlphaGo Zero then
it would be the fact that Policy Iteration works surprisingly well using Deep Learning
networks. We've have hints in previous research that incremental learning was a
capability that existed. However, DeepMind has shown unequivocally that incremental
learning indeed works effectively well.

--------------------------------------

Silver says that similar techniques can be applied to other structured problems,
such as protein folding, reducing energy consumption or searching for revolutionary
new materials,

According to the DeepMind team, "these moments of creativity give us confidence
that AI will be a multiplier for human ingenuity, helping us with our mission to solve
some of the most important challenges humanity is facing." [Source]
http://www.33rdsquare.com/2017/10/only-year-ago-deepminds-alphago.html

Nick Bostrom Explains How The Advent of Human-Level Artificial Intelligence Might Not Last Very Long

--------------------------

deepmind-blog : https://deepmind.com/blog
Parent - - By Guenter Stertenbrink Date 2017-12-12 07:19
was denkt Ihr ?
mir erscheint es wahrscheinlich, dass Silver und Hassabis nicht das sagen, was sie wirklich denken,
sondern die Chancen der Idee moeglichst rosig darstellen

(wie es ja ueblich ist im Wirtschaftsleben , im Gegensatz zu dem Geplaudere mit Mitschuelern,
Freunden, Kommilitonen zuvor , die einen mit immer mehr eigenen, ehrlichen
Gedanken ueberhaeufen, was einem dann schon eher zuviel wird)

z.B. wenn es Probleme gibt, glaubt Ihr die wuerden das sagen ?
Parent - By Peter Martan Date 2017-12-12 07:56
Guenter Stertenbrink schrieb:

z.B. wenn es Probleme gibt, glaubt Ihr die wuerden das sagen ?

Nein, sonst hätten sie schon von vornherein gegen einen SF mit Buch und vernünftigen TCs spielen lassen (haben sie ja vielleicht eh auch schon, vielleicht sogar zuerst? Pfui, Peter!) und wenigstens alle 100 Partien zum Download bereitgestellt (ich meine, sowas muss man ja heutzutage nicht alles als Text in einem .pdf andrucken, oder?)
Parent - - By Peter Martan Date 2017-12-12 07:50 Edited 2017-12-12 08:43
Guenter Stertenbrink schrieb:

atGM Peter Leko im Interview | Neuerung im Najdorf Sizilianer ...

<a class='ura' href='http://www.3rd-solution.com/2017/11/why-alphago-zero-is-quantum-leap.html'>http://www.3rd-solution.com/2017/11/why-alphago-zero-is-quantum-leap.html</a>


Der Link hab aber nix mit dem Leko- Interview zu tun, nein? Ich meine nur, es kam ein bisschen so rüber, als hätte es.

Wenn ich im Video vom ersten Link übers Autofahren höre, fürchte ich mich auch schon ein bisschen, ehrlich gesagt, aber wenn im Text vom anderen Link von politischen Entscheidungen die Rede ist, fürchte ich mich gleich noch viel mehr.

Ok, soviel ist jedenfalls noch anzumerken: dass sich Google mit seiner AI- Forschung so stark mit self-play reinforcement learning bei Go auf eine derart ausführliche öffentliche Art beschäftigt hat, ist ja schon ziemlich exotisch gewesen, aber die Idee, human Input beim Selbstlernen weitgehend bis völlig auszuklammern, mag gerade bei dieser bis dahin vielleicht letzten Domäne menschlicher Spielkunst ganz besonders des Beweises der Überlegenheit über den menschlichen Meister bedurft haben.

Dass man beim Schach den Vergleich mit menschlicher Leistung außer anhand der der Computerschachprogrammierer und des gespeicherten Eröffnungs"wissens" testen könnte, ist halt so, eventuell noch den menschlichen Umgang mit beidem könnte man einfließen lassen.
Aber ob sich Google bei alledem, was "es" da noch so vorhat, nicht wirklich ausführlich mit der Widerlegung von Eröffnungsvarianten befassen wird, die gerade die Schachwelt interessieren, könnte ich schon auch verstehen.

Und eigentlich ist es mir eh auch lieber, sie konzentrieren sich mehr auf die wesentlicheren Dinge, in der Hoffnung, wenigstens sie wissen dabei noch irgendwie, was sie tun, wenn sie schon beginnen, stolz darauf zu sein, dass sie es bei der Anwendung selbst nicht mehr zu verstehen brauchen, weil sie sich eh gar nicht mehr selbst einmischen wollen (etwas polemisch formuliert).

Solches wie der Schlusssatz aus dem 3rd Solution- Artikel macht mich schon immer recht nachdenklich:

Zitat:

Such irony, when DeepMind trained an AI without human bias, humans discovered they didn't understand It! This in another dimension of incomprehensibility. The concept of "incomprehensibility in the large" in that there is just too much information. Perhaps there is this other concept, that is "incomprehensibility in the small". That there are primitive concepts that we simply are incapable of understanding. Let this one percolate in your mind for a while. For indeed it is one that is fundamentally shocking and a majority will overlook what DeepMind may have actually uncovered!.


Und wie sie das Selbstlernen z.B. bei den Sprachanwendungen ohne human Input weiter vorantreiben werden, bin ich schon auch neugierig. Vielleicht klappt das ja auch deshalb immer noch nicht wirklich über Jeopardy hinaus.

Ironiemodus wieder aus, eigentlich bin ich gerade beim Text to Speech und beim Translator schon recht kleinlaut in der letzten Zeit, spätestens seit ich mich mit dem "Es ist nicht alles Gold, was glänzt" blamiert habe.

Edit: das hier aus dem Quote oben,
"Perhaps there is this other concept, that is "incomprehensibility in the small". That there are primitive concepts that we simply are incapable of understanding."
, muss ich noch einmal eigens hervorheben.

Was da so neuerlich erstaunlich gefunden wird, ist dem Menschen, mit seiner alten Unfähigkeit, den Mikrokosmos ebenso wenig wie den Makrokosmos zu erfassen, eigentlich schon auch länger bewusst gewesen, denke ich.
Ob wir jetzt dann das Verständnis für das für den Menschen zu Kleine und das zu Große wirklich von einer AI lernen werden, die gar nicht dazu gedacht ist, in ihren Ergebnissen und in ihren Wegen zur Entscheidung vom Menschen verstanden zu werden, scheint in sich fraglich.
Und es mag ja die Idee dahinter stecken, der Mensch brauche nicht zu verstehen, was die Maschine besser kann und weiß als er, diese Idee ist aber hinterfragenswert.

Es fällt mir immer wieder kein besserer Vergleich ein, als der mit dem Kishon'schen Satz von der Maschine, die die Kartoffeln anbaut, erntet, kocht, schält und aufisst.
Parent - By Ludwig Buergin Date 2017-12-12 11:42
Die Spielweise von Go ist für einen schnellen Computer bei entsprechender Programmierung sicherlich  einfach , da es nur immer den einen Zustand zu vermeiden gilt.
   Beim Schach gehen sie eher in Richtung ihres selbstfahrendes Auto vor.Wenn sich jeder an die Verkehrsregeln hält,was ja einprogrammiert ist,dann klappt das sicherlich auch gut.Wenn es aber zu einem Unfall durch einen andern Teilnehmer kommt,das kann das selbtfahrende Auto nicht voraus berechnen.
   Beim Schach gehen die Google-Leute genau so vor.Nur in diesem Falle werden sie vom Gegner nicht überrascht, sondern der präsentiert ihnen auf dem Silberteller noch seine Berechnungen.Dadurch  gestaltet  es sich für sie leicht ihre Reise ans Ende zu führen

   

    Gruß Ludwig
Parent - - By Guenter Stertenbrink Date 2017-12-14 06:35
1170000 kn/s , 50 of my Ryzen 1700x

> It used 4 of googles tensor processing units (TPUs) which might be equivalent to
> about 1000 Intel cores (say 14 of the latest 72-core Xeons)


167484522  4x Intel Xeon E7-8890 v3 @2.5Ghz 144 threads BMI2 drudru42

https://www.chess.com/forum/view/general/objectively-speaking-is-magnus-a-patzer-compared-to-stockfish-and-alphazero?page=8
Elroch

a course on reinforcement learning. One gentle introduction is this 10 lecture course
by David Silver of the DeepMind team. Very enjoyable and informative:

https://www.youtube.com/playlist?list=PLzuuYNsE1EZAXYR4FJ75jcJseBmo4KQ9-

Those TPUs cost half a million bucks.

NN computations work very well on TPUs, better than on GPUs and much better than on CPUs.
For the type of computation it is about 15 to 30 times faster (sayed by Google about TPUv2),
so remove the last zero from your 1000 to be more realistic.

The team includes at least 3 chess programmers. Matthew Lai, the author of Giraffe
and Talkchess member, is one of them. It is maybe for a reason that Giraffe,
following the very same approach as Alpha, is rated only around 2400 on single core.
It is the huge hardware that made the difference and not the approach.

Google’s TPU has a matrix math unit that contains 65,536 multiply/accumulate units.
These are not anything nearly as powerful as a general purpose CPU, and they can
only be used for a limited amount of math, but as it happens, that sort of math is
what drives all of the AI neural network software.

Neric : Apparently the Google hardware
is about 18 times faster than a modern workstation.

superb YLCET, alnog with Graham's and FastGM and Ebejer's matches!
http://abrok.eu/stockfish/comment

https://www.quora.com/profile/Matthew-Lai-17

Interview mit Matthew Lai in Deutsch:ueber Giraffe , ca.2016
https://motherboard.vice.com/de/article/yp37ax/diese-ki-giraffe-lernt-mit-deep-learning-in-72-stunden-schach-auf-weltniveau-864

Giraffe paper 2015 :  https://arxiv.org/abs/1509.01549
Parent - By Guenter Stertenbrink Date 2017-12-14 15:16 Edited 2017-12-14 15:55
chessprogramming hat bereits einen Artikel mit etlichen links
zu Forum-Threads

https://chessprogramming.wikispaces.com/AlphaZero

ich fand noch keine Schaetzung, wieviel Elo das
Programm auf normaler Hardware hat

-------------edit=========================
http://www.talkchess.com/forum/viewtopic.php?t=59003
Mstthew Lai in Jan.2016
there are several techniques I can try that will probably drastically improve Giraffe,
when I can't try them because they are still trade secret
Machine learning has defeated hand-crafted systems in just about every other field.
That will happen in chess, too, and the only question is when.
https://bitbucket.org/waterreaction/giraffe/overview
Up Topic Hauptforen / CSS-Forum / AlphaZero - einige Gedanken

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill