Guenter Stertenbrink schrieb:
Der Link hab aber nix mit dem Leko- Interview zu tun, nein? Ich meine nur, es kam ein bisschen so rüber, als hätte es.
Wenn ich im Video vom ersten Link übers Autofahren höre, fürchte ich mich auch schon ein bisschen, ehrlich gesagt, aber wenn im Text vom anderen Link von politischen Entscheidungen die Rede ist, fürchte ich mich gleich noch viel mehr.
Ok, soviel ist jedenfalls noch anzumerken: dass sich Google mit seiner AI- Forschung so stark mit self-play reinforcement learning bei Go auf eine derart ausführliche öffentliche Art beschäftigt hat, ist ja schon ziemlich exotisch gewesen, aber die Idee, human Input beim Selbstlernen weitgehend bis völlig auszuklammern, mag gerade bei dieser bis dahin vielleicht letzten Domäne menschlicher Spielkunst ganz besonders des Beweises der Überlegenheit über den menschlichen Meister bedurft haben.
Dass man beim Schach den Vergleich mit menschlicher Leistung außer anhand der der Computerschachprogrammierer und des gespeicherten Eröffnungs"wissens" testen könnte, ist halt so, eventuell noch den menschlichen Umgang mit beidem könnte man einfließen lassen.
Aber ob sich Google bei alledem, was "es" da noch so vorhat, nicht wirklich ausführlich mit der Widerlegung von Eröffnungsvarianten befassen wird, die gerade die Schachwelt interessieren, könnte ich schon auch verstehen.
Und eigentlich ist es mir eh auch lieber, sie konzentrieren sich mehr auf die wesentlicheren Dinge, in der Hoffnung, wenigstens sie wissen dabei noch irgendwie, was sie tun, wenn sie schon beginnen, stolz darauf zu sein, dass sie es bei der Anwendung selbst nicht mehr zu verstehen brauchen, weil sie sich eh gar nicht mehr selbst einmischen wollen (etwas polemisch formuliert).
Solches wie der Schlusssatz aus dem 3rd Solution- Artikel macht mich schon immer recht nachdenklich:
Zitat:
Such irony, when DeepMind trained an AI without human bias, humans discovered they didn't understand It! This in another dimension of incomprehensibility. The concept of "incomprehensibility in the large" in that there is just too much information. Perhaps there is this other concept, that is "incomprehensibility in the small". That there are primitive concepts that we simply are incapable of understanding. Let this one percolate in your mind for a while. For indeed it is one that is fundamentally shocking and a majority will overlook what DeepMind may have actually uncovered!.
Und wie sie das Selbstlernen z.B. bei den Sprachanwendungen ohne human Input weiter vorantreiben werden, bin ich schon auch neugierig. Vielleicht klappt das ja auch deshalb immer noch nicht wirklich über Jeopardy hinaus.
Ironiemodus wieder aus, eigentlich bin ich gerade beim Text to Speech und beim Translator schon recht kleinlaut in der letzten Zeit, spätestens seit ich mich mit dem "Es ist nicht alles Gold, was glänzt" blamiert habe.
Edit: das hier aus dem Quote oben,
"Perhaps there is this other concept, that is "incomprehensibility in the small". That there are primitive concepts that we simply are incapable of understanding."
, muss ich noch einmal eigens hervorheben.
Was da so neuerlich erstaunlich gefunden wird, ist dem Menschen, mit seiner alten Unfähigkeit, den Mikrokosmos ebenso wenig wie den Makrokosmos zu erfassen, eigentlich schon auch länger bewusst gewesen, denke ich.
Ob wir jetzt dann das Verständnis für das für den Menschen zu Kleine und das zu Große wirklich von einer AI lernen werden, die gar nicht dazu gedacht ist, in ihren Ergebnissen und in ihren Wegen zur Entscheidung vom Menschen verstanden zu werden, scheint in sich fraglich.
Und es mag ja die Idee dahinter stecken, der Mensch brauche nicht zu verstehen, was die Maschine besser kann und weiß als er, diese Idee ist aber hinterfragenswert.
Es fällt mir immer wieder kein besserer Vergleich ein, als der mit dem Kishon'schen Satz von der Maschine, die die Kartoffeln anbaut, erntet, kocht, schält und aufisst.