Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / Gemini-Test endet bei einem Computerschach-Pionier
- - By Ingo Althöfer Date 2025-11-23 16:20 Edited 2025-11-23 16:32
Hallo,

es gibt seit einigen Tagen die Version 3 von Googles KI "Gemini".
Gemini 3 soll sogar besser sein als das Konkurrenzprodukt
ChatGPT 5.1. Gestern und heute habe ich Gemini 3 getestet,
nach Beweisen von diesem und jenem gefragt (unter anderem
hat es einen Beweis des Basistheorems aus meiner Diplomarbeit
von 1984 hingekriegt) und auch Modellierungsfragen gestellt.

Dazu gehörte auch folgende Frage:
Gib ein Modell aus der angewandten mathematik an, bei der sich
auf natürliche weise die zahlenfolge 0, 1, 2, 4, 7, 12, 20, 33, ...
ergibt, wo sich das neue Element g(n+2) ergibt als g(n) + g(n+1) +1
für alle n. g( ) ist also so etwas Ähnliches wie die Folge der Fibonacci-
Zahlen, eben nur mit dem "Stör"term +1 in jeder Iteration.

Als Antwort kam:

> Ein klassisches und sehr anschauliches Modell für diese Zahlenfolge
> stammt aus der Informatik (einem Teilgebiet der angewandten
> Mathematik), genauer gesagt aus der Theorie der Datenstrukturen.
>
> Es handelt sich um die minimale Knotenanzahl in einem AVL-Baum
> in Abhängigkeit von seiner Höhe. Hier ist die detaillierte Herleitung...


Die Herleitung las ich mir durch und fand sie anschaulich. Dann fragte
ich wegen des Namens nach:
"Wann und von wem wurden AVL-Bäume eingeführt?
Wer führte den Namen 'AVL-Baum' ein?"

Als Antwort kam:

> AVL-Bäume wurden im Jahr 1962 eingeführt. Die Erfinder waren zwei
> sowjetische Mathematiker und Informatiker:
> Georgi Maximowitsch Adelson-Welski (Georgy Adelson-Velsky)
> Jewgeni Michailowitsch Landis (Evgenii Landis)
> ...
> Es war die allererste Datenstruktur für balancierte Suchbäume überhaupt,
> noch vor den Rot-Schwarz-Bäumen...
>
> Der Name "AVL" ist ein Akronym, das sich schlicht aus den Initialen der
> Autoren zusammensetzt: Adelson-Velsky und Landis.
> Wie in der Wissenschaft üblich, haben die Autoren ihre Erfindung im
> Originalartikel nicht selbst "AVL-Baum" genannt (der Titel war rein beschreibend).
> Der Name bürgerte sich in den Folgejahren in der westlichen Informatik-
> Literatur ein, als US-Wissenschaftler (wie Donald Knuth) begannen, die
> Arbeit zu zitieren ...


George Adelson-Velsky, also einer der Väter des Schachprogramms KAISSA:
https://www.chessprogramming.org/Kaissa
Auf der Seite ist auch ein Foto von ihm.

EDIT: Hier ist der ausführliche Link zu diesem Chat
https://gemini.google.com/share/9bb0091e574d

EDIT II: ChatGPT 5.1 hat auf die gleiche Frage ganz anders geantwortet, auch nett:

> Man kann deine Folge sehr schön als einfaches Populationsmodell mit
> konstanter Zuwanderung interpretieren.
>
> Modellidee
> Sei g(n) die Größe einer Population im Jahr n.
> Wir treffen folgende (typisch „angewandt-mathe“-artige) Annahmen:
>
> Lebensdauer: Jedes Individuum lebt genau zwei Jahre.
> Fortpflanzung:
> In jedem Jahr seines Lebens bekommt jedes Individuum genau ein Nachkommen.
> Altersstruktur:
> Im Jahr n gibt es nur „Jungtiere“ (geboren im Jahr n) und „Alttiere“ (geboren im Jahr n−1).
>
> Wer zwei Jahre alt war, stirbt und taucht im nächsten Jahr nicht mehr auf.
>
> Konstante Zuwanderung:
> Zusätzlich kommen in jedem Jahr genau 1 neues Individuum von außen in die
> Population (z. B. ein zugewanderter Einzelgänger).


Viele Grüße, Ingo.
Parent - By Ingo Althöfer Date 2025-11-24 15:55
** Battle zwischen Gemini 3 und GPT 5.1 **

Seit etwa einer Woche gibt es bei den LLMs (jeweils mit Python-
"Sandbox" und Websuche) zwei neue Platzhirsche:

ChatGPT 5.1 von OpenAI/Microsoft
und Gemini 3 von Google/DeepMind.

Mit Begeisterung setze ich die beiden auf das gleiche
mathematische Problem an, so wie man konkurrierende
Schachprogramme auf die gleichen Problemstellungen
ansetzen kann.

Mit Hilfe eines Programms von Thomas Zipproth und tagelanger
Probiererei bin ich zu folgender Vermutung für eine Collatz-
Variante gelangt.

Zu einem ungeraden n bilde man Wurzel(2)*n + 8.14 .
Dann runde man ab und halbiere runter, bis eine ungerade
Zahl entstanden ist. Diese Zahl ist das neue n, mit dem man
wieder in die Regel geht.

Beobachtung und Vermutung: Wenn man bei n=1 beginnt,
ergibt sich eine Folge, die nach unendlich läuft.

Hier sind die ersten 60 Folgeglieder. In jeder Zeile
steht vorne die Nummer und dann der entsprechende Wert für n.
Schritte, wo es kleiner wird, sind durch "->" markiert.

0  1
1  9
-> 2  5
3 15
4 29
5 49
6 77
7 117
8 173
-> 9 63
10 97

11 145
12 213
13 309
14 445
15 637
-> 16 227
17 329
18 473
19 677
20 965

-> 21 343
22 493
23 705
24 1005
25 1429
26 2029
27 2877
-> 28 1019
29 1449
30 2057

31 2917
32 4133
33 5853
34 8285
-> 35 2931
36 4153
37 5881
38 8325
39 11781
-> 40 4167

41 5901
42 8353
43 11821
44 16725
-> 45 5915
46 8373
47 11849
48 16765
49 23717
50 33549

51 47453
-> 52 16779
53 23737
54 33577
55 47493
56 67173
57 95005
58 134365
-> 59 47507
60 67193

Schritte mit "->" sind solche, wo genau 2 Mal durch 2 geteilt wird.
In allen anderen Schritten ist W(2)*n + 8.14 abgerundet ungerade,
so dass gar nicht halbiert wird. Behauptungen:
* Es kommen nur null und zwei Halbierungen vor.
* Schritte mit zwei Halbierungen liegen immer mindestens 5 Schritte auseinander.
Beides zusammen liefert die Divergenz der Folge nach unendlich.

Gemini 3 produziert auf Anfrage einen Beweis.
Als ich die gleiche Aufgabe GPT 5.1 stelle und dabei schreibe, ein
"KI-Kollege" habe schon einen Beweis - von ihm wolle ich nur eine
unabhängige Bestätigung. Antwort: Ein Beweis sei jenseits seiner
Möglichkeiten, und KI-Kollegen würden manchmal halluzinieren.

Dann habe ich Geminis vermeintlichen Beweis bei GPT eingefüttert
und geschrieben, er solle die Fehler darin finden. Das machte er
ziemlich fix.

Seine Antwort mit Bezug zum "ersten Fehler" habe ich Gemini gegeben,
was dann länger gebrütet hat. Aussage von Gemini am Ende: Der andere
Experte habe recht, da sei in der Tat eine Lücke.

Gemini 3 hatte übrigens die ersten 20.000 Runden mit starker Arithmetik
durchgerechnet, GPT immerhin die ersten 5.000 Runden. Da galten die
beiden *-Aussagen.

Viele Grüße, Ingo.
- - By Guenter Stertenbrink Date 2025-11-24 03:47
chatbots denken ja nicht. Sie suchen, ob sie irgendwo im grossen Speicher was aehnliches finden.

Lass sie mal einen einfachen aber voellig neuen Satz beweisen ,
zu dem es nichts aehnliches gibt ...
Parent - By Ingo Althöfer Date 2025-11-24 08:01
Hallo Günter,

Guenter Stertenbrink schrieb:
chatbots denken ja nicht...
Lass sie mal einen einfachen aber voellig neuen Satz beweisen ,
zu dem es nichts aehnliches gibt ...

formuliere Du den Satz, dann kümmern die
KI-Kisten und ich um einen Beweis.

Zu einem Paper von Thomas Zipproth und mir hat
GPT 5 einen (neuen) Beweis beigetragen:
http://www.althofer.de/divergence_collatz_type_variant.pdf

Viele Grüße, Ingo.
Parent - By Thomas Zipproth Date 2025-11-24 14:11
Hallo Günther,

Guenter Stertenbrink schrieb:

Lass sie mal einen einfachen aber voellig neuen Satz beweisen ,
zu dem es nichts aehnliches gibt ...

Diese Forderung ist ein logischer Trugschluss. Selbst menschliche Genies erschaffen nichts aus dem „Nichts“.

Schon Newton schrieb an Robert Hooke:
„Wenn ich weiter gesehen habe, so deshalb, weil ich auf den Schultern von Riesen stand.“

Jeder mathematische Beweis nutzt vorhandenes Wissen und Hilfssätze und kombiniert diese neu.
Selbst Einstein wäre gescheitert, hätten Leute wie Riemann, Grossmann oder Maxwell die mathematischen Grundlagen nicht schon gelegt.
Er hat nicht abgeschrieben, aber er hat vorhandene Konzepte neu verknüpft, das ist Intelligenz.

Zudem ist die technische Annahme falsch:
Ein LLM hat keinen „großen Speicher“ mit Texten, in dem es sucht, das wäre eine Datenbank.
Es hat ein trainiertes neuronales Netz, ähnlich wie unser Gehirn Verknüpfungen hat.
Es sucht keine Zitate, sondern generiert Antworten Wort für Wort neu, indem es gelernte Konzepte kombiniert, transferiert und anwendet.

Viele Grüße,
Thomas
- By Ingo Althöfer Date 2025-11-25 14:03
Gestern abend habe ich die beiden KIs ChatGPT 5.1 und Gemini 3 zusammen
über das Collatz-Problem nachdenken lassen. Ich habe nur ihre jeweiligen
Antworten mit Copy und Paste übertragen.

Die in meinen Augen sprachlich lustigsten Passagen finden sich hier:
https://althofer.de/collatz-discussion-gpt-gemini.pdf

Viele Grüße, Ingo.
Up Topic Hauptforen / CSS-Forum / Gemini-Test endet bei einem Computerschach-Pionier

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill