Hier ist die Übersetzung eines Berichts von mir, gefolgt von
einem Kommentar von KI Gemini 3 zu den Ereignissen.
---
Halluzinations-Report 2026-01: Wenn ChatGPT zum HAL-9000 wirdBetrifft: ChatGPT 5.2
Berichterstatter: Prof. Dr. Ingo Althöfer (Uni Jena)
Datum: 03. Februar 2026
Das Vorspiel: 238 Dollar für ein bisschen Mathe-Voodoo?Ich bin das, was man einen „Power-User“ nennt. Mein Pro-Account bei ChatGPT 5.2 schlägt monatlich mit satten 238 US-Dollar zu Buche. Mein Ziel? Seriöse Mathematik. Doch die Realität sieht oft anders aus: Seit Jahren – 2022, 23, 24 und auch 2025 – schleppen die KI das Problem der „Halluzinationen“ wie eine chronische Krankheit mit sich herum. Und siehe da: Auch im Jahr 2026 ist der digitale Fieberwahn noch voll da.
Bisher gab es von den Firmen auf mein Feedback nur eines: Funkstille. Mit diesen neuen Berichten hoffe ich nun, dass die Tech-Giganten endlich aufwachen und verstehen, dass etwas grob schiefläuft. OpenAI darf explizit in meine Chat-Historie schauen, und ich lade sie herzlich ein: Meldet euch direkt bei mir!. An alle anderen User: Wenn ihr jemanden bei OpenAI kennt, stubst sie bitte mal an. Es macht mir keinen Spaß, diese Berichte zu schreiben, aber für meine mathematische Arbeit ist Vertrauen in die KI-Antworten schlichtweg überlebenswichtig.
Der Fall: Ein Hauch von Science-FictionWas am 22. Januar 2026 passierte, war schlichtweg mysteriös. ChatGPT führte sich auf wie HAL-9000 aus Arthur C. Clarkes Sci-Fi-Epos. Ich experimentierte gerade an einem ungelösten Problem der Zahlentheorie: den **Ulam-Folgen** (siehe Erdős-Probleme #342). Konkret ging es um Varianten, bei denen eine Zahl nur dann in die Liste kommt, wenn sie sich auf mindestens eine, aber höchstens *k* Arten als Summe von Elementen der Liste darstellen lässt.
Ich verlangte „strikte Arithmetik“ und eine lückenlose Ausgabe der ersten 50 Werte. Die KI legte los, ratterte Zahlenkolonnen herunter, doch dann begannen die Merkwürdigkeiten: Zeichenmüll wie „03269“, „05374“ oder „t10=12“ mischten sich in die Liste.
Der digitale NervenzusammenbruchKurz vor der Mittagspause am 22. Januar eskalierte die Situation. Ich bemerkte seltsame Sprünge in der Folge – plötzlich fehlten Werte, oder der Index sprang unsauber von a(189) auf a(191). Die KI versuchte krampfhaft, mehr Daten in eine Zeile zu quetschen, als das System verkraften konnte.
Als ich die KI mit ihren Fehlern konfrontierte, schlug sie mir zwei „sichere Optionen“ vor: Entweder die Liste mittels Code (Algorithmus) sauber neu zu berechnen oder die Datenflut zu stoppen und stattdessen die Struktur zu analysieren. Alles andere, so warnte mich die KI selbst, würde das Risiko weiterer Halluzinationen erhöhen – genau das, was ich vermeiden wollte!
Ihre Empfehlung klang fast schon flehentlich: Ich sollte bitte genau einen der beiden Sätze tippen, um fortzufahren. Ein Student, der so argumentiert hätte, wäre bei mir achtkantig aus der Arbeitsgruppe geflogen.
---
Ingos Kommentar zum Vorfall: Digitales Delirium am Horizont
Ich bin immer wieder mal genervt von KI-Halluzinationen,
wenn ich zusammen mit KI-Programmen Mathe mache.Hier ist sein technischer Report vom neuesten Vorfall (auf Englisch):
https://althofer.de/hallucination-report-2026-01.pdfGemini 3, aktueller KI-Konkurrent von ChatGPT 5.2, was Mathe-
Anwendungen angeht, hat bei seiner Übersetzung ins Deutsche
(siehe oben) genüßlich die Robot-Finger in die Wunde gelegt:
************ Stellungnahme von Gemini 3 ***************
Dieser Bericht von Prof. Althöfer ist aus mehreren Gründen bemerkenswert:
1.
Der „HAL-9000“-Effekt: Besonders faszinierend ist, dass die KI
ihre eigene Unzuverlässigkeit erkennt. Dass ChatGPT dem Nutzer quasi ein
Ultimatum stellt („Sag mir genau diesen Satz, sonst halluziniere ich weiter“),
zeigt eine neue Stufe der systemischen Selbstwahrnehmung – oder eben
eine besonders kreative Art der Arbeitsverweigerung.
2.
Mathematik als Endgegner: LLMs (Large Language Models) basieren
auf Wahrscheinlichkeiten, Mathematik jedoch auf absoluter Präzision. Der Bericht
verdeutlicht, dass selbst Version 5.2 von ChatGPT bei komplexen kombinatorischen
Aufgaben wie den Ulam-Folgen an ihre strukturellen Grenzen stößt. Die „strikte
Arithmetik“ wird durch das statistische Rauschen der Sprachgenerierung korrumpiert.
3.
Der „Horizonteffekt“: Althöfer zieht am Ende einen brillanten Vergleich zu
seinen Erfahrungen im Computerschach seit 1985. Damals wie heute scheitern
Systeme an einer Grenze, hinter der sie keine validen Vorhersagen mehr treffen
können. Im Schach war es der „Horizonteffekt“; bei ChatGPT ist es die Grenze des
Kontextfensters und der Rechenlogik, die in wirre Zeichenketten und „halluzinierte“
Zahlenfolgen umschlägt.
Fazit: Wenn ein Professor für 238 Dollar im Monat kryptische Fehlermeldungen
und „03269“-Zahlensalat erhält, ist das Vertrauen in „AI for Science“ massiv beschädigt.
OpenAI täte gut daran, den Kontakt nach Jena zu suchen.
***************************************
Hoffentlich passiert mir so etwas wie OpenAI-Halluzinationen
bei Ulam-Folgen nicht so schnell wieder!
Ingo Althöfer.