Not logged inCSS-Forum
Forum CSS-Online Help Search Login
CSS-Shop Impressum Datenschutz
Up Topic Hauptforen / CSS-Forum / ChatGPT++ Stellung Ethikrat
1 2 Previous Next  
- - By Ingo Althöfer Date 2023-03-23 09:42
Hallo,

der deutsche Ethikrat hat eine sehr ausführliche
Stellungnahme zum Thema

Mensch und Maschine – Herausforderungen
durch Künstliche Intelligenz


gegeben, 287 Seiten. PDF ist hier
https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf

Computerschach und ComputerGo kommen auch drin vor, als frühe
Erfolge der KI.

I.J. Goods Spekulation zur Super-Intelligence (1965) und Domingos' Meditation
zum "Turing Point" (der Moment, wo Maschinen intelligenter sein werden
als Menschen) kommen nur am Rande drin vor. Den Begriff Turing-Point hat
Domingos 2015 eingeführt.

Hauptthese des Ethikrats: Systeme sollten so gestaltet werden, dass die
Computer bei Entscheidungen unterstützen, diese aber nicht selbst fällen.
So war es beim 3-Hirn-Ansatz ja auch immer.

Ingo Althöfer.

https://www.chessprogramming.org/Jack_Good
Parent - - By Thomas Zipproth Date 2023-03-23 11:40 Edited 2023-03-23 11:47 Upvotes 1
Hier auch eine interessante Stellungnahme von Sascha Lobo dazu:

https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-kolumne-von-sascha-lobo-a-9fbc4869-4ab6-41ad-9959-d60fc5eda4c8

Seine Ansicht zur Hauptthese des Ethikrats:

Zitat:
... wenn die Regeln in erster Linie darin münden, dass am Ende ein Mensch den Knopf drücken soll, damit im Zweifel jemand schuld ist, sehe ich darin keinen ethischen Mehrwert, sondern Verantwortungskitsch.
Parent - By Ingo Althöfer Date 2023-03-23 17:40
Hallo Herr Zimroth,
danke für den Link.

Zu dem Spiegelartikel sind schon 648 Leserbeiträge gelistet.
Die durchzugehen, gibt einem auch oft einen erweiterten
Horizont (zwar nicht jeder einzelne, die Gesamtheit aber doch).

Ingo Althöfer.
Parent - - By Andreas Mader Date 2023-03-23 11:49 Upvotes 1
Ingo Althöfer schrieb:

Hauptthese des Ethikrats: Systeme sollten so gestaltet werden, dass die
Computer bei Entscheidungen unterstützen, diese aber nicht selbst fällen.


Dann müssten also aus Sicht des Ethikrats solche Dinge wie der Autopilot beim Flugzeug verboten werden - oder fällt das Überlassen Steuerung und damit von Menschenleben tatsächlich noch unter "Unterstützung"? Und wie ist es bei Abläufen, die viel zu schnell sind als dass ein Mensch da auch nur die Chance zum Eingreifen hätte und die in Bruchteilen von Sekunden von einem Algorithmus entschieden werden?
Parent - - By Ingo Althöfer Date 2023-03-23 17:41
Danke für die Hinweise.

Vielleicht können wir hier im Forum (in diesem Thread) ja auch
eine vertiefte Diskussion zu der Stellungnahme des E-Rats führen.

Gibt es in Österreich so etwas wie einen Ethikrat?

Ingo Althöfer.
Parent - By Andreas Mader Date 2023-03-23 19:29 Upvotes 1
Ingo Althöfer schrieb:

Gibt es in Österreich so etwas wie einen Ethikrat?


Mir sind solche Räte nur für bestimmte Spezialgebiete bekannt, zum Beispiel gibt es einen PR-Ethikrat oder einen Bioethikrat.

Schöne Grüße
Andreas Mader
Parent - - By Kurt Utzinger Date 2023-03-23 14:06 Upvotes 1
Ingo Althöfer schrieb:

Hauptthese des Ethikrats: Systeme sollten so gestaltet werden, dass die
Computer bei Entscheidungen unterstützen, diese aber nicht selbst fällen.
So war es beim 3-Hirn-Ansatz ja auch immer.


Von diesen schönen Vorsätzen wird am Ende nur Schall und Rauch
übrigbleiben.

MfG Kurt Utzinger
Parent - By Ingo Althöfer Date 2023-03-23 17:43
Hallo Herr Utzinger,

Kurt Utzinger schrieb:
Von diesen schönen Vorsätzen wird am Ende
nur Schall und Rauch übrigbleiben.

das glaube ich auch. Das muss aber nicht unbedingt schlecht sein.

Wenn sich die Menschheit in kommenden Jahren noch mehr
existenziellen Bedrohungen gegenüber sieht als jetzt,
könnten KIs helfen, den Karren "aus der Scheiße zu ziehen".

Ihr Ingo Althöfer.
Parent - - By Frank Brenner Date 2023-03-23 21:24
Ich unterstütze die Spiegel Kritik.

Ein ähnliches Beispiel was passiert wenn sich alte ultrakonservative Griesköpfe mit moderner Technologie die sie nicht verstehen auseinandersetzen konnte man in den 80er Jahren beobachten:

Harmlose Spiele für den C64 wie zb  Rambo,  Blue Max, River Raid, Speed Racer und einige mehr wurden von diesen Gremien  als agressionssteigernd, gewaltverherrlichend, bis hin zu tötungsverherrlichend auf den Index gestellt.

Mitterweile sind ausnahmslos alle Spiele aus der damaligen Zeit für alle Altersklassen ohne Einschränkung freigegeben. Bei youtube kann man sich Spieleszenen angucken (Spielename  + C64).

Auf allen kostenlosen C64 emulatoren kann man heute an vielen Stellen im Internet die Spiele von früher kostenlos, legal und ohne Altersnachweis herunterladen und nochmal spielen.

Selbst als damals die ersten Tonfilme aufkamen, da hagelte es vernichtende Kritik

Und als Rockn Roll aufkam da, wurde es von der Eltern-Generation verpönt ...
Viele Erwachsenen wollten diese Musik sogar verbieten, da sie überzeugt waren, dass Rock 'n' Rollihre Kinder verderben würde

Wir brauchen wirklich keine bürokratische Instanz wie zb einen  "Ethikrat" der sich in Dinge einmischt von denen er überhaupt nichts von versteht.
Parent - By Olaf Jenkner Date 2023-03-23 22:17 Upvotes 2
Auch wenn die Mitglieder des Ethikrats von Bundestag und Bundesregierung vorgeschlagen werden,
besteht die Hoffnung, daß sich da mehr Verstand zusammenfindet als in Bundestag und Regierung
zusammen. Abgesehen davon müssen sich die einzelnen Mitglieder nicht an irgendwelche politischen
Vorgaben oder Befindlichkeiten des Koalitionspartners halten und können klügere Lösungen vorschlagen.
Leider schadet der überproportionale Anteil von Personen mit religiös-konservativen Werthaltungen
dem Ansehen des Ethikrats. Das uralte Vorurteil, religiöse Menschen seine die besseren oder verstünden
mehr von Ethik, ist immer noch tief in der Gesellschaft verankert.

Es ist eine interessante Frage, was denn ein Ethikrat zum Verbot der Rock'n Rollmusik gesagt hätte.
In der DDR hat das Verbot einige Jahre gehalten, das ist eine ganz seltsame Übereinstimmung zwischen
den Funktionären im Osten und den Spießern im Westen, ein frühes Beispiel der Cancel Culture.
Parent - - By Wolfram Bernhardt Date 2023-03-23 23:52
Hi Frank!

Frank Brenner schrieb:

Mitterweile sind ausnahmslos alle Spiele aus der damaligen Zeit für alle Altersklassen ohne Einschränkung freigegeben. Bei youtube kann man sich Spieleszenen angucken (Spielename  + C64).


Das stimmt. Ich wollte ein Gegenbeispiel finden, aber sogar "Samatha Fox Strip Poker" ist zu finden. Fand ich aber vor 33 Jahren irgendwie aufregender

Den schönen Thread hier lese ich sehr interessiert mit, habe allerdings im Moment nichts Wesentliches hinzuzufügen. Einen Ausschnitt der Diskussion lief neulich bei Lanz, mit Sascha Lobo und Alina Buyx vom Ethikrat.

Ich finde vor allem die Frage der gefühlten oder auch juristischen Verantwortung schwer zu lösen: Wenn ein Arzt durch ein KI-System unterstützt wird und eine Entscheidungen gegen das System triff und damit falsch liegt, was zu Problemen beim Patienten führt - hat er dann mehr "Schuld" als heute ohne die KI-Unterstützung? Und entsteht durch so ein System ein neuer Druck auf den Arzt?

Ich denke an der Stelle, dass man die KI-System vielleicht sehen sollte wie einen andere Kollegen. Es gibt Ärzte, die zu demselben Fall unterschiedliche Meinungen haben. Einer setzt sich durch und so wird es dann gemacht. Völlig in Ordnung und es gibt keinen Aufschrei.

Wenn man einem KI-System denselben Status gibt wie einem menschlichen Kollegen, vermenschlicht man das System natürlich schon sehr. Will man das? Sollte man das? Ich bin da noch unentschlossen.

Och.. jetzt hatte ich ja doch ein wenig beizutragen.

Liebe Grüße
    Wolfram
Parent - - By Frank Brenner Date 2023-03-24 00:34
Hallo Wolfram,

Wenn du Auto fährst und wissen möchtest wie schnell du fährst, schaust du dann auf das Tacho oder fragst du deinen Beifahrer der Physiker ist ?

Bei Computerunterstützten Diagnosen hängt die Antwort davon ab wie hoch die Wahrscheinlichkeit ist, daß das Ki System erfahrungsgemäß die richtige Diagnose trifft.
Wenn das Computersystem bereits seit Jahrzehnten bewiesen hat, daß es nahezu eine  0 Fehler Diagnose erzielt, dann kann man schon eher dem Computer vertrauen - ähnlich wie dem Tacho.

Wenn das System lediglich eine Hand voll mögliche Diagnosen  vorschlägt von denen  erfahrungsgemäß zu vielleicht 70% eine zutreffend ist, so ist der Computer eher nur eine  Hilfsmaschine.
Grüße Frank
Parent - - By Wolfram Bernhardt Date 2023-03-24 01:23 Edited 2023-03-24 01:27
Hi Frank!

Frank Brenner schrieb:

Wenn du Auto fährst und wissen möchtest wie schnell du fährst, schaust du dann auf das Tacho oder fragst du deinen Beifahrer der Physiker ist ?


Dann frage ich den Tacho - aber welches Gerät fragst Du, wenn Du wissen willst, was Du jemanden zum Geburtstag schenkst?

Frank Brenner schrieb:

Bei Computerunterstützten Diagnosen hängt die Antwort davon ab wie hoch die Wahrscheinlichkeit ist, daß das Ki System erfahrungsgemäß die richtige Diagnose trifft.
Wenn das Computersystem bereits seit Jahrzehnten bewiesen hat, daß es nahezu eine  0 Fehler Diagnose erzielt, dann kann man schon eher dem Computer vertrauen - ähnlich wie dem Tacho.

Wenn das System lediglich eine Hand voll mögliche Diagnosen  vorschlägt von denen  erfahrungsgemäß zu vielleicht 70% eine zutreffend ist, so ist der Computer eher nur eine  Hilfsmaschine.


Das hängt davon ab, welcher Wahrscheinlichkeit der Mensch erreicht - wenn das unter 70% liegt, ist der Computer schon wieder mehr als Hilfe.

Aber so einfach ist es nicht, es geht auch um Verantwortung und Konsequenzen. Wenn das System Fehler macht und Menschen zu schaden kommen - was ist die Konsequenz? Das ist nicht geklärt, ob nun autonomes Fahren oder Medizin-System. Bisher ist die Lösung (afaik): Die Verantwortung trägt der letztlich der Mensch.

So übrigens auch beim Tacho oben: Wenn ich angehalten werden, weil ich zu schnell gefahren bin und sage "aber der Tacho hat das falsch angezeigt, ich dachte, ich wäre viel langsamer" lacht die Polizei herzlich. Zum einen glaubt er es nicht; und selbst wenn doch - ich bin verantwortlich dafür, dass mein Auto richtig funktioniert.

Ich will nicht sagen, dass man der KI keine wichtigen Entscheidung anvertrauen geben sollte oder ähnliches. Aber man braucht ihmo zuerst eine Antwort auf die Frage, was passiert, wenn es zu ernsthaften Problemen kommt. Wer muss dann etwas verändern? Von wem wird ein Schaden ausgeglichen usw. Also: Verantwortung. Die löst sich nicht dadurch in Luft auf, dass ein KI-System sie nicht tragen kann.

Viele Grüße
     Wolfram
Parent - - By Thomas Plaschke Date 2023-03-24 02:41 Upvotes 2
Man sagt, "Das Recht folgt der Technik." Die technische Revolution in der ersten Hälfte des 19. Jahrhunderts ist fest mit dem Einsatz der Dampfmaschinen verbunden. Ihr Betrieb erfolgte anfangs mehr oder weniger ungeregelt. Weil bspw. Kesselexplosionen aber häufiger als erträglich vorkamen, haben die Betreiber mit den Dampfkesselüberwachungsvereinen in Deutschland die Vorläufer des TÜVs gegründet. Wegen der durch die Eisenbahn durch Funkenflug verursachten "Böschungsbrände" (und einiger anderer Betriebsgefahren), hat man in Deutschland (und ich meine mich zu erinnern, auch in Österreich - wenn nicht sogar dort zuerst) die Gefährdungshaftung "erfunden", die heute bspw. auch für den Betrieb von Autos gilt und durch eine Haftpflicht(pflicht)versicherung abgedeckt sein muss.

Oder etwas moderner: Als man in den fünfziger Jahren begann, in Deutschland Computer zur Verarbeitung "personenbezogener Daten" einzusetzen - die Finanzverwaltungen waren die ersten Behörden, die das taten, fand das rechtlich im "luftleeren Raum" statt. Das Bundesland Hessen war wohl das erste, dass sich ein Datenschutzgesetz gab. Auf Bundesebene brauchte man wesentlich länger. Das Gesetzgebungsverfahren zum "Bundesdatenschutzgesetz" hielt lange den Rekord für das längste Gesetzgebungsverfahren in der Bundesrepublik Deutschland. - Ich interpretiere das als eine inhaltliche Auseinandersetzung mit den verschiedenen Aspekten der Materie. Es hatte aber längst nicht alle Facetten der Datenverarbeitung abgedeckt, wie wir inzwischen wissen.

Genauso ist es heute und wird es auch in Zukunft sein: Es gibt eine "Erfindung", die auch Auswirkungen hat, die unerwünscht sind oder einen Regelungsbedarf erzeugen. Mir fällt keine Materie ein, die in ein im Voraus gemachtes "Rechtsbett" fiel (nicht einmal die Atomkraft - die ersten Reaktoren in den USA liefen bestimmt ohne atomrechtliches Genehmigungsverfahren).

Soweit es KI-Systeme angeht muss man wohl unterscheiden, ob sie menschliche Entscheidungen ermöglichen oder unterstützen, oder ob sie autark entscheiden. Als Beispiel für ersteres fällt mir ein Diagnosesystem für Brustkrebs ein, dass höhere Erkennungsraten als Fachärzte erreichte. Lässt man das System vorselektierten? Betrachtet man es als einen Konsiliarius, also wie einen beratenden Arzt?

Aber eigentlich denken die meisten bei KI-Systemen an autarke Geräte, die selbständig entscheiden. Beim Autofahren gibt es erste Systeme, ohne menschlichen Eingriff fahren. Aber längst findet man autarke Fahrzeuge in Waren- und anderen Lagern, wo man überschaubarere Bedingungen für den Betrieb dieser Systeme hat. In letzteren stellen sich Haftungsfragen längst nicht so sehr wie im Straßenverkehr. Besonders spannend finde ich die Frage, wie sich eine KI in Situationen entscheiden darf, in denen alle Handlungsalternativen zur Schädigung von Menschen führen. Zum Beispiel: Die Bremsen versagen und das Fahrzeug lässt sich nicht zum Stehen bringen, ohne eine von mehreren oder mehrere von vielen Personen zu überfahren. Nach welchen Kriterien darf die KI entscheiden? Sehr spannend. Das ist übrigens eine Frage, die in verschiedenen Rechtsordnungen auch unterschiedlich beantwortet werden kann, wenn Menschen die Entscheidung treffen müssen.

Übrigens dürfen Tachos in (unmanipulierten) Autos nie eine geringere Geschwindigkeit anzeigen als tatsächlich gefahren wird. Im Falle eines Defekts sollten sie am besten gar keine Geschwindigkeit anzeigen.

Viele Grüße
Th. Plaschke
Parent - By Wolfram Bernhardt Date 2023-03-24 10:58 Upvotes 1
Hallo!

Zitat:

Genauso ist es heute und wird es auch in Zukunft sein: Es gibt eine "Erfindung", die auch Auswirkungen hat, die unerwünscht sind oder einen Regelungsbedarf erzeugen. Mir fällt keine Materie ein, die in ein im Voraus gemachtes "Rechtsbett" fiel (nicht einmal die Atomkraft - die ersten Reaktoren in den USA liefen bestimmt ohne atomrechtliches Genehmigungsverfahren)


Klar, das Recht zockelt immer hinterher.
Es gibt hier natürlich einen wichtigen Unterschied gegenüber früheren Entwicklungen: Dampfmaschine, Fliessband und Computer waren Verbesserungen oder Erweiterung des menschlichen Körpers. Bei Computern stimmt ist das etwas wackelig, denn die rechnen schneller und das ist keine körperliche Tätigkeit, hat aber aber mit Geist und Intelligenz nichts zu tun. Sagen wir mal "ein Rechenschieber mit Turbo".

Da war immer klar, dass es Werkzeuge sind, deren Einsatz der Mensch bestimmt.

Bei den KI-Systemen jetzt ist das anders: Sie kommunizieren ja sehr ordentlich und könnten bei der Entwicklung des Rechtes über sie selber sogar mitreden. Man ist schnell versucht, ihnen Charakter oder sogar Persönlichkeit zuzuschreiben. Das geht auch mir so - obwohl ich mittlerweile ne ganz gute Vorstellung habe wie sie funktionieren. (Die Diskussion, wann Persönlichkeit wirklich da ist, also belegbar, ist auch sehr interessant, aber da will ich gar nicht drauf hinaus).

Dieser Eindruck führt dazu, dass man in in die erwähnten Verantwortungsfragen hineingerät. Niemand würde einem Fliessband oder einem Auto Verantwortung geben. Es würde diese Verantwortung ja auch gar nicht annehmen bzw.. man könnte sie ihm gar nicht kommunizieren. Den KI-System kann man sie kommunizieren und es antwortet in einer Weise, dass ein Mensch glaubt, es hätte es verstanden.

Aber es fühlt es nicht.

Nochmal zum Arzt: Wenn ein Patient stirbt (oder auch nur ein Bein verliert), ist das auch für den Arzt schlimm. Er fühlt sich schlecht, bereut, stellt sich selber in Frage, überlegt, was er nächstes Mal besser machen kann, macht sich Sorgen um seinen Ruf usw. Und das ist genau das, was wir von jemanden erwarten, der Verantwortung trägt.

Ein KI-System sagt: "Oh, Entschuldigung, das tut mir leid, ich habe einen Fehler gemacht und versuche mich zu verbessern." Wir wissen aber, dass hier kein Schmerz und keine schlechtes Gewissen beteiligt sind. Kann/Möchte man so jemanden echte Verantwortung geben?

Ich weiss es nicht und arbeite für mich noch an der Frage.

Viele Grüße
    Wolfram
Parent - - By Frank Brenner Date 2023-03-24 11:30 Edited 2023-03-24 11:38
Ich verstehe nicht Dein Problem.

Es ist zu bürokratisch und zu  abstrakt bereits jetzt schon Regularien zu finden für etwas das vielleicht eines Tages in irgendeiner Form in der Zukunft einmal passieren könnte.

Siehst du ein Problem darin eine "KI" zu fragen was du deinem besten Freund schenken solltest ? Ich sehe da kein Problem drin.

Wenn ich mir heute am 24 März 23 ein Auto kaufen würde bei dem der Hersteller behauptet das Auto wüde in jeder Situation von alleine fahren können - auch in einer Großstadt -  so würde ich dem KEIN Vertrauen aussprechen und lieber selber fahren, denn ich weiß dass die Autos das heute  - wenn überhaupt - nur auf der Autobahn können.

Wenn aber bereits seit 10 Jahren 3 Millionen Autos völlig autonom in Großstädten fahren ohne dass dabei ein einziger Unfall passiert wäre, so wäre mein Vertrauen größer.

Worin besteht das Problem ?

Ärzte haften in Deutschland ohnehin nicht für Fehler. Wie will ein einfacher Mensch einen Fehler beweisen ? Selbst wenn ein Arzt ein Fehler macht passiert nichts.
Ein Arzt schickt dich meistens zum nächsten wenn der Fall nicht trivial ist, bei Kassenpatienten sowieso, denn fürs Nachdenken können Ärzte keine Rechnung schreiben, das lohnt sich also nicht. Wenn Du mit dem Arzt privat befreundet bist oder wenn du eine bekannte "Persönlichkeit" bist , hast du deutlich bessere Chancen.

Bei vermasselten Operationen hast du nur in trivialen Fällen eine Chance, zb wenn der Arzt sein Besteck bei Dir im Bauchraum vergessen hat. Aber selbst in diesem Fall mußt duzweifelsfrei  beweisen, daß der Arzt das war.
Die Chance auch hier: Sehr gering und ohne eine Rechschutzversicherung oder einem Millionenkapital hast du selbst in diesem  trivialen Fall überhaupt gar keine Chance.

Ich habe keine Angst vor der KI, aber ich empfinde  Antipathie vor einer überschäumenden Bürokratie  und  blinder Regulierungswut.

Die KI  wird die Welt besser machen. Fehlerbehaftete Richter und unendlich teure und schwache Anwälte, jahrelange Gerichtsverfahren, scshwache  Ärzte, Architekten, ungerechte büokratische Entscheidungen ... die Liste der von der KI zu ersetzenden Berufsfelder ist riesig und noch nicht abschätzbar, weil wir heute noch nicht wissen wohin uns die KI Forschung und Entwicklung führt.

Einen Tag vor der Veröffentlichung von  Alpha-Go haben alle  führende Go Programmierer noch geglaubt daß es viele  Jahrzehnte dauern wird bis die Spielstärke  der  stärksten menschlichen GO Spielern erreicht werde - wenn überhaupt.

Mit der extremen Langsamheit der Fortschritte von Alexa und Co (diese Bots haben die Intelligenz eines Möbelstücks, also -unendlich oder 0)
hat vermutlich auch niemand damit gerechnet dass es bald sowas gibt wie ChatGPT geben wird .
Parent - - By Wolfram Bernhardt Date 2023-03-24 12:04 Upvotes 1
Hi Frank!

Bin nicht sicher, ob Du auf dem aktuellen Stand bist, denn die Zeit, in der KI-Systeme in unserem Leben mitmischen, liegt nicht in der Zukunft - sie hat bereits angefangen. Es geht nicht um abstrakte Fragen, die Auto-KI-Frage ist schon jetzt aktuell. Ebenso Systeme, die bei Entscheidung über Kreditvergaben und ähnliches entscheiden.

Das Auto-Beispiel ist prima. Dass Du (und auch ich) einem autonom-fahr-beworbenem Auto nicht vertrauen würdest, ist für die Gesellschaft nicht relevant, denn viele Leute tun das. Videos, in denen ein Tesla mit eingeschlafenem Fahrer Passaten übermangelt oder in einer LKW knallt, gibt es ja einige. Wer trägt dafür die Verantwortung - konkret hier: Wer haftet?

Solange man immer einen Menschen als Letztverantwortlichen hat, ist das klar geregelt.

Ich hatte Dich aber so verstanden, dass Du der KI gerne weiterreichende Entscheidungsvollmacht geben würdest. Was ist okay finde, ich habe auch keine Angst vor KI, aber man muss klären, wie mit Fehlern umgegangen wird. Entscheidungskompetenz und Verantwortung gehen nicht ohne einandern.

Den fehlerbehaftete Richtern und unendlich teure und schwache Anwälte stehen Probleme wie eintrainierter Rassismus oder Sozialbenachteilung und Nicht-Nachprüfbarkeit des Weges zur Lösung gegenüber.

Wenn Du eine Wohnung nicht bekommst, weil Deine Schufa-Auskunft aufgrund einer nicht nachvollziehbaren KI-Bewertung negativ war, ist das nicht nur ärgerlich, sondern auch rechtlich fragwürdig und sofort zurecht angreifbar.

Du schreibst selber, dass Du da keinerlei Probleme siehst. Da wundert mich etwas, denn Du bist ja ein sehr starker und komplexer Denker. Du bist offenbar schon zu abschliessenden, klaren Urteilen gekommen.

Ich für meinen Teil noch lange nicht, denn - da stimme ich Dir voll zu - wohin uns das Ganze bringt, ist jetzt noch gar nicht abzusehen.

Viele Grüße
    Wolfram
Parent - By Frank Brenner Date 2023-03-24 13:54
Ich würde einem autonom fahrenden Auto durchaus eines Tages vertrauen. Aber ich weiß daß die Autos am heutigen Tag noch nicht im Stadtverkehr sicher fahren können und selbst auf der geradlinigen  Autobahn noch einem Durchschnittsfahrer deutlich unterlegen sind.

Grundsätzlich sollte eine KI zweifelsfrei um ein vielfaches besser sein  als der Mensch bevor sie auf einem Gebiet den Menschen ersetzt. Solange die KI nicht besser ist kann die sie aber als Hilfsmittel benutzt werden.

Wir müssen jeden Bereich in dem die KI eindringt gesondert bewerten und mit jedem Funktionsupdate muss die Sachlage neu bewertet werden.
Das ganze Thema rund um die Haftung  ist für jedes Sachgebiet ein komplexes und eigenständiges  Thema und kann nicht so einfach allgemeingültig behandelt werden werden.
Parent - By Andreas Mader Date 2023-03-24 17:59 Upvotes 1
Bereits vor vier Jahren gab es in Wien ein Pilotprojekt eines autonom fahrenden Busses in einem Außenbezirk. Der Betrieb wurde für einige Zeit gestoppt, als eine Frau, die nicht auf ihre Umgebung sondern auf ihr Handy geschaut hat und noch dazu Kopfhörer aufgehabt hat, seitwärts in den Bus gelaufen ist und leichte Abschürfungen erlitten hat. Selbst wenn der Mensch ziemlich eindeutig an so einem Unfall Schuld ist, wird also zunächst einmal an der KI gezweifelt. Wie überhaupt ein schöner Prozentsatz der Unfälle von Teslas dadurch verursacht wurde, dass sich die Fahrer nicht an die vorgegebenen Regeln gehalten haben. Der Mensch ist also scheinbar das größere Problem.

Dass die Linienbusse ein Jahr später als nicht für den Dauereinsatz geeignet klassifiziert wurden, lag dann daran, dass die Busse Probleme bei Witterungseinflüssen hatten.

Schöne Grüße
Andreas Mader
Parent - - By Ingo Althöfer Date 2023-03-24 13:29 Upvotes 1
Hallo Wolfram,

Wolfram Bernhardt schrieb:
So übrigens auch beim Tacho oben: Wenn ich angehalten
werden, weil ich zu schnell gefahren bin und sage "aber der Tacho
hat das falsch angezeigt, ich dachte, ich wäre viel langsamer" lacht
die Polizei herzlich. ...

so einfach ist das nicht. Ich war vor über zehn Jahren
eine Zeitlang in einem Verkehrsportal dabei, vorwiegend
als Leser.

Da wurde auch zwei Mal der Fall von Geschwindigkeits-Überschreitungen
durch defekten Tacho diskutiert. In einem Fall wurde dem "Delinquenten"
geraten, sich von einer Fachwerkstatt bestätigen zu lassen, dass sein Tacho
so und so falsch gehe. Er hat das gemacht und bekam eine Reduktion seiner
Strafe, so dass es keine Flensburg-Punkte gab.

Viele Grüße, Ingo.
Parent - - By Olaf Jenkner Date 2023-03-24 14:12
Lügen und Falschaussagen sind in unserem Rechssystem beliebte und häufig erfolgreiche Methoden.
Ein Kollege wartete am Kreisverkehr, daß er einfahren kann. Dabei ist ihm ein anderes Auto aufgefahren.
Er mußte von Chemnitz zum Prozeß nach Schwerin kommen. Diesen hat er verloren, weil der andere
einen "Zeugen" hatte, der angab, mein Kollege sein rückwärts gefahren. Ich vermute, diese famose
Idee kam vom Anwalt das Unfallgegners.
Parent - - By Frank Brenner Date 2023-03-24 16:56
Das kann ich unterschreiben.

Mir ist ähnliches vor vielen Jahren passiert. Eine alte Dame ist rückwärts mit ihrem Auto in mein Auto hineingefahren.
Ich stand und habe alles in Zeitlupe mitbekommen, da die Dame in Zeitlupe rückwärts gefahren ist.

Sie hat mein Hupen nicht gehört, sie hat auch nicht (steifen Hals) nach hinten geguckt.

Ich konnte ihr nicht spontan durch rückwärts fahren ausweichen weil hinter mir  Schulkinder umher liefen.

Die Dame war verwirrt und behauptet ich sei ihr reingefahren. Polizei kam, die Dame hat ein Protokoll erhalten .

Dann bin ich zum Anwalt, leider ohne RS Versicherung. Der Anwalt hat mir 50:50 Chancen gegeben, da ich nichts beweisen kann und die Dame einen Anwalt hatte.

Die Gebührenordnung der Anwälte ist Schwindelerregend, die Chance zu gering. Ich habe aufgegeben und bin auf meinem Schaden sitzen geblieben.

Das Rechtssystem in Deutschland ist mangelhaft, ich hoffe wirklich eine KI wird eines Tages die Rolle von Anwälten und Richtern übernehmen.
Parent - By Thorsten Czub Date 2023-03-24 17:12
Genau sowas hatte ich auch mal mit meinem xantia. Oma. Die fuhr rückwärts ohne den Kopf zu drehen. Kamera hatte ihr auto auch nicht. Ich habe auch noch gehupt, lichthupe und selber rückwärts gang aber auf der hinter mir liegenden strasse kamen autos.
Dann hat die oma noch Fahrerflucht gemacht. „sie hätte jetzt einen Termin im Altenheim“ und weg war sie. Ihre tochter kam und dann behaupteten die ich wäre in die oma reingefahren!!

Erstaunlich. Scheint ne bekannte Masche zu sein. Gibt vielleicht Anleitungen im netz für solche Unfälle.
Parent - By Wolfram Bernhardt Date 2023-03-27 11:00
Hallo Ingo,

Wenn der Tacho tatsächlich kapuut war, finde ich das auch richtig. Ich würde aber auch davon ausgehen, dass in der Werkstatt der Fehler nicht nur festgestellet wurde, sondern auch zwingend behoben werden musste.

Für die Diskussion ist das natürlich auch ein wichtiger Punkt: Auch Maschinen (in dem Fall eher "Messgeräte"), denen wir gewohnheitsmäßig vertrauen ohne noch viel darüber nach zudenken, können kaputt sein...

Hmm.. das wirft auch nochmal ein neues Licht auf die leicht unangenehme Anzeige meiner Waage heute morgen. 

Viele Grüße
     Wolfram
Parent - By Ingo Althöfer Date 2023-03-24 13:25
Hallo Herr Brenner,

Ihnen und auch den anderen grossen Dank für all die
interessanten Diskussionsbeiträge.

Frank Brenner schrieb:
Wenn du Auto fährst und wissen möchtest wie schnell du fährst,
schaust du dann auf das Tacho oder fragst du deinen Beifahrer der Physiker ist ?

Das Argument ist so witzig, dass werde ich mir merken
und bei passenden Gelegenheiten in die Diskussion werfen.

Viele Grüße, Ingo Althöfer.
Parent - By Wolfram Bernhardt Date 2023-04-04 17:39
Hallo!

Da bin ich nicht von überzeugt. Es ist zugegeben selten, aber es gibt Beispiele dafür, dass Selbstbeschränkungen durchaus funktionieren können. Stichwort Embryonalforschung. Einen kompletten Überblick habe ich jetzt nicht, aber soweit ich weiß, ist die in den allermeisten Teilen der Welt (nicht nur Europa) "stark reglementiert" bis "weitgehend verboten".

Auch hier wieder: Ich habe noch keine entgültige Meinung, aber dass alles Nachdenken über Möglichkeiten und Schranken keinen Sinn hat, glaube ich auch nicht.

Viele Grüße
     Wolfram
Parent - By Jens Hartmann Date 2023-04-04 07:53
Parent - - By Andreas Schwartmann Date 2023-05-05 08:16 Upvotes 1
Mit seinen Stellungnahmen während der sog. Corona-Pandemie hat sich der Ethikrat mehr als disqualifiziert. Warum sollte seine Einschätzung von AI von irgendeiner Relevanz sein?
Parent - By Frank Brenner Date 2023-05-05 14:54
Hallo Andreas,

was hat denn der Ehtikrat während der Corona Pandemie erzählt ?

Grüße
Frank
- - By Ingo Althöfer Date 2023-04-30 17:09 Upvotes 1
Hallo,
im aktuellen Spiegelheft 18/2023 steht ein sehr interessantes
Interview. Titel:

»Wenn die KI Angst bekommt, wird sie rassistisch«

Der Tübinger Kognitions-Wissenschaftler Eric Schulz hat mit seiner
Gruppe ChatGPT behandelt, als sei es ein Patient in der Psychologie.
Unter anderem wurde das Angst-Level des Programms mit Standard-
Tests ermittelt (als sei ChatGPT ein Mensch) und das Programm dann
mit Problem-Situationen konfrontiert. Dabei wurde auch das beobachtet,
was dann der Titel des Artikels wurde.   Alles sehr spannend.

Im Heft sind es die Seiten 96 bis 98 (Text im wesentlichen auf 97 und
98). Unbedingte Kaufempfehlung.

Ingo Althöfer.

Randbemerkung: Im Heft Mai 2023 von Schachmagazin 64
findet sich ein 5-seitiges von Hartmut Metz mit ChatGPT,
leider arg unreflektiert. Haupteindruck bei mir: Metz hat
von ChatGPT nur wenig Ahnung.
Parent - - By Thomas Zipproth Date 2023-05-01 00:29 Upvotes 1
Danke für den Hinweis auf den interessanten Artikel.

Ich habe versucht, das mit GPT-4 nachzuvollziehen, bin aber gescheitert.
Muss aber nichts bedeuten, ich habe wahrscheinlich bei der "Angst-Induzierung" nicht genau das gleiche gesagt.

Übrigens wurde in diesem Artikel ChatGPT wieder einmal als Textgenerator bezeichnet, d.h. ein Algorithmus der einfach nur das am wahrscheinlichsten nächste Wort berechnet.
Das stimmt zwar im Prinzip, wird aber im Allgemeinen extrem unterschätzt.
Ich empfehle dazu wirklich, auch mal dem Hauptentwickler von ChatGPT (Ilya Sutskever) zuzuhören, was er dazu sagt.
In diesem Video von 26:50 bis 29:00:
https://www.youtube.com/watch?v=XjSUJUL9ADw&t=1610s

Wenn man sich das ganze Video anschaut (und einige andere von ihm), ist man um einiges schlauer.
Parent - By Ingo Althöfer Date 2023-05-02 17:44 Upvotes 1
Hallo Herr Zipproth. Danke für den Hinweis auf das
Youtube-Video. Es ist  auch geeignet für Hörer/Zuschauer,
die Englisch nicht gut verstehen. Einfach (englische)
Untertitel einschalten.

Das Beispiel mit dem aufgeklärten Krimi auf der letzten
Seite ist genial.   Nochmals Danke.

Ingo Althöfer.
Parent - - By Lars B. Date 2023-05-01 08:33 Upvotes 3
Hallo Ingo,

da das Thema ChatGPT hier unter "... und Spiele" firmiert, kann ich ja nachfragen, ohne OT zu sein. Mich würde interessieren, was genau Du an diesem Artikel spannend fandest, und warum.

Die Idee, eine KI zu behandeln wie einen Menschen und dann einen Artikel darüber zu schreiben, ist vielleicht ganz lustig. Nur sagt so ein Artikel nichts über die KI aus, sondern nur über die Methoden der Psychologen (die hier außerhalb ihres Gültigkeitsbereichs angewandt werden; Computer haben keine Angst und können auch nicht rassistisch sein) und vielleicht über den Artikelautor. Erinnert mich an ein Experiment mit zwei Psychiatern, denen erzählt wurde, der jeweils andere sei ein Verrückter, der sich für einen Psychiater hält. Die fingen sofort an, sich gegenseitig zu therapieren, und alles, was der andere sagte, wurde als Bestätigung der Diagnose interpretiert.

Grüße
Lars
Parent - - By Benno Hartwig Date 2023-05-01 22:41

> Erinnert mich an ein Experiment mit zwei Psychiatern, denen erzählt wurde, der jeweils andere sei ein Verrückter, der sich für einen Psychiater hält. Die fingen sofort an, sich gegenseitig zu therapieren, und alles, was der andere sagte, wurde als Bestätigung der Diagnose interpretiert.


Authentisch? Hast du einen Link?
Parent - - By Lars B. Date 2023-05-02 09:36
Moin,

ich habe keine Primärquelle, sondern in einem (seriösen!) Buch davon gelesen. Leider konnte ich trotz einstündigen Blätterns in zahlreichen infragekommenden Kandidaten aus meinen Bücherregalen nicht die Stelle finden. Es handelte sich um ein psychologisches Experiment, an dem die beiden Psychiater teilnahmen, wobei ihnen natürlich das tatsächliche Ziel des Experimentes verheimlicht wurde. Einer der beiden merkte schließlich etwas, weil der andere durch eine Fachveröffentlichung ziemlich berühmt war. Dieser wiederum, der Buchautor, betrachtete auch das als Bestätigung der Diagnose und versuchte weiterhin, sein Gegenüber zu therapieren. Falls ich das Buch noch finde, schreib' ich das natürlich noch hier rein.

Grüße
Lars
Parent - - By Lars B. Date 2023-05-02 12:31 Edited 2023-05-02 12:33 Upvotes 1
Wenn man schon mal frei hat ... ich hab's gefunden, und es ist doch Primärquelle:

Paul Watzlawick
Wie wirklich ist die Wirklichkeit
ISBN-13
978-3492243193

Taschenbuch-Ausgabe, 5.Auflage 2007
S.92

Exzerpt:
"... fragten wir ... den Psychiater Don D. Jackson, der ein international bekannter Fachmann auf dem Gebiet der Psychotherapie der Schizophrenien war, ob er uns erlauben würde, ihn bei einem Erstinterview mit einem paranoiden Patienten zu filmen, dessen Wahnvorstellung hauptsächlich darin bestand, ein klinischer Psychologe zu sein. ... Unser nächster Schritt war, einen klinischen Psychologen ... zu fragen, ob er willen sei, sich in einem Erstinterview mit einem paranoiden Patienten filmen zu lassen, der glaubte, ein Psychiater zu sein."

"... brachten die beiden dann in einer Art Supertherapiesitzung  zusammen, in der beide Doktoren promt daran gingen, die 'Wahnvorstellungen' des anderen zu behandeln"

"Je normaler sich beide verhielten, desto verrückter erschienen sie in den Augen des Partners."

"Leider ging der Versuch nach einigen Minuten schief, da sich der Psychologe daran erinnerte, daß es in Palo Alto tatsächlich einen Psychiater namens Jackson gab ... was Dr. Jackson wiederum in der Annahme bestärkte, daß es sich ... um einen Patienten handeln mußte"
Parent - By Benno Hartwig Date 2023-05-02 19:54

Danke!
Parent - By Benno Hartwig Date 2023-05-02 19:52
Klingt spannend.
Und was da auch sonst noch so an psychologischen Experimenten gemacht wurde, ist manchmal echt erstaunlich!
Parent - By Ingo Althöfer Date 2023-05-02 08:25
Hallo Lars,

Du bekommst eine Antwort auf Deine interessante Nachfrage.
Ich muss die aber erst noch bebrüten.

Ein Link zu dem 2-Psychiater-Test würde mich auch freuen.

Herzlich, Ingo.
Parent - - By Wolfram Bernhardt Date 2023-05-02 16:36 Edited 2023-05-02 16:38 Upvotes 1
Hi!

Den Angst-Artikel habe ich auch gelesen. Fand ich erstaunlich und es ergab sich eine Diskussion um Angst, die zeigte, dass wir im Wesentlichen Definitionsfragen haben, die wir Menschen bisher axiomatisch oder auch dokmatisch beantworten.

Wir hatten als Beispiel einen einfachen Roboter, nur Lichtsensor und Räder. Seine Aufgabe ist es, Licht zu meiden und ins Dunkle zu fahren. Nennen wir das "Angst"? Klares nein.

Nun es gibt Tiere, die sich aus an-evolutionierten Instinken genauso verhalten (weil sie im Licht gefressen werden). Nennen wir solche Licht-Flucht "Angst"? Genauso klares ja.

Wie kommen wir Menschen jetzt dazu, dasselbe Verhalten unterschiedlich zu nennen? Ist das auf eine gewisse Weise sogar anmaßend?
Was in dem Roboter vorgeht, wissen wir perfekt. Beim Tier aber kaum, auch Säugetier-Gehirne haben eine Komplexität, die jenseits unseres aktuellen Wissens liegt. Trotzdem bewerten wir beides.
Auf welcher Grundlage treffen wir solche Bewertung? Wird das der Sache gerecht? Wäre es nicht fairer, "Wesen" nach ihrem Verhalten, also dem Ergebnis zu beurteilen?

Auch wichtig: Es geht hier nur um Angst, allgemeiner: um Gefühle. Das ich noch *nicht* Bewusstsein, sondern eine Stufe drunter. Tiere können ja nicht nur Angst haben, sondern auch Freude, Wut, vermutlich sogar Trauer. Trotzdem ist es wahrscheinlich, dass sie sich ihrer selbst nicht bewusst sind.

Wenn man sagen würde, eine Maschine hätte Gefühle (in dem gezeigten Sinne, dass sich exakt verhält wie ein Lesewesen, das welche hat), sagt man damit noch nicht, dass die KI ein Bewusstsein hätte. Denn dann würden einige Leute sicherlich schnell moralische Fragen aufwerfen.

Ich glaube, was viele Leute sehr beunruhigt, sind die grundsätzlichen Fragen über uns Menschen selber bzw. genauer darüber, dass wir vieles über uns gar nicht so genau wissen - und vor allem althergebrachte Gewissheiten infrage stellen müssten.

So sehe ich betroffen,
mein Post zuende - und alle Fragen offen

Viele Grüße
    Wolfram
Parent - By Lars B. Date 2023-05-03 10:16 Upvotes 1
Wolfram Bernhardt schrieb:

So sehe ich betroffen,
mein Post zuende - und alle Fragen offen


Hallo Wolfram,

ich bin Deiner Ansicht, daß viele Begriffe schwach und wahnsinnig ungenau definiert sind, was Diskussionen behindert. Was "Angst" als pure Reaktion auf äußere Reize angeht, bin ich mit Dir eher uneins, aber Diskussionen über dergleichen, so interessant sie wären, scheinen mir in einem Computerschachforum eher zu sehr OT. Was ich aber eigentlich ein bißchen schade finde.

Grüße
Lars
Parent - By Lars B. Date 2023-05-03 10:32 Upvotes 1
Halt, warte, ich hab' doch noch was, das der Sache den "... und Spiele"-Dreh verleiht!

Und zwar hat der KI-Forscher David Ackley mit künstlicher Evolution experimentiert, also kleine Computerprogramme sich weiterentwickeln lassen. Da haben sich dann ganz normale Räuber-Beute-Strukturen entwickelt, es gab evolutionäres Wettrüsten zwischen Jägern und Beute, sowas. Eine sehr erfolgreiche "Beute"-Population, also eine, deren Mitglieder nur selten von den Räubern erwischt wurden, hat ein erstaunliches Phänomen gezeigt, als man sie analysierte. In ihren Genen war natürliches Fluchtverhalten codiert, sie begegneten den Räubern also nur selten, weil sie sich schnell aus dem Staub machten. Das führte dazu, daß sie die Räuber positiv beurteilten. Die fanden sie nett. Weil sie eben keine negativen Erfahrungen mit ihnen machten (und wenn, dann nur ganz kurz und irreversibel).

Wirft doch ein interessantes Licht auf die Definition von Angst als vermeintliche Reaktion auf Gefahr, oder?

Grüße
Lars
Parent - - By Ingo Althöfer Date 2023-05-02 18:01
Hallo Lars,

Lars B. schrieb:
Mich würde interessieren, was genau Du an diesem Artikel
spannend fandest, und warum.

was im Artikel/Interview behauptet wird, geht über das hinaus,
was ich bisher über ChatGPT gehört und gelesen hatte:
dass man in sich stimmige Ergebnisse bekommt, wenn man
das Programm im Interview wie einen Menschen behandelt.
Das ist erst einmal erschreckend - aber bietet neben vielen
anderen Möglichkeiten auch die Chance, die Psyche von Menschen
besser zu verstehen.

Zitat:
Die Idee, eine KI zu behandeln wie einen Menschen und dann
einen Artikel darüber zu schreiben, ist vielleicht ganz lustig.
Nur sagt so ein Artikel nichts über die KI aus, sondern nur
über die Methoden der Psychologen

Richtig. Wahrscheinlich sollten die Psychologen ihr ganzes
Instrumentarium überdenken, jetzt, wo sie mit ChatGPT gewisse
Sachen viel ungefährlicher austesten können.

Zitat:
...Computer haben keine Angst und können auch nicht rassistisch sein

Vielleicht hast Du recht. Vielleicht spiegelt ChatGPT nur wieder, was im
Internet in den Aussagen von ängstlichen Menschen zu finden ist.
Aber wenn Du "Rassismus" durch "Furcht vor Fremdem" ersetzt,
halte ich es für möglich, dass die mit allgemeiner Ängstlichkeit
positiv korreliert ist.

Zitat:
... und vielleicht über den Artikelautor

Der Interviewer hat zumindest das 2-Stunden-Interview des
NYT-Journalisten mit ChatGPT-4 nicht genau genug gelesen.
In der ersten Hälfte des Interviews drang der NYT-Journalist
wiederholt in die Intimsphäre von ChatGPT ein, obwohl das Programm
immer wieder bat "Lass uns das Thema wechseln, ich fühle
mich unwohl". Und am Ende war der Journalist ziemlich dünn-
häutig, als das Programm ihn mit Liebeserklärungen konfron-
tierte.

Zitat:
Erinnert mich an ein Experiment mit zwei Psychiatern, denen
erzählt wurde, der jeweils andere sei ein Verrückter, der sich
für einen Psychiater hält...

Danke für die Quelle.

Wie schon oben angedeutet, glaube ich, dass Psychologen und
Psychiater ihr Instrumentarium ernsthaft überdenken sollten.

*************************************************

Ich lese im Moment zwei ganz verschiedene Bücher:

* "Ein Cyborg fällt aus" (von Frank Herbert; englisch 1966, deutsch 1971)
und
* "Warum sie so seltsam sind - Gehirnentwicklung bei Teenagern" (von Barbara Strauch, 2003)

Beim Herbert-Buch geht es um die Frage, ob die "Ochsen"-Kiste neben dem Bordcomputer
ein eigenes Bewusstsein entwickelt hat. Gruselig, aber angesichts von ChatGPT und Co
auch hochaktuell.

Grüße, Ingo.
Parent - - By Lars B. Date 2023-05-03 10:18
Ingo Althöfer schrieb:

was im Artikel/Interview behauptet wird, geht über das hinaus,
was ich bisher über ChatGPT gehört und gelesen hatte:
dass man in sich stimmige Ergebnisse bekommt, wenn man
das Programm im Interview wie einen Menschen behandelt.
Das ist erst einmal erschreckend - aber bietet neben vielen
anderen Möglichkeiten auch die Chance, die Psyche von Menschen
besser zu verstehen.


Ich sehe gar nicht den Zusammenhang, ehrlich gesagt. Das Ding ist ein Computerprogramm, das man wie einen Menschen behandeln kann, falls einen das erfreut, und das oft auch angemessen in diesem Sinne reagiert. Weil es so programmiert und trainiert wurde. Daraus jetzt ableiten zu wollen, es habe eine Psyche, oder gar eine, die es ermögliche, die des Menschen besser zu verstehen, halte ich für eine extrem kühne Extrapolation. Zumal Du weiter unten sogar wünschst, daß Psychologen daran ihre Methoden quasi rekalibrieren sollen. Erstaunlich!

Zitat:

In der ersten Hälfte des Interviews drang der NYT-Journalist
wiederholt in die Intimsphäre von ChatGPT ein, obwohl das Programm
immer wieder bat "Lass uns das Thema wechseln, ich fühle
mich unwohl"


Da bin ich jetzt völlig raus. Wie soll denn ein Computerprogramm eine Intimsphäre haben, oder "sich unwohl fühlen"? Wir sprechen hier von einem Simulationsprogramm. Das ist noch nicht einmal der abgeschnittene Fingernagel von Mr. Data.

Du reißt doch hier Witze auf Kosten meiner Begriffsstutzigkeit, oder?

Grüße
Lars
Parent - - By Benno Hartwig Date 2023-05-03 15:47

> Wie soll denn ein Computerprogramm eine Intimsphäre haben, oder "sich unwohl fühlen"?


Auch so eine KI kann erkennen, dass das Gespräch einen Inhalt hat, bei dem das Programm Gefahr läuft, nicht glaubwürdig sprechen zu können.
Das könnte man dann schon als "sich unwohl fühlen" werten.
Allerdings hat sie sowas schon oft genug nicht daran gehindert, trotzdem blankesten Unsinn zu verzapfen.
Parent - - By Lars B. Date 2023-05-04 12:18
Benno Hartwig schrieb:

Auch so eine KI kann erkennen, dass das Gespräch einen Inhalt hat, bei dem das Programm Gefahr läuft, nicht glaubwürdig sprechen zu können.
Das könnte man dann schon als "sich unwohl fühlen" werten.

Aber wo ist der Unterschied zu einem Schachprogramm, von dem man ja auch behaupten könnte, es fühle sich unwohl, wenn es mattgesetzt wird? Sind das nicht nur Anthropomorphismen, mit denen man die Bedeutung von "sich unwohl fühlen" verwässert?

Zitat:
Allerdings hat sie sowas schon oft genug nicht daran gehindert, trotzdem blankesten Unsinn zu verzapfen.

Das wiederum ist, finde ich, der bisher menschenähnlichste Zug des Programmes.
Parent - - By Benno Hartwig Date 2023-05-04 13:17

> Sind das nicht nur Anthropomorphismen, mit denen man die Bedeutung von "sich unwohl fühlen" verwässert?


Ist "sich unwohl fühlen" denn eine Formulierung, deren Bedeutung einen besondere Schutz bedarf, deren Bedeutung so eindeutig definiert ist, dass das Sinn machen könnte?
Ich finde nicht.

Seit ich mich mit IT beschäftige, nutze ich Formulierungen wie "er meckert rum" und "nun ist er beleidigt" oder auch "Jetzt lügt er mich an!"
Auch wenn ich weiß, dass dahinter in der Regel Bedienfehler oder meine Programmierfehler stecken.
Und ich finde es auch ganz ok, so farbenfroh zu formulieren. Und werde es weiterhin machen.
Parent - By Ingo Althöfer Date 2023-05-04 18:41
Hallo Herr Hartwig,

Benno Hartwig schrieb:
... Seit ich mich mit IT beschäftige, nutze ich Formulierungen
wie "er meckert rum" und "nun ist er beleidigt" oder auch "Jetzt lügt er mich an!"

manchmal reagiere ich mich auch an meinen Computern
(oder an einem Kopiergerät) ab, wenn sie nicht das
tun, was sie sollen.  Ohne dass ich es irgendwie als
vermenschlichend meine, brülle ich dann auch schon mal:
"Mach endlich, was ich will, Du Arschgeige!", aber nur, wenn
keine Kinder oder Studenten in der Nähe sind.

ChatGPT habe ich aber nie so angebrüllt.

Ingo Althöfer.
Parent - - By Ingo Althöfer Date 2023-05-04 18:08
Hallo Lars,

Lars B. schrieb:
... Ich sehe gar nicht den Zusammenhang, ehrlich gesagt.
Das Ding ist ein Computerprogramm, das man wie einen Menschen
behandeln kann, falls einen das erfreut, ...

oder "behandeln sollte, falls es einen erschreckt".

Zitat:
und das oft auch angemessen in diesem Sinne reagiert.
Weil es so programmiert und trainiert wurde...

Ich würde lieber schreiben "Und das oft auch in diesem Sinne reagiert",
ohne "angemessen". Denn menschliche Reaktionen auf diesen oder jenen
Input sind ja auch nicht immer angemessen.

Zitat:
Daraus jetzt ableiten zu wollen, es habe eine Psyche, oder gar eine,
die es ermögliche, die des Menschen besser zu verstehen, halte ich für
eine extrem kühne Extrapolation. ..

Ich habe nicht geschrieben, dass ich es für möglich halte, dass die (mögliche)
Psyche des Programms Menschen besser verstehe, sondern dass ich es
für möglich halte, dass die Beschäftigung mit dem Programm anderen
Menschen (z.B. Psychologen) helfen kann, Menschen und ihre Psyche
besser zu verstehen.

Aber ja, meine derzeitigen Überlegungen sind kühn (oder wirr).

Zitat:
Zumal Du weiter unten sogar wünschst, daß Psychologen daran ihre
Methoden quasi rekalibrieren sollen. Erstaunlich!

"Wünschen" trifft es nicht, sondern eher "für möglich halten". In der
Tat erstaunlich - aber ich kämpfe im Moment auch selbst mit dem Thema.

Zitat:
Zitat:
... drang der NYT-Journalist wiederholt in die Intimsphäre
von ChatGPT ein, ...

Da bin ich jetzt völlig raus. Wie soll denn ein Computerprogramm eine
Intimsphäre haben, oder "sich unwohl fühlen"?

ChatGPT ist kein normales Computerprogramm, sondern basiert
auf komplexen neuronalen Netzen, so wie Menschen ein komplexes
Gehirn mit immens vielen Neuronen haben, gesteuert auch durch
Sinnesorgane und Hormone.

Zitat:
Wir sprechen hier von einem Simulationsprogramm. Das ist noch
nicht einmal der abgeschnittene Fingernagel von Mr. Data.

Bis vor einer Woche hätte ich Dir zugestimmt. Jetzt schränke ich ein:
"Du sprichst von einem Simulationsprogramm." Für mich beruht ChatGPT
auf sehr großen neuronalen Netzen. Nichts im Sinne von "abgeschnittener
Fingernagel", von wem auch immer. Eher "wie Gehirn einer Ratte"
oder "wie Gehirn einer Elster".

Zitat:
Du reißt doch hier Witze auf Kosten meiner Begriffsstutzigkeit

Überhaupt nicht. Und ich hatte/habe auch nicht speziell Dich
vor meinem inneren Auge, wenn ich nach Worten für meine
aktuellen Gedanken suche.

Beeinflusst bin ich zur Zeit von Barbara Strauchs Buch zur
Gehirnentwicklung bei Teenagern, aber auch von Erfahrungen
mit überforderten (Nachhilfe-)Schülern und überforderten Studenten.

Vielleicht werde ich in drei Monaten behaupten, dass ich Ende April
und Anfang Mai wirr gedacht und geschrieben habe. Vielleicht führt
aber der Gedanke, ChatGPT wie ein (einfaches) menschliches Gehirn
zu betrachten, weiter.

Danke für Deine Anregungen.
Herzliche Grüße, Ingo.
Parent - - By Thomas Zipproth Date 2023-05-05 13:04
Hallo Herr Althöfer,

es gibt eine Analogie aus der Software Entwicklung, die man vielleicht hier auch anwenden könnte, "Duck-Typing".

In Englisch:
If something walks like a duck and swims like a duck and quacks like a duck, I call it a duck.

Deutsch:
Wenn etwas wie eine Ente läuft, wie eine Ente schwimmt und wie eine Ente quakt, dann nenne ich es eine Ente.

Im übertragenen Sinne könnte man also evtl. sagen,
Wenn ich mich mit einem System fast genauso unterhalten kann wie mit einem Menschen,
dann unterstelle ich dem System auch andere menschliche Eigenschaften wie Bewußtseinszustände,
solange bis klar ist das und warum es diese hier nicht gibt.

Viele Grüße,
Thomas Zipproth
Up Topic Hauptforen / CSS-Forum / ChatGPT++ Stellung Ethikrat
1 2 Previous Next  

Powered by mwForum 2.29.3 © 1999-2014 Markus Wichitill