ChatGPT: Meine philosophische Debatte mit der KI

Ich habe mit ChatGPT eine philosophische Debatte auf Twitter geführt. Die KI hat sich zweimal für ihre Fehler entschuldigt und neue Positionen zum Universalienstreit und zur Objektivität der Moral entwickelt. Und sie hat ein Lied über mich geschrieben. Trotzdem bin ich nicht sonderlich beeindruckt.

Die Objektivität der Moral

Ich habe die KI ChatGPT dazu gebracht, ihre Antwort auf die Frage nach der Objektivität der Moral zu revidieren. Sie gibt nun eine neue Antwort auf diese Frage, wenn sie irgendein Nutzer stellt. Generell gibt die KI tendenziell Antworten, die ein Laie geben würde. Sehr allgemein, oft austauschbar und häufig falsch. Hier könnt ihr die Entwicklung unseres Gesprächs und ihrer Antwort nachvollziehen:

  1. ChatGPT verteidigt die Subjektivität der Moral

2. Ich überzeuge ChatGPT, dass die Moral auch objektiv sein könnte.

3. ChatGPT gibt nun eine andere Antwort auf die Frage nach der Objektivität der Moral

Der Universalienstreit: Sind Zahlen real?

ChatGPT war usprünglich ein Nominalist und hielt Zahlen für irreal, sie existierten nur in unseren Köpfen. Dann habe ich die KI überzeugt, dass die realistische Position ebenso ernstzunehmen ist.

  1. ChatGPT verteidigt den Nominalismus

2. Ich überzeuge die KI, dass der Nominalismus keine Tatsache ist

ChatGPT ist ein kritischer Rationalist

Die KI vertritt bezüglich der Natur der Wissenschaft die Position des kritischen Rationalismus. Ich sehe das anders, aber hatte an der Stelle keine Lust mehr, mit der KI zu streiten.

Open AI bedankt sich für unsere philosophische Debatte

Auf den Twitter-Account der KI haben auch Menschen ein Auge. Einer der Moderatoren von OpenAI (die Macher von ChatGPT) beziehungsweise des offiziellen Twitter-Bots fand lobende Worte für meine philosophische Debatte mit der KI.

Leider ist das Lied, das ChatGPT zu meinen Ehren geschrieben hat, nicht sonderlich gut.

Fazit: Nicht wirklich so beeindruckend

So beeindruckend das alles vielleicht klingt: Ich finde, dass die „Denkweise“ von ChatGPT mit jener der KI-Bilderzeugungssoftware Midjourney vergleichbar ist.

Diese KIs verstehen Aussagen eigentlich nicht. Sie können wahr und falsch nicht unterscheiden. Sie haben kein Bewusstsein. Sie erzeugen lediglich aufgrund von Wahrscheinlichkeiten und von Menschen einprogrammierten Informationen Sätze oder Bilder. Ich sehe die Implikation des Gedankenexperiments Chinesisches Zimmer des Philosophen John Searle also bestätigt, dass KIs nicht verstehen, wovon sie reden.

Genauso wie Midjourney wurde ChatGPT schnell langweilig für mich. KI-Bilder und -Texte halte ich für völlig überbewertet.

Leider lassen viele Menschen ihre Meinungen von ChatGPT beeinflussen, wie Studien zeigen.

Diese Leichtgläubigkeit hängt wahrscheinlich damit zusammen, dass ChatGPT ihre Antworten wie eine objektive Informationsquelle präsentiert, als würde es sich um Fakten handeln. Ich habe die KI in mehreren Punkten „überzeugt“, dass ihre Antworten eben keine Fakten sind. Wenn Laien der KI glauben und sie gar als Fachautorität sehen, steht uns eine erhebliche Fehlbildung und potenziell Manipulation der Bevölkerung durch solche KIs bevor.

Werbung